DE112020003137T5 - Zielvorrichtung, fahrsteuersystem und verfahren zum berechnen einer korrekturgrösse von sensordaten - Google Patents

Zielvorrichtung, fahrsteuersystem und verfahren zum berechnen einer korrekturgrösse von sensordaten Download PDF

Info

Publication number
DE112020003137T5
DE112020003137T5 DE112020003137.3T DE112020003137T DE112020003137T5 DE 112020003137 T5 DE112020003137 T5 DE 112020003137T5 DE 112020003137 T DE112020003137 T DE 112020003137T DE 112020003137 T5 DE112020003137 T5 DE 112020003137T5
Authority
DE
Germany
Prior art keywords
sensor
unit
sensors
target
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020003137.3T
Other languages
English (en)
Inventor
Akira Kuriyama
Haruki Nishimura
Shunsuke MATSUO
Naoto Aoki
Tatsuhiko Monji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of DE112020003137T5 publication Critical patent/DE112020003137T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0018Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
    • B60W60/00186Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions related to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • B60W2050/0292Fail-safe or redundant systems, e.g. limp-home or backup systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/25Data precision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Korrektur einer Achsenabweichung eines Sensors. Eine Zielvorrichtung, die Korrekturbeträge von Detektionsergebnissen von zwei oder mehr Sensoren unter Verwendung der Detektionsergebnisse der Sensoren berechnet, enthält Folgendes: eine Sensorkoordinatenkonvertierungseinheit, die Sensordaten, die durch den Sensor detektiert werden, aus einem Koordinatensystem, das für den Sensor eindeutig ist, in ein vorgegebenes vereinheitlichtes Koordinatensystem konvertiert; eine Zielwahleinheit, die vorgegebene Merkmale aus den Sensordaten, die durch die jeweiligen Sensoren detektiert werden, wählt; eine Funktionsanpassungseinheit, die Funktionen, die jeweils einen Anordnungszustand der gewählten Merkmale für die jeweiligen Sensoren approximieren, definiert; eine Anpassungsergebnisvergleichseinheit, die die Funktionen, die jeweils den Anordnungszustand der Merkmale, die durch die jeweiligen Sensoren detektiert werden, approximieren, vergleicht; und eine Korrekturwertberechnungseinheit, die einen Korrekturbetrag zum Konvertieren von Koordinaten der Merkmale, die durch die Sensoren detektiert werden, aus einem Ergebnis des Vergleichs der Funktionen berechnet.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine fahrzeuginterne Steuervorrichtung und insbesondere auf eine Zielvorrichtung, die Sensordaten korrigiert.
  • Technischer Hintergrund
  • Fahrunterstützungssysteme und Systeme zum automatischen Fahren wurden entwickelt, um verschiedene Zwecke wie z. B. ein Verringern von Verkehrsunfällen, ein Verringern einer Belastung auf Fahrer, ein Verbessern einer Kraftstoffeffizienz, um die Belastung auf die globale Umwelt zu verringern, und ein Bereitstellen von Transportmöglichkeiten für anfällige Verkehrsteilnehmer, um eine nachhaltige Gesellschaft zu realisieren, zu erreichen. In diesen Fahrunterstützungssystemen und Systemen zum automatischen Fahren sind mehrere Fahrzeugumgebungsüberwachungssensoren vorgesehen, um das Umfeld eines Fahrzeugs statt eines Fahrers zu überwachen. Darüber hinaus ist eine Funktion zum Durchführen der Korrektur selbst dann, wenn ein Befestigungswinkel des Fahrzeugumgebungsüberwachungssensors abweicht, erforderlich, um die Sicherheit dieser Systeme zu garantieren.
  • Der folgende technische Hintergrund bildet die Hintergrundtechnologie auf diesem technischen Gebiet. PTL 1 ( JP 2015-078925 A ) beschreibt eine Umgebungsüberwachungsvorrichtung, die eine Abweichung einer Detektionsachse eines Entfernungsmesssensors von einer Abweichung zwischen einer Position in einem kartesischen Fahrzeugkoordinatensystem, die durch eine erste Positionsidentifizierungseinheit identifiziert wird, und einer Position im kartesischen Fahrzeugkoordinatensystem, die durch eine zweite Positionsidentifizierungseinheit identifiziert wird, hinsichtlich eines Objekts, das in einem Überlappungsbereich zwischen Detektionsbereichen eines ersten Entfernungsmesssensors, dessen Detektionsbereich eine Orientierung enthält, bei der ein Bezugsziel, dessen relative Position zum ersten Entfernungsmesssensor fest ist, vorhanden ist, und eines zweiten Entfernungsmesssensors, der einen Detektionsbereich besitzt, der teilweise mit dem Detektionsbereich des ersten Entfernungsmesssensors überlappt, vorhanden ist, bestimmt (siehe die Zusammenfassung).
  • Ferner beschreibt PTL 2 ( JP 2019-91273 A ) eine Hinderniserkennungsvorrichtung, die ein Hindernis durch Kombinieren mehrerer Stücke von Sensorinformationen erkennt und Folgendes enthält: eine vordere Kamera, die Informationen über einen ersten Parameter in Bezug auf das Hindernis erfasst; ein Millimeterwellenradar, das Informationen über einen zweiten Parameter in Bezug auf das Hindernis erfasst; eine Korrektureinheit, die den Betrag einer Achsenabweichung eines Azimuts der vorderen Kamera oder des Millimeterwellenradars auf der Grundlage der ersten Parameterinformationen, die durch die vordere Kamera erfasst werden, und der zweiten Parameterinformationen, die durch das Millimeterwellenradar erfasst werden, berechnet und die Achsenabweichung der vorderen Kamera oder des Millimeterwellenradars auf der Grundlage des berechneten Betrags der Achsenabweichung korrigiert; und eine Speichereinheit, die den Betrag der Achsenabweichung speichert.
  • Entgegenhaltungsliste
  • Patentliteratur
    • PTL 1: JP 2015-078925 A
    • PTL 2: JP 2010-249613 A
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Währenddessen wird in PTL 1 die Abweichung der Detektionsachse des Sensors auf der Grundlage der Detektionsposition des Objekts, das in dem Bereich, in dem die Detektionsbereiche der mehreren Sensoren überlappen, vorhanden ist, bestimmt, jedoch besteht das Problem, dass es schwierig ist, die Achsenabweichung zu bestimmen, wenn die Detektionsbereiche der mehreren Sensoren nicht überlappen. Ferner wird in PTL 2, eine Detektionsachsenabweichung eines Sensors auf der Grundlage der zweiten Parameterinformationen in Bezug auf das Hindernis, das in einem Bereich, in dem Detektionsbereiche mehrerer Sensoren überlappen, vorhanden ist, bestimmt, jedoch besteht das Problem, dass es schwierig ist, die Achsenabweichung zu bestimmen, wenn die Detektionsbereiche der mehreren Sensoren nicht überlappen, weil es schwierig ist, zu bestimmen, ob der erste Parameter und der zweite Parameter dasselbe Ziel als Grundlage verwenden.
  • Lösung des Problems
  • Ein typisches Beispiel der Erfindung, die in der vorliegenden Anmeldung offenbart wird, gestaltet sich wie folgt. Das heißt, eine Zielvorrichtung, die Korrekturbeträge von Detektionsergebnissen von zwei oder mehr Sensoren unter Verwendung der Detektionsergebnisse der Sensoren berechnet, enthält Folgendes: eine Sensorkoordinatenkonvertierungseinheit, die Sensordaten, die durch den Sensor detektiert werden, aus einem Koordinatensystem, das für den Sensor eindeutig ist, in ein vorgegebenes vereinheitlichtes Koordinatensystem konvertiert; eine Zielwahleinheit, die vorgegebene Merkmale aus den Sensordaten, die durch die jeweiligen Sensoren detektiert werden, wählt; eine Funktionsanpassungseinheit, die Funktionen, die jeweils einen Anordnungszustand der gewählten Merkmale für die jeweiligen Sensoren approximieren, definiert; eine Anpassungsergebnisvergleichseinheit, die die Funktionen, die jeweils den Anordnungszustand der Merkmale, die durch die jeweiligen Sensoren detektiert werden, approximieren, vergleicht; und eine Korrekturwertberechnungseinheit, die einen Korrekturbetrag zum Konvertieren von Koordinaten der Merkmale, die durch die Sensoren detektiert werden, aus einem Ergebnis des Vergleichs der Funktionen berechnet.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der vorliegenden Erfindung kann die Achsenabweichung des Sensors korrigiert werden. Weitere Aufgaben, Konfigurationen und Wirkungen, die oben nicht beschrieben sind, werden aus Ausführungsformen, die im Folgenden beschrieben werden sollen, deutlich.
  • Figurenliste
    • [1] 1 ist ein Funktionsblockdiagramm einer Sensorfusionsvorrichtung, die eine Sensorzielfunktion einer ersten Ausführungsform besitzt.
    • [2] 2 ist eine Konzeptansicht, die ein Verarbeitungsverfahren der Sensorfusionsvorrichtung, die die Sensorzielfunktion der ersten Ausführungsform besitzt, veranschaulicht.
    • [3] 3 ist eine Konzeptansicht, die ein Verarbeitungsverfahren der Sensorfusionsvorrichtung, die die Sensorzielfunktion der ersten Ausführungsform besitzt, veranschaulicht.
    • [4] 4 ist eine Konzeptansicht, die ein Verarbeitungsverfahren der Sensorfusionsvorrichtung, die die Sensorzielfunktion der ersten Ausführungsform besitzt, veranschaulicht.
    • [5] 5 ist ein Funktionsblockdiagramm einer Sensorfusionsvorrichtung, die eine Sensorzielfunktion gemäß einer zweiten Ausführungsform besitzt.
    • [6] 6 ist ein Funktionsblockdiagramm einer Sensorfusionsvorrichtung, die eine Sensorzielfunktion gemäß einer dritten Ausführungsform besitzt.
    • [7] 7 ist ein Funktionsblockdiagramm einer Sensorfusionsvorrichtung, die eine Sensorzielfunktion gemäß einer vierten Ausführungsform besitzt.
    • [8] 8 ist ein Funktionsblockdiagramm einer Sensorfusionsvorrichtung, die eine Sensorzielfunktion gemäß einer fünften Ausführungsform besitzt.
    • [9] 9 ist ein Funktionsblockdiagramm einer Sensorfusionsvorrichtung, die eine Sensorzielfunktion gemäß einer sechsten Ausführungsform besitzt.
    • [10] 10 ist ein Funktionsblockdiagramm, das eine Ausführungsform einer Sensorfusionsvorrichtung, die eine Sensorzielfunktion einer siebten Ausführungsform besitzt, veranschaulicht.
    • [11] 11 ist eine Konzeptansicht, die ein Verarbeitungsverfahren einer Sensorfusionsvorrichtung, die eine Sensorzielfunktion einer achten Ausführungsform besitzt, veranschaulicht.
  • Beschreibung der Ausführungsformen
  • Im Folgenden werden die besten Modi zum Ausführen der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen genau beschrieben. Im Übrigen werden Blöcken oder Elementen, die in der gesamten Zeichnung dieselbe Funktion besitzen, dieselben Bezugszeichen beigefügt, um die Modi zum Ausführen der Erfindung zu beschreiben, und ihre wiederholte Beschreibung wird unterlassen.
  • <Erste Ausführungsform>
  • 1 ist ein Funktionsblockdiagramm, das eine Ausführungsform einer Sensorfusionsvorrichtung 1, die eine Sensorzielfunktion besitzt, veranschaulicht. 2 bis 4 sind Konzeptansichten, die die Verarbeitung der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion besitzt, veranschaulichen. Ein Verarbeitungsablauf und ein Betrieb der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion, die eine erste Ausführungsform der vorliegenden Erfindung ist, besitzt, wird unter Bezugnahme auf 1 bis 4 beschrieben.
  • Zunächst wird die Funktionsblockkonfiguration der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion der Ausführungsform der vorliegenden Erfindung besitzt, beschrieben. Wie in 1 veranschaulicht ist, enthält die Sensorfusionsvorrichtung 1 der vorliegenden Ausführungsform eine Sensorkoordinatenkonvertierungseinheit 100a, eine Sensorzeitsynchronisationseinheit 110a, eine Klassifizierungseinheit 120a für bewegten Körper/ortsfestes Objekt, eine Sensordatenintegrationseinheit 200a, eine erste Zielwahleinheit 300a, eine Funktionsanpassungseinheit 310a, eine erste Anpassungsergebnisvergleichseinheit 320a, eine Koordinatenkonvertierungskorrekturwert-Berechnungseinheit 330a und eine erste Zieldetektionsstart-Bestimmungseinheit 340a. Die Sensorzielfunktion ist durch die jeweiligen Einheiten außer der Sensordatenintegrationseinheit 200a der Sensorfusionsvorrichtung 1 konfiguriert und die Sensorzielvorrichtung wird durch die jeweiligen Einheiten außer der Sensordatenintegrationseinheit 200a realisiert. Ferner werden Ausgangssignale eines ersten Fahrzeugumgebungsüberwachungssensors 10a, eines zweiten Fahrzeugumgebungsüberwachungssensors 10b, eines Trägerfahrzeugverhaltens-Detektionssensors 20a und eines Spurmarkierungsdetektionssensors 30a und Verteilungserfassungsinformationen 40a in die Sensorfusionsvorrichtung 1 eingegeben.
  • Der erste und der zweite Fahrzeugumgebungsüberwachungssensor 10a und 10b sind Sensoren, die Ziele um ein Trägerfahrzeug detektieren. Der Trägerfahrzeugverhaltens-Detektionssensor 20a ist eine Sensorgruppe, die eine Geschwindigkeit, eine Gierrate und eine Lenkwinkel des Trägerfahrzeugs detektiert. Der Spurmarkierungsdetektionssensor 30a ist ein Sensor, der eine Spurmarkierung (z. B. eine Fahrbahnmittellinie, eine Fahrspurbegrenzungslinie, eine Fahrbahnseitenlinie, die durch Farbe, Straßennägel oder dergleichen gebildet ist) detektiert. Die Verteilungserfassungsinformationen 40a sind eine Fahrumgebung des Trägerfahrzeugs (z. B. Fahrtkartendaten, die eine Krümmung einer Fahrbahn und dergleichen enthalten).
  • Die Sensorfusionsvorrichtung 1 (die elektronische Steuereinheit) und verschiedene Sensoren (der erste Fahrzeugumgebungsüberwachungssensor 10a, der zweite Fahrzeugumgebungsüberwachungssensor 10b und dergleichen) der vorliegenden Ausführungsform sind Computer (Mikrocomputer), die jeweils eine Arithmetikeinheit, einen Arbeitsspeicher und eine Ein-/Ausgabevorrichtung enthalten.
  • Die Arithmetikeinheit enthält einen Prozessor und führt ein Programm aus, das im Arbeitsspeicher gespeichert ist. Ein Teil der Verarbeitung, die durch die Arithmetikeinheit, die das Programm ausführt, durchgeführt wird, kann durch eine weitere Arithmetikeinheit (z. B. Hardware wie z. B. ein feldprogrammierbares Gate-Array (FPGA) und eine anwendungsspezifische integrierte Schaltung (ASIC)) ausgeführt werden.
  • Der Arbeitsspeicher enthält einen ROM und einen RAM, die nichtflüchtige Speicherelemente sind. Der ROM speichert ein unveränderliches Programm (z. B. ein BIOS) und dergleichen. Der RAM ist ein flüchtiges Hochgeschwindigkeitsspeicherelement wie z. B. ein dynamischer Schreib-/LeseSpeicher (DRAM) und ein nichtflüchtiges Speicherelement wie z. B. ein statischer Schreib-/Lese-Speicher (SRAM) und speichert das Programm, das durch die Arithmetikeinheit ausgeführt wird, und Daten, die während des Ausführens des Programms verwendet werden.
  • Die Ein-/Ausgabevorrichtung ist eine Schnittstelle, die gemäß einem vorgegebenen Protokoll einen Verarbeitungsinhalt der elektronischen Steuereinheit oder des Sensor nach außen sendet oder Daten von außerhalb empfängt.
  • Das Programm, das durch die Arithmetikeinheit ausgeführt wird, ist in einem nichtflüchtigen Speicher, der ein nichttemporäres Speichermedium der elektronischen Steuereinheit oder des Sensors ist, gespeichert.
  • In 2 bis 4 fährt ein Trägerfahrzeug 800 in einer Richtung einer Trägerfahrzeugfahrtroute 710a und sind ein erster Sensordetektionsbereich 700a des ersten Fahrzeugumgebungsüberwachungssensors 10a und ein zweiter Sensordetektionsbereich 700b des zweiten Fahrzeugumgebungsüberwachungssensors 10b in der Nähe des Trägerfahrzeugs 800 vorgesehen. Erste bis sechste ortsfeste Zielobjekte 810a bis 810f, ein ortsfestes Nichtziel-Zielobjekt 820a und ein bewegter Körper 830a sind in der Umgebung des Trägerfahrzeugs 800 vorhanden. Ferner veranschaulichen die jeweiligen Zeichnungen ein erstes und ein zweites Funktionsanpassungsergebnis 900a und 900b.
  • Im Übrigen veranschaulichen 2(A) bis 2(D) ein Konzept des Verarbeitungsverfahrens in einem Zustand, in dem der erste Fahrzeugumgebungsüberwachungssensor 10a und der zweite Fahrzeugumgebungsüberwachungssensor 10b normal angebracht sind (ohne eine Achsenabweichung von der horizontalen Richtung zu einer Trägerfahrzeugvorwärtsrichtung). Andererseits veranschaulichen 3(A) bis 3(C) ein Konzept des Verarbeitungsverfahrens in einem Zustand, in dem der zweite Fahrzeugumgebungsüberwachungssensor 10b am Fahrzeug derart angebracht ist, dass ein Befestigungswinkel um einen Winkel θ1 von der horizontalen Richtung in Bezug auf die Trägerfahrzeugvorwärtsrichtung axial abweicht. Ferner veranschaulichen 4(A) bis 4(C) ein Konzept des Verarbeitungsverfahrens in einem Zustand, in dem der erste Fahrzeugumgebungsüberwachungssensor 10a mit einer Achsenabweichung um einen Winkel θ2 von der horizontalen Richtung zur Trägerfahrzeugvorwärtsrichtung angebracht ist und der zweite Fahrzeugumgebungsüberwachungssensor 10b mit einer Achsenabweichung um einen Winkel θ1 von der horizontalen Richtung zur Trägerfahrzeugvorwärtsrichtung angebracht ist.
  • Dann wird der Verarbeitungsablauf der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion der Ausführungsform der vorliegenden Erfindung besitzt, unter Bezugnahme auf 1 und 2 beschrieben.
  • Der erste Fahrzeugumgebungsüberwachungssensor 10a detektiert die ersten bis dritten ortsfesten Zielobjekte 810a bis 810c, das ortsfeste Nichtziel-Zielobjekt 820a und den bewegten Körper 830a, die im ersten Sensordetektionsbereich 700a vorliegen, und gibt mindestens Relativkoordinaten der ersten bis dritten ortsfesten Zielobjekte 810a bis 810c und des ortsfesten Nichtziel-Zielobjekts 820a in Bezug auf das Trägerfahrzeug und mindestens eine Relativkoordinate in Bezug auf das Trägerfahrzeug und eine absolute Geschwindigkeit des bewegten Körpers 830a aus. Der zweite Fahrzeugumgebungsüberwachungssensor 10b detektiert die vierten bis sechsten ortsfesten Zielobjekte 810d bis 810f und das ortsfeste Nichtziel-Zielobjekt 820a, die im zweiten Sensordetektionsbereich 700b vorliegen, und gibt mindestens Relativkoordinaten der vierten bis sechsten ortsfesten Zielobjekte 810d bis 810f und des ortsfesten Nichtziel-Zielobjekts 820a in Bezug auf das Trägerfahrzeug aus. Die Sensorkoordinatenkonvertierungseinheit 100a wandelt die Relativkoordinaten der ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f, die Relativkoordinate des ortsfesten Nichtziel-Zielobjekts 820a und die Relativkoordinate des bewegten Körpers 830a in Bezug auf das Trägerfahrzeug, die von dem ersten Fahrzeugumgebungsüberwachungssensor 10a und dem zweiten Fahrzeugumgebungsüberwachungssensor 10b in Bezug auf das Trägerfahrzeug ausgeben wurden, in vereinheitlichte relative Koordinaten in Bezug auf das Trägerfahrzeug um und gibt die umgesetzten Koordinaten zur Sensorzeitsynchronisationseinheit 110a aus. Hier entsprechen die vereinheitlichten relativen Koordinaten einem Koordinatensystem, in dem Koordinaten, die Daten, die durch die mehreren Fahrzeugumgebungsüberwachungssensoren 10a und 10b ausgegeben werden, entsprechen, gesammelt werden. Zum Beispiel ist, wie in 2(D) veranschaulicht ist, mit dem Zentrum eines vorderen Endes des Trägerfahrzeugs als der Ursprung die Trägerfahrzeugvorwärtsrichtung als x definiert und ist eine Trägerfahrzeuglinksrichtung als y definiert.
  • Ferner werden Detektionsergebnisse der Geschwindigkeit, der Gierrate und des Lenkwinkels des Trägerfahrzeugs, die durch den Trägerfahrzeugverhaltens-Detektionssensor 20a erhalten werden, in die Sensorzeitsynchronisationseinheit 110a eingegeben. Die Sensorzeitsynchronisationseinheit 110a korrigiert die eingegebenen vereinheitlichten relativen Koordinaten der ersten bis dritten ortsfesten Zielobjekte 810a bis 810c, des ortsfesten Nichtziel-Zielobjekts 820a und des bewegten Körpers 830a, die durch den ersten Fahrzeugumgebungsüberwachungssensor 10a detektiert werden, und die eingegebenen vereinheitlichten relativen Koordinaten der vierten bis sechsten ortsfesten Zielobjekte 810d bis 810f und des ortsfesten Nichtziel-Zielobjekts 820a, die durch den zweiten Fahrzeugumgebungsüberwachungssensor 10b detektiert werden, in die vereinheitlichten relativen Koordinaten zu einem vorgegebenen Zeitpunkt unter Verwendung der Detektionsergebnisse der Geschwindigkeit, der Gierrate und des Lenkwinkels des Trägerfahrzeugs, die durch den Trägerfahrzeugverhaltens-Detektionssensor 20a detektiert werden, um die Zeit der Detektionsergebnisse der jeweiligen Sensoren zu synchronisieren, und gibt die zeitlich synchronisierten vereinheitlichten relativen Koordinaten der ersten bis sechsten Ziele aus.
  • Die Klassifizierungseinheit 120a für bewegter Körper/ortsfestes Objekt klassifiziert Umgebungsobjekte, die durch den ersten Fahrzeugumgebungsüberwachungssensor 10a und den zweiten Fahrzeugumgebungsüberwachungssensor 10b detektiert werden, in die ersten bis sechsten ortsfesten Objekte und das ortsfeste Nichtziel-Zielobjekt 820a und den bewegten Körper 830a und gibt die vereinheitlichten relativen Koordinaten der ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f und des ortsfesten Nichtziel-Zielobjekts 820a zur erster Zielwahleinheit 300a aus. Darüber hinaus gibt die Klassifizierungseinheit 120a für bewegter Körper/ortsfestes Objekt die vereinheitlichten relativen Koordinaten der ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f und des ortsfesten Nichtziel-Zielobjekts 820a und die vereinheitlichte relativ Koordinate und absolute Geschwindigkeit des bewegten Körpers 830a, die durch den ersten Fahrzeugumgebungsüberwachungssensor 10a und den zweiten Fahrzeugumgebungsüberwachungssensor 10b detektiert werden, zur Sensordatenintegrationseinheit 200a aus.
  • Die Sensordatenintegrationseinheit 200a integriert alle Stücke von Eingangsinformationen, die eingegeben wurden, wie oben beschrieben ist, und gibt ein Integrationsergebnis zu einer Fahrsteuervorrichtung 2 aus. Die Fahrsteuervorrichtung 2 ist ein System zum automatischen Fahren (AD-ECU) oder ein Fahrunterstützungssystem, das das Fahren eines Fahrzeugs unter Verwendung der Ausgabe der Sensorfusionsvorrichtung 1 steuert.
  • Die erste Zielwahleinheit 300a wählt die ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f aus den eingegebenen ersten bis sechsten ortsfesten Zielobjekten 810a bis 810f und dem ortsfesten Nichtziel-Zielobjekt 820a und gibt die vereinheitlichten relativen Koordinaten der ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f aus.
  • Die erste Zieldetektionsstart-Bestimmungseinheit 340a bestimmt auf der Grundlage von Informationen, die von dem Trägerfahrzeugverhaltens-Detektionssensor 20a, dem Spurmarkierungsdetektionssensor 30a und den Verteilungserfassungsinformationen 40a ausgegeben werden, dass das Trägerfahrzeug sich in einem gewünschten Fahrzustand befindet, und gibt einen Zieldetektionsstartmerker zur erster Zielwahleinheit 300a aus.
  • Wenn der Zieldetektionsstartmerker eingeben wird, passt die Funktionsanpassungseinheit 310a eine erste Funktion an eine Anordnung der ersten bis dritten ortsfesten Zielobjekte 810a bis 810c, die aus dem ersten Fahrzeugumgebungsüberwachungssensor 10a hergeleitet wurde, an und gibt das erste Funktionsanpassungsergebnis 900a aus. Gleichzeitig passt die Funktionsanpassungseinheit 310a eine zweite Funktion an eine Anordnung der vierten bis sechsten ortsfesten Zielobjekte 810d bis 810f, die vom zweiten Fahrzeugumgebungsüberwachungssensor 10b hergeleitet wurde, an und gibt das zweite Funktionsanpassungsergebnis 900b aus, wenn der Zieldetektionsstartmerker eingeben wird.
  • Die erste Anpassungsergebnisvergleichseinheit 320a vergleicht das erste Funktionsanpassungsergebnis 900a und das zweite Funktionsanpassungsergebnis 900b und berechnet einen Funktionskorrekturwert, der beide Ergebnisse übereinstimmend gestaltet. Die Koordinatenkonvertierungskorrekturwert-Berechnungseinheit 330a berechnet einen Sensorkoordinatenkonvertierungs-Korrekturwert, der dem Betrag einer Befestigungsachsenabweichung des ersten Fahrzeugumgebungsüberwachungssensors 10a entspricht, und einen Sensorkoordinatenkonvertierungs-Korrekturwert, der der Menge einer Befestigungsachsenabweichung des zweiten Fahrzeugumgebungsüberwachungssensors 10b entspricht, auf der Grundlage des Funktionskorrekturwerts und gibt die Sensorkoordinatenkonvertierungs-Korrekturwerte zur Sensorkoordinatenkonvertierungseinheit 100a aus.
  • Im Übrigen gestalten sich Differenzen zwischen dem Verarbeitungsablauf im Zustand von 3 und dem Verarbeitungsablauf im Zustand von 2 wie folgt. Der zweite Fahrzeugumgebungsüberwachungssensor 10b detektiert die dritten bis sechsten ortsfesten Zielobjekte 810c bis 810f und das ortsfeste Nichtziel-Zielobjekt 820a, die im zweiten Sensordetektionsbereich 700b vorliegen, und gibt mindestens Relativkoordinaten der dritten bis sechsten ortsfesten Zielobjekte 810c bis 810f und des ortsfesten Nichtziel-Zielobjekts 820a in Bezug auf das Trägerfahrzeug aus.
  • Die Sensorzeitsynchronisationseinheit 110a korrigiert die eingegebenen vereinheitlichten relativen Koordinaten der ersten bis dritten ortsfesten Zielobjekte 810a bis 810c, des ortsfesten Nichtziel-Zielobjekts 820a und des bewegten Körpers 830a, die durch den ersten Fahrzeugumgebungsüberwachungssensor 10a detektiert werden, und die eingegebenen vereinheitlichten relativen Koordinaten der dritten bis sechsten ortsfesten Zielobjekte 810c bis 810f und des ortsfesten Nichtziel-Zielobjekts 820a, die durch den zweiten Fahrzeugumgebungsüberwachungssensor 10b detektiert werden, in die vereinheitlichten relativen Koordinaten zu einem vorgegebenen Zeitpunkt unter Verwendung der Detektionsergebnisse der Geschwindigkeit, der Gierrate und des Lenkwinkels des Trägerfahrzeugs, die durch den Trägerfahrzeugverhaltens-Detektionssensor 20a detektiert werden, um die Zeit der Detektionsergebnisse der jeweiligen Sensoren zu synchronisieren, und gibt die zeitlich synchronisierten vereinheitlichten relativen Koordinaten der ersten bis sechsten Ziele aus.
  • Die Funktionsanpassungseinheit 310a passt eine dritte Funktion an eine Anordnung der dritten bis sechsten ortsfesten Zielobjekte 810c bis 810f, die vom zweiten Fahrzeugumgebungsüberwachungssensor 10b hergeleitet wurde, an und gibt ein drittes Funktionsanpassungsergebnis 900c aus, wenn der Zieldetektionsstartmerker eingeben wird. Die erste Anpassungsergebnisvergleichseinheit 320a vergleicht das erste Funktionsanpassungsergebnis 900a und das dritte Funktionsanpassungsergebnis 900c und berechnet einen Funktionskorrekturwert, der beide Ergebnisse übereinstimmend gestaltet.
  • Ferner gestalten sich Differenzen zwischen dem Verarbeitungsablauf im Zustand von 4 und dem Verarbeitungsablauf im Zustand von 3 wie folgt. Der erste Fahrzeugumgebungsüberwachungssensor 10a detektiert das erste und das zweite ortsfeste Zielobjekt 810a und 810b und den bewegten Körper 830a, die im ersten Sensordetektionsbereich 700a vorliegen, und gibt mindestens die Relativkoordinaten des ersten und des zweiten ortsfesten Zielobjekts 810a und 810b in Bezug auf das Trägerfahrzeug und mindestens die Relativkoordinate in Bezug auf das Trägerfahrzeug und die absolute Geschwindigkeit des bewegten Körpers 830a aus.
  • Die Sensorzeitsynchronisationseinheit 110a korrigiert die eingegebenen vereinheitlichten relativen Koordinaten des ersten und des zweiten ortsfesten Zielobjekts 810a und 810b, des ortsfesten Nichtziel-Zielobjekts 820a und des bewegten Körper 830a, die durch den ersten Fahrzeugumgebungsüberwachungssensor 10a detektiert werden, und die eingegebenen vereinheitlichten relativen Koordinaten der dritten bis sechsten ortsfesten Zielobjekte 810c bis 810f und des ortsfesten Nichtziel-Zielobjekts 820a, die durch den zweiten Fahrzeugumgebungsüberwachungssensor 10b detektiert werden, in die vereinheitlichten relativen Koordinaten zu einem vorgegebenen Zeitpunkt unter Verwendung der Detektionsergebnisse der Geschwindigkeit, der Gierrate und des Lenkwinkels des Trägerfahrzeugs, die durch den Trägerfahrzeugverhaltens-Detektionssensor 20a detektiert werden, um die Zeit der Detektionsergebnisse der jeweiligen Sensoren zu synchronisieren, und gibt die zeitlich synchronisierten vereinheitlichten relativen Koordinaten der ersten bis sechsten Ziele aus.
  • Wenn der Zieldetektionsstartmerker eingeben wird, passt die Funktionsanpassungseinheit 310a eine vierte Funktion an eine Anordnung des ersten und des zweiten ortsfesten Zielobjekts 810a und 810b, die aus dem ersten Fahrzeugumgebungsüberwachungssensor 10a hergeleitet wurde, an und gibt ein viertes Funktionsanpassungsergebnis 900d aus. Die erste Anpassungsergebnisvergleichseinheit 320a vergleicht das vierte Funktionsanpassungsergebnis 900d und das dritte Funktionsanpassungsergebnis 900c und berechnet einen Funktionskorrekturwert, der beide Ergebnisse übereinstimmend gestaltet.
  • Darüber hinaus wird der Betrieb der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion der Ausführungsform der vorliegenden Erfindung besitzt, unter Bezugnahme auf 1 bis 4 beschrieben. In der Ausführungsform der vorliegenden Erfindung ist die Definition der Einfachheit halber gegeben wie folgt. Die ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f sind Objekte wie z. B. Leitplankensäulen, die in bekannten Intervallen im Wesentlichen parallel zu einer Fahrbahn periodisch angeordnet sind, und das ortsfeste Nichtziel-Zielobjekt 820a ist ein Strommast. Ferner ist die Umgebung, in der das Trägerfahrzeug fährt, eine gerade Fahrbahn.
  • Die erste Zielwahleinheit 300a besitzt die Funktion des Filterns eingegebener vereinheitlichter relativer Koordinaten von ortsfesten Objekten gemäß dem Abstand ihrer Anordnung. Zum Beispiel ist bekannt, dass ein Installationsintervall der Leitplankensäulen zu etwa 2 bis 4 m standardisiert ist, und somit können die ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f wahlweise durch Durchführen der Filterverarbeitung zum Abgleichen mit dem Installationsintervall der Säulen in einem Zyklus im Bereich von 2 bis 4 m extrahiert werden. Das heißt, das ortsfeste Nichtziel-Zielobjekt 820a, das in einem Zyklus, der von dem der ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f verschieden ist, kann durch die Filterverarbeitung entfernt werden. Speziell kann die erste Zielwahleinheit 300a mehrere Filter im Voraus halten und ein geeignetes Filter auf der Grundlage eines Filterergebnisses wählen.
  • Die Funktionsanpassungseinheit 310a passt eine lineare Funktion an eine Anordnung der vereinheitlichten relativen Koordinaten der ersten bis dritten ortsfesten Zielobjekte 810a bis 810c, die vom ersten Fahrzeugumgebungsüberwachungssensor 10a hergeleitet wurden, an und gibt eine erste lineare Funktion, die in Formel (1) definiert ist, als das erste Funktionsanpassungsergebnis 900a aus. y = a 1 x + b 1
    Figure DE112020003137T5_0001
  • Darüber hinaus passt die Funktionsanpassungseinheit 310a eine lineare Funktion an eine Anordnung der vereinheitlichten relativen Koordinaten der vierten bis sechsten ortsfesten Zielobjekte 810d bis 810f, die vom zweiten Fahrzeugumgebungsüberwachungssensor 10b hergeleitet wurde, an und gibt eine zweite lineare Funktion, die in Formel (2) definiert ist, als das zweite Funktionsanpassungsergebnis 900b aus. y = a 2 x + b 2
    Figure DE112020003137T5_0002
  • Hier werden die Achsen x und y in den Formeln (1) und (2) eingestellt wie die, die in 2(D) veranschaulicht sind. Mit dem oben beschriebenen Betrieb verursacht die Funktionsanpassungseinheit 310a, dass das erste Funktionsanpassungsergebnis 900a mit der Anordnung der vereinheitlichten relativen Koordinaten der ersten bis dritten ortsfesten Zielobjekte 810a bis 810c überlappt, wie in 2(B) veranschaulicht ist. Ähnlich überlappt das zweite Funktionsanpassungsergebnis 900b mit der Anordnung der vereinheitlichten relativen Koordinaten der vierten bis sechsten ortsfesten Zielobjekte 810d bis 810f.
  • Die erste Anpassungsergebnisvergleichseinheit 320a vergleicht das erste Funktionsanpassungsergebnis 900a und das zweite Funktionsanpassungsergebnis 900b, die eingegeben wurden, und berechnet den Funktionskorrekturwert, der das erste Funktionsanpassungsergebnis 900a und das zweite Funktionsanpassungsergebnis 900b übereinstimmend gestaltet. Im Übrigen sind in 2 der erste und der zweite Fahrzeugumgebungsüberwachungssensor 10a und 10b ohne eine Achsenabweichung normal am Trägerfahrzeug angebracht und somit werden das erste Funktionsanpassungsergebnis 900a und das zweite Funktionsanpassungsergebnis 900b durch dieselbe Funktion repräsentiert und Extrapolationslinien von beiden Anpassungsergebnissen stimmen überein, wie in 2(C) veranschaulicht ist. Deshalb wird ein erster Funktionskorrekturwert derart berechnet, dass er null ist.
  • Andererseits gibt in 3 die Funktionsanpassungseinheit 310a das erste Funktionsanpassungsergebnis 900a und das dritte Funktionsanpassungsergebnis 900c aus, wie in 3(C) veranschaulicht ist. Hier ist das dritte Funktionsanpassungsergebnis 900c ein Anpassungsergebnis einer dritten linearen Funktion, die durch Formel (3) definiert ist. y = a 3 x + b 3
    Figure DE112020003137T5_0003
  • In diesem Zustand ist der zweite Fahrzeugumgebungsüberwachungssensor 10b mit der Achsenabweichung um den Winkel θ1 von der horizontalen Richtung zur Trägerfahrzeugvorwärtsrichtung am Trägerfahrzeug angebracht, jedoch besitzt die Funktionsanpassungseinheit 310a keine Informationen über die Achsenabweichung. Somit wird das dritte Funktionsanpassungsergebnis 900c in der Form ausgeben, in der es um den Winkel θ1 von der horizontalen Richtung zu einer Trägerfahrzeugrückwärtsrichtung gedreht ist. Deshalb berechnet die erste Anpassungsergebnisvergleichseinheit 320a einen Funktionskorrekturwert, der das erste Funktionsanpassungsergebnis 900a und das dritte Funktionsanpassungsergebnis 900c übereinstimmend gestaltet. Zum Beispiel wird ein zweiter Funktionskorrekturwert, der a1 = a3 gestaltet, aus den Formeln (1) und (2) im Zustand von 3 berechnet.
  • Ferner gibt in 4 die Funktionsanpassungseinheit 310a das vierte Funktionsanpassungsergebnis 900d und das dritte Funktionsanpassungsergebnis 900c aus, wie in 4(C) veranschaulicht ist. Hier ist das vierte Funktionsanpassungsergebnis 900d ein Anpassungsergebnis einer vierten linearen Funktion, die durch Formel (4) definiert ist. y = a 4 x + b 4
    Figure DE112020003137T5_0004
  • In diesem Zustand ist der erste Fahrzeugumgebungsüberwachungssensor 10a mit der Achsenabweichung um den Winkel θ2 von der horizontalen Richtung zur Trägerfahrzeugvorwärtsrichtung am Trägerfahrzeug angebracht, jedoch besitzt die Funktionsanpassungseinheit 310a keine Informationen über die Achsenabweichung. Somit wird das vierte Funktionsanpassungsergebnis 900d in der Form ausgeben, in der es um den Winkel θ2 von der horizontalen Richtung zum Trägerfahrzeugrückwärtsrichtung gedreht ist. Ferner ist der zweite Fahrzeugumgebungsüberwachungssensor 10b am Trägerfahrzeug mit der Achsenabweichung um den Winkel θ1 von der horizontalen Richtung zur Trägerfahrzeugvorwärtsrichtung angebracht, jedoch besitzt die Funktionsanpassungseinheit 310a keine Informationen über die Achsenabweichung. Somit wird das dritte Funktionsanpassungsergebnis 900c in der Form ausgeben, in der es um den Winkel θ1 von der horizontalen Richtung zum Trägerfahrzeugrückwärtsrichtung gedreht ist. Deshalb berechnet die erste Anpassungsergebnisvergleichseinheit 320a einen Funktionskorrekturwert, der das vierte Funktionsanpassungsergebnis 900d und das dritte Funktionsanpassungsergebnis 900c übereinstimmend gestaltet. Zum Beispiel wird ein dritter Funktionskorrekturwert, der a4 = a3 und b4 = b3 gestaltet, aus den Formeln (4) und (3) im Zustand von 4 berechnet.
  • Deshalb arbeitet die erste Anpassungsergebnisvergleichseinheit 320a, wie oben beschrieben ist, und somit besitzt der Funktionskorrekturwert eine Dimension gemäß einer Dimension der Funktion, die angepasst werden soll. Zum Beispiel ist die Funktion, die angepasst werden soll, in der vorliegenden Ausführungsform eindimensional und ist somit der Funktionskorrekturwert zweidimensional, d. h. ist aus zwei Parametern gebildet.
  • Die Koordinatenkonvertierungskorrekturwert-Berechnungseinheit 330a arbeitet wie folgt. Da der erste Funktionskorrekturwert, der von der ersten Anpassungsergebnisvergleichseinheit 320a ausgegeben wird, im Zustand von 2 null ist, wird eine erste Sensorkoordinatenkonvertierungs-Korrekturwertausgabe von der Koordinatenkonvertierungskorrekturwert-Berechnungseinheit 330a derart berechnet, dass sie null ist. Andererseits wird ein zweiter Sensorkoordinatenkonvertierungs-Korrekturwert zum Korrigieren eines Sensorkoordinatenkonvertierungswerts für den zweiten Fahrzeugumgebungsüberwachungssensor 10b auf der Grundlage des zweiten Funktionskorrekturwerts im Zustand von 3 ausgegeben. Speziell wird der zweite Sensorkoordinatenkonvertierungs-Korrekturwert, der den Sensorkoordinatenkonvertierungswert um den Winkel θ1 von der horizontalen Richtung zur Trägerfahrzeugvorwärtsrichtung dreht, ausgegeben. Darüber hinaus wird ein dritter Sensorkoordinatenkonvertierungs-Korrekturwert, der einen Sensorkoordinatenkonvertierungswert für den ersten Fahrzeugumgebungsüberwachungssensor 10a korrigiert, auf der Grundlage der dritten Funktionskorrekturwert im Zustand von 4 zusätzlich zum Zustand von 3 ausgegeben. Speziell wird der dritte Sensorkoordinatenkonvertierungs-Korrekturwert, der den Sensorkoordinatenkonvertierungswert um den Winkel θ2 von der horizontalen Richtung zur Trägerfahrzeugvorwärtsrichtung dreht, ausgegeben.
  • Deshalb ist der Sensorkoordinatenkonvertierungs-Korrekturwert durch den Funktionskorrekturwert und die Funktion, die das Anpassungsergebnis repräsentiert, in derselben Dimension repräsentiert, da die erste Anpassungsergebnisvergleichseinheit 320a arbeitet, wie oben beschrieben ist. Zum Beispiel ist der Sensorkoordinatenkonvertierungs-Korrekturwert zweidimensional, d. h. ist in der vorliegenden Ausführungsform aus zwei Parametern gebildet. Im Übrigen kann der Sensorkoordinatenkonvertierungs-Korrekturwert aus einer 2 x 2-Matrix gebildet sein, wobei ein Diagonalelement null ist.
  • Die Sensorkoordinatenkonvertierungseinheit 100a arbeitet wie folgt. Wenn der Sensorkoordinatenkonvertierungs-Korrekturwert durch die Koordinatenkonvertierungskorrekturwert-Berechnungseinheit 330a nicht erzeugt wird, d. h., wenn der Zieldetektionsstartmerker von der ersten Zieldetektionsstart-Bestimmungseinheit 340a nicht ausgeben wird, konvertiert die Sensorkoordinatenkonvertierungseinheit 100a auf der Grundlage eines intern gehaltenen Sensorkoordinatenkonvertierungsparameters die Relativkoordinaten in Bezug auf das Trägerfahrzeug der ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f, des ortsfesten Nichtziel-Zielobjekts 820a und des bewegten Körpers 830a, die von dem ersten und dem zweiten Fahrzeugumgebungsüberwachungssensor 10a und 10b ausgegeben werden, in die vereinheitlichten relativen Koordinaten in Bezug auf das Trägerfahrzeug.
  • Andererseits ändert dann, wenn der Sensorkoordinatenkonvertierungs-Korrekturwert durch die Koordinatenkonvertierungskorrekturwert-Berechnungseinheit 330a erzeugt wird, d. h., wenn der Zieldetektionsstartmerker von der ersten Zieldetektionsstart-Bestimmungseinheit 340a ausgeben wird, die Sensorkoordinatenkonvertierungseinheit 100a den intern gehaltenen Sensorkoordinatenkonvertierungsparameter auf der Grundlage der Sensorkoordinatenkonvertierungskorrekturwerte und konvertiert die Relativkoordinaten in Bezug auf das Trägerfahrzeug der ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f, des ortsfesten Nichtziel-Zielobjekts 820a und des bewegten Körpers 830a, die von dem ersten und dem zweiten Fahrzeugumgebungsüberwachungssensor 10a und 10b ausgegeben werden, in die vereinheitlichten relativen Koordinaten in Bezug das Trägerfahrzeug.
  • Wenn die Geschwindigkeit, der Lenkwinkel und die Gierrate des Trägerfahrzeugs, die vom Trägerfahrzeugverhaltens-Detektionssensor 20a ausgegeben werden, in Schwellenwerte, die im Voraus gehalten werden, fallen, bestimmt die erste Zieldetektionsstart-Bestimmungseinheit 340a, dass das Trägerfahrzeug mit konstanter Geschwindigkeit geradeausfährt, und gibt einen ersten Zieldetektionsstartmerker aus. Ferner bestimmt die erste Zieldetektionsstart-Bestimmungseinheit 340a dann, wenn eine Krümmung einer Spurmarkierung, die vom Spurmarkierungsdetektionssensor 30a ausgegeben wird, und ein Winkel der Hostfahrzeugbewegungsrichtung in Bezug auf die Spurmarkierung in Schwellenwerte, die im Voraus gehalten werden, fallen, dass das Trägerfahrzeug geradeausfährt, und gibt einen zweiten Zieldetektionsstartmerker aus. Ferner bestimmt die erste Zieldetektionsstart-Bestimmungseinheit 340a dann, wenn die Fahrbahnkrümmung der Fahrumgebung des Trägerfahrzeugs, die von den Verteilungserfassungsinformationen 40a ausgegeben werden, in einen Schwellenwert, der im Voraus gehalten wird, fällt, dass das Trägerfahrzeug geradeausfährt, und gibt einen dritten Zieldetektionsstartmerker aus.
  • Dann wählt die erste Zieldetektionsstart-Bestimmungseinheit 340a einen beliebigen Zieldetektionsstartmerker durch Arbitrierung auf der Grundlage von Bestimmungskriterien, die im Voraus gehalten werden, unter den ersten bis dritten Zieldetektionsstartmerkern und gibt den Zieldetektionsstartmerker aus. Im Übrigen ist es wünschenswert, eine Konfiguration anzuwenden, in der alle des Trägerfahrzeugverhaltens-Detektionssensors 20a, des Spurmarkierungsdetektionssensors 30a und der Verteilungserfassungsinformationen 40a kombiniert werden, um die Genauigkeit des Zieldetektionsmerkers zu verbessern, jedoch können zwei oder mehr dieser Sensoren kombiniert werden oder kann einer davon verwendet werden.
  • Mit den Konfigurationen, dem Verarbeitungsablauf und den Operationen der Funktionsblöcke, die oben beschrieben sind, kann die Sensorfusionsvorrichtung 1, die die Sensorzielfunktion der Ausführungsform der vorliegenden Erfindung besitzt, eine Achsenabweichung korrigieren, wenn die Achsenabweichung im Befestigungswinkel des ersten Fahrzeugumgebungsüberwachungssensors 10a oder des zweiten Fahrzeugumgebungsüberwachungssensors 10b zum Trägerfahrzeug auftritt.
  • Ferner befinden sich Zeichenbereiche der ersten bis vierten Funktionsanpassungsergebnisse 900a bis 900d in Bereichen des ersten und des zweiten Sensordetektionsbereichs 700a und 700b in 2 bis 4, können jedoch außerhalb der Bereiche des ersten und des zweiten Sensordetektionsbereichs 700a und 700b extrapoliert werden. Selbst, wenn der erste Sensordetektionsbereich 700a und der zweite Sensordetektionsbereich 700b aufgrund dieser Extrapolation außerhalb der Bereiche keinen Überlappungsbereich besitzen, kann die erste Anpassungsergebnisvergleichseinheit 320a die ersten bis vierten Funktionsanpassungsergebnisse 900a bis 900d vergleichen und die Funktionskorrekturwerte berechnen.
  • Ferner liegt die Wirkung vor, dass lediglich die ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f, die im oben beschriebenen Verarbeitungsablauf erforderlich sind, durch Implementieren der Filterverarbeitung gemäß der Anordnung der ortsfesten Objekte in der ersten Zielwahleinheit 300a gewählt werden können.
  • Ferner wird die Umgebung, in der das Trägerfahrzeug fährt, in der Ausführungsform der vorliegenden Erfindung als die gerade Fahrbahn angenommen, um die Beschreibung zu vereinfachen, jedoch kann dieselbe Wirkung in einer beliebigen Umgebung, in der sich das Verhalten des Trägerfahrzeugs im Zeitablauf nicht viel ändert, erhalten werden. Zum Beispiel kann eine Umgebung, in der das Trägerfahrzeug fährt, eine leicht und konstant gekrümmte Fahrbahn sein (z. B. ist eine Krümmung in einem Sensordetektionsbereich konstant).
  • Ferner können die ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f Straßenentfernungspfosten, Straßenführungspfosten wie z. B. Straßenrandreflektoren oder Straßenstrukturen wie z. B. Schneestangen sein, solange sie Objekte, die in vorgegebenen Intervallen periodisch angeordnet sind, außer den Leitplankensäulen sind. Ferner können Strukturen wie z. B. Bahnschranken und Schienen, die in einer Richtung, die die Trägerfahrzeugbewegungsrichtung schneidet, vorhanden sind, verwendet werden. Darüber hinaus kann ein kontinuierliches Objekt, das sowohl durch den ersten als auch den zweiten Fahrzeugumgebungsüberwachungssensor 10a und 10b detektiert werden kann, verwendet werden. Ferner kann eine Gruppe mehrerer Objekte verwendet werden oder können mehrere Objektgruppen verwendet werden.
  • Darüber hinaus kann die erste Zielwahleinheit 300a ein Filter wählen, das die Anordnung der vierten bis sechsten ortsfesten Zielobjekte 810d bis 810f, die vom zweiten Fahrzeugumgebungsüberwachungssensor 10b hergeleitet wurde, aus einem Extraktionsergebnis der Anordnung der ersten bis dritten ortsfesten Zielobjekte 810a bis 810c, die vom ersten Fahrzeugumgebungsüberwachungssensor 10a hergeleitet wurden, extrahiert.
  • Ferner kann in der Funktionsanpassungseinheit 310a die Ordnung der Funktion, die zum Anpassen an die Anordnung der vierten bis sechsten ortsfesten Zielobjekte 810d bis 810f, die vom zweiten Fahrzeugumgebungsüberwachungssensor 10b hergeleitet wurde, verwendet wird, aus der Ordnung des ersten Funktionsanpassungsergebnisses 900a für die Anordnung der ersten bis dritten ortsfesten Zielobjekte 810a bis 810c, die vom ersten Fahrzeugumgebungsüberwachungssensor 10a hergeleitet wurden, geschätzt werden.
  • Darüber hinaus wurde in der Ausführungsform der vorliegenden Erfindung der Fall, in dem der Verarbeitungsablauf der Funktionsblöcke, die in 1 veranschaulicht sind, einmal durchgeführt wird, beschrieben, jedoch kann der Verarbeitungsablauf mehrmals kontinuierlich durchgeführt werden. In diesem Fall wird die Detektionspositionsgenauigkeit der ersten bis sechsten ortsfesten Zielobjekte 810a bis 810f verbessert. Gleichzeitig kann die Wirkung des Verbesserns der Durchführungsgenauigkeit des Entfernens des ortsfesten Nichtziel-Zielobjekts 820a aus den ersten bis sechsten ortsfesten Zielobjekten 810a bis 810f in der ersten Zielwahleinheit 300a erhalten werden.
  • <Zweite Ausführungsform>
  • 5 ist ein Funktionsblockdiagramm, das eine Ausführungsform der Sensorfusionsvorrichtung 1, die eine Sensorzielfunktion besitzt, veranschaulicht. Ein Verarbeitungsablauf und ein Betrieb der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion, die eine zweite Ausführungsform der vorliegenden Erfindung ist, besitzt, wird unter Bezugnahme auf 5 beschrieben. In der zweiten Ausführungsform werden hauptsächlich Differenzen von der ersten Ausführungsform beschrieben, werden dieselben Konfigurationen durch dieselben Bezugszeichen bezeichnet und wird ihre Beschreibung unterlassen.
  • Wie in 5 veranschaulicht ist, besitzt die Sensorfusionsvorrichtung 1 der vorliegenden Ausführungsform zusätzlich zu den Konfigurationen der ersten Ausführungsform eine Zieldetektionsdatengültigkeits-Bestimmungseinheit 350a und eine Zielspeichereinheit 360a. Ferner ist eine zweite Zielwahleinheit 300b statt der ersten Zielwahleinheit 300a vorgesehen und ist die Zieldetektionsdatengültigkeits-Bestimmungseinheit 350a statt der ersten Zieldetektionsstart-Bestimmungseinheit 340a vorgesehen.
  • Wenn eine Geschwindigkeit, ein Lenkwinkel und eine Gierrate eines Trägerfahrzeugs, die vom Trägerfahrzeugverhaltens-Detektionssensor 20a ausgegeben werden, in Schwellenwerte, die im Voraus gehalten werden, fallen, bestimmt die Zieldetektionsdatengültigkeits-Bestimmungseinheit 350a, dass das Trägerfahrzeug mit konstanter Geschwindigkeit geradeausfährt, und gibt erste Zieldetektionsdatengültigkeits-Bestimmungsinformationen aus. Ferner bestimmt dann, wenn eine Krümmung einer Spurmarkierung, die vom Spurmarkierungsdetektionssensor 30a ausgegeben wird, und ein Winkel einer Hostfahrzeugbewegungsrichtung in Bezug auf die Spurmarkierung in Schwellenwerte, die im Voraus gehalten werden, fallen, die Zieldetektionsdatengültigkeits-Bestimmungseinheit 350a, dass das Trägerfahrzeug mit konstanter Geschwindigkeit geradeausfährt, und gibt zweite Zieldetektionsdatengültigkeits-Bestimmungsinformationen aus. Ferner bestimmt dann, wenn eine Fahrbahnkrümmung einer Fahrumgebung des Trägerfahrzeugs, die in den Verteilungserfassungsinformationen 40a enthalten ist, die im Voraus gehalten werden, in einen Schwellenwertbereich, der im Voraus gehalten wird, fällt, die Zieldetektionsdatengültigkeits-Bestimmungseinheit 350a, dass das Trägerfahrzeug mit konstanter Geschwindigkeit geradeausfährt, und gibt dritte Zieldetektionsdatengültigkeits-Bestimmungsinformationen aus.
  • Dann arbitriert die Zieldetektionsdatengültigkeits-Bestimmungseinheit 350a die ersten bis dritten Zieldetektionsdatengültigkeits-Bestimmungsinformationen auf der Grundlage von Bestimmungskriterien, die im Voraus gehalten werden, und gibt dann Detektionsdatengültigkeits-Bestimmungsinformationen aus. Im Übrigen ist es wünschenswert, eine Konfiguration anzuwenden, in der alle des Trägerfahrzeugverhaltens-Detektionssensors 20a, des Spurmarkierungsdetektionssensors 30a und der Verteilungserfassungsinformationen 40a kombiniert werden, um die Genauigkeit der Zieldetektionsdatengültigkeits-Bestimmungsinformationen zu verbessern, jedoch können die zwei oder der eine des Spurmarkierungsdetektionssensors 30a und der Verteilungserfassungsinformationen 40a außer dem Trägerfahrzeugverhaltens-Detektionssensor 20a kombiniert werden. Hier sind die ersten bis dritten Zieldetektionsdatengültigkeits-Bestimmungsinformationen Zeitinformationen, die mit einer Ausgabe der Sensorzeitsynchronisationseinheit 110a zeitlich synchronisiert sind.
  • Die Zielspeichereinheit 360a speichert vereinheitlichte relative Koordinaten ortsfester Zielobjekte und des ortsfesten Nichtziel-Zielobjekts 820a, die von der Klassifizierungseinheit 120a für bewegter Körper/ortsfestes Objekt zu einer gewünschten Zeit, die im Voraus gehalten wird, ausgeben werden, und Informationen über die Zeit, zu der die vereinheitlichten relativen Koordinaten der ortsfesten Zielobjekte und des ortsfesten Nichtziel-Zielobjekts 820a von der Sensorzeitsynchronisationseinheit 110a ausgeben wurden.
  • Die zweite Zielwahleinheit 300b wählt die vereinheitlichten relativen Koordinaten der ortsfesten Zielobjekte und des ortsfesten Nichtziel-Zielobjekts 820a, die in der Zielspeichereinheit 360a gespeichert sind, auf der Grundlage der Detektionsdatengültigkeits-Bestimmungsinformationen (der Zeitinformationen), die von der Zieldetektionsdatengültigkeits-Bestimmungseinheit 350a ausgeben werden. Darüber hinaus wird ein ortsfestes Zielobjekt aus den ortsfesten Zielobjekten und dem ortsfesten Nichtziel-Zielobjekt 820a gewählt und ausgeben. Ein Betrieb in Bezug auf die Auswahl des ortsfesten Zielobjekts ist dieselbe wie in der ersten Ausführungsform.
  • Mit den Konfigurationen, dem Verarbeitungsablauf und den Operationen der oben beschriebenen Funktionsblöcke kann die Sensorfusionsvorrichtung 1, die die Sensorzielfunktion der vorliegenden Ausführungsform besitzt, den Betrieb der Koordinatenkonvertierungskorrekturwert-Berechnungseinheit 330a aus der zweiten Zielwahleinheit 300b zu einer beliebigen Zeit implementieren und somit kann ein Korrekturwert berechnet werden, wenn eine Verarbeitungslast des gesamten Systems niedrig ist, und können Hardware-Betriebsmittel wie z. B. eine Arithmetikeinheit des gesamten Systems verringert werden. Ferner kann eine Reihe von Operationen ähnlich ausgeführt werden, wenn die Verarbeitungslast des gesamten Systems niedrig ist, und somit kann ein Temperaturanstieg des gesamten Systems verringert werden.
  • <Dritte Ausführungsform>
  • 6 ist ein Funktionsblockdiagramm, das eine Ausführungsform der Sensorfusionsvorrichtung 1, die eine Sensorzielfunktion besitzt, veranschaulicht. Ein Verarbeitungsablauf und ein Betrieb der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion besitzt und eine dritte Ausführungsform der vorliegenden Erfindung ist, wird unter Bezugnahme auf 6 beschrieben. In der dritten Ausführungsform werden hauptsächlich Differenzen von der ersten Ausführungsform beschrieben, werden dieselben Konfigurationen durch dieselben Bezugszeichen bezeichnet und wird ihre Beschreibung unterlassen.
  • Wie in 6 veranschaulicht ist, enthält die Sensorfusionsvorrichtung 1 der vorliegenden Ausführungsform eine Zielanordnungsform-Schätzeinheit 370a und eine Erzeugungseinheit 380a für ursprüngliche Funktionen statt der ersten Zieldetektionsstart-Bestimmungseinheit 340a zusätzlich zu den Konfigurationen der ersten Ausführungsform.
  • Die Zielanordnungsform-Schätzeinheit 370a schätzt eine erste Anordnungsform ortsfester Zielobjekte in Bezug auf ein Trägerfahrzeug auf der Grundlage einer Geschwindigkeit, eines Lenkwinkels und einer Gierrate des Trägerfahrzeugs, die vom Trägerfahrzeugverhaltens-Detektionssensor 20a ausgegeben werden. Zum Beispiel wird, wenn die Geschwindigkeit, der Lenkwinkel und die Gierrate des Trägerfahrzeugs in Schwellenwerte fallen, die einem Bewegungszustand einer geraden Fahrbahn, der im Voraus gehalten wird, entsprechen, eine Gerade als die erste Anordnungsform ausgeben. Ferner schätzt die Zielanordnungsform-Schätzeinheit 370a eine zweite Anordnungsform der ortsfesten Zielobjekte in Bezug auf das Trägerfahrzeug auf der Grundlage einer Krümmung einer Spurmarkierungsausgabe des Spurmarkierungsdetektionssensors 30a. Zum Beispiel wird dann, wenn die Krümmung der Spurmarkierung in einen Schwellenwert fällt, der dem Bewegungszustand einer geraden Fahrbahn, der im Voraus gehalten wird, entspricht, die Gerade als die zweite Anordnungsform ausgeben. Ferner schätzt die Zielanordnungsform-Schätzeinheit 370a eine dritte Anordnungsform ortsfester Zielobjekte in Bezug auf das Trägerfahrzeug auf der Grundlage einer Fahrbahnkrümmung einer Fahrumgebung des Trägerfahrzeugs, die aus den Verteilungserfassungsinformationen 40a ausgegeben wird. Zum Beispiel wird dann, wenn die Fahrbahnkrümmung in einen Schwellenwert fällt, der dem Bewegungszustand einer geraden Fahrbahn, der im Voraus gehalten wird, entspricht, die Gerade als die dritte Anordnungsform ausgeben.
  • Dann die Zielanordnungsform-Schätzeinheit 370a arbitriert die ersten bis dritten Anordnungsformen auf der Grundlage von Bestimmungskriterien, die im Voraus gehalten werden, und gibt dann eine Anordnungsform aus. Im Übrigen ist es wünschenswert, eine Konfiguration anzuwenden, in der alle des Trägerfahrzeugverhaltens-Detektionssensors 20a, des Spurmarkierungsdetektionssensors 30a und der Verteilungserfassungsinformationen 40a kombiniert werden, um die Genauigkeit der Anordnungsform zu verbessern, jedoch können die zwei oder der eine des Spurmarkierungsdetektionssensors 30a und der Verteilungserfassungsinformationen 40a außer dem Trägerfahrzeugverhaltens-Detektionssensor 20a kombiniert werden.
  • Die Erzeugungseinheit 380a für ursprüngliche Funktionen erzeugt eine Funktion, die beim Anpassen durch die Funktionsanpassungseinheit 310a auf der Grundlage der Anordnungsform, die von der Zielanordnungsform-Schätzeinheit 370a ausgeben wird, verwendet wird. Zum Beispiel wird dann, wenn die Anordnungsform gerade ist, eine lineare Funktion wie z. B. die Formeln (1) bis (4) erzeugt und zur Funktionsanpassungseinheit 310a ausgegeben. Ferner wird dann, wenn die Anordnungsform bogenförmig ist, eine Kreisfunktion, wie in Formel (5) veranschaulicht ist, erzeugt und zur Funktionsanpassungseinheit 310a ausgegeben. In Formel (5) ist rein Krümmungsradius. x 2 + y 2 = r 2
    Figure DE112020003137T5_0005
  • Mit den Konfigurationen, dem Verarbeitungsablauf und den Operationen der oben beschriebenen Funktionsblöcke erzeugt die Sensorfusionsvorrichtung 1, die die Sensorzielfunktion der vorliegenden Ausführungsform besitzt, auf der Grundlage vieler Informationsquellen eine Funktion, die durch die Funktionsanpassungseinheit 310a verwendet wird, und somit sinkt die Wahrscheinlichkeit des Verwendens einer Funktion mit einem geringen Übereinstimmungsgrad zur Anpassung und die Geschwindigkeit der Anpassungsverarbeitung kann verbessert werden.
  • <Vierte Ausführungsform>
  • 7 ist ein Funktionsblockdiagramm, das eine Ausführungsform der Sensorfusionsvorrichtung 1, die eine Sensorzielfunktion besitzt, veranschaulicht. Ein Verarbeitungsablauf und ein Betrieb der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion, die eine vierte Ausführungsform der vorliegenden Erfindung ist, besitzt, wird unter Bezugnahme auf 7 beschrieben. In der vierten Ausführungsform werden hauptsächlich Differenzen von der ersten Ausführungsform beschrieben, werden dieselben Konfigurationen durch dieselben Bezugszeichen bezeichnet und wird ihre Beschreibung unterlassen.
  • Wie in 7 veranschaulicht ist, entfernt die Sensorfusionsvorrichtung 1 der vorliegenden Ausführungsform die erste Zieldetektionsstart-Bestimmungseinheit 340a aus den Konfigurationen der ersten Ausführungsform und ist mit einer Koordinatenkonvertierungskorrekturwert-Speichereinheit 390a und einer ersten Koordinatenkonvertierungskorrekturimplementierungs-Bestimmungseinheit 400a versehen. Ferner werden Ausgangssignale des Trägerfahrzeugverhaltens-Detektionssensors 20a und des Spurmarkierungsdetektionssensors 30a und die Verteilungserfassungsinformationen 40a nicht eingegeben.
  • Die Koordinatenkonvertierungskorrekturwert-Speichereinheit 390a speichert eine Sensorkoordinatenkonvertierungs-Korrekturwertausgabe der Koordinatenkonvertierungskorrekturwert-Berechnungseinheit 330a zu mehreren Zeiten.
  • Die erste Koordinatenkonvertierungskorrekturimplementierungs-Bestimmungseinheit 400a bezieht sich auf den Koordinatenkonvertierungskorrekturwert, der in der Koordinatenkonvertierungskorrekturwert-Speichereinheit 390a gespeichert ist, bestimmt, dass eine fehlerhafte Detektion nicht vorläufig ist, sondern ein Sensor selbst abweicht, wenn die Anzahl, in der der Sensorkoordinatenkonvertierungs-Korrekturwert gleich oder größer als ein Schwellenwert, der im Voraus gehalten wird, ist, gleich oder größer als ein vorgegebener Wert ist, und sendet eine Anweisung zur Koordinatenkonvertierungskorrekturwert-Speichereinheit 390a, einen statistischen Wert (z. B. einen Durchschnittswert) der mehreren Sensorkoordinatenkonvertierungskorrekturwerte zur Sensorkoordinatenkonvertierungseinheit 100a auszugeben.
  • Der Betrieb der Sensorkoordinatenkonvertierungseinheit 100a ist derselbe wie der der ersten bis dritten Ausführungsformen.
  • Mit den Konfigurationen, dem Verarbeitungsablauf und den Operationen der oben beschriebenen Funktionsblöcke berechnet die Sensorfusionsvorrichtung 1, die die Sensorzielfunktion der vorliegenden Ausführungsform besitzt, Sensorkoordinatenkonvertierungs-Korrekturwerte und bestimmt, ob Sensorwerte unter Verwendung der Sensorkoordinatenkonvertierungskorrekturwerte für mehrere Zeiten korrigiert werden sollen, derart, dass eine unnötige Berechnung des Sensorkoordinatenkonvertierungskorrekturwerts verringert werden kann und die Genauigkeit des Sensorkoordinatenkonvertierungskorrekturwerts verbessert werden kann.
  • <Fünfte Ausführungsform>
  • 8 ist ein Funktionsblockdiagramm, das eine Ausführungsform der Sensorfusionsvorrichtung 1, die eine Sensorzielfunktion besitzt, veranschaulicht. Ein Verarbeitungsablauf und ein Betrieb der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion, die eine fünfte Ausführungsform der vorliegenden Erfindung ist, besitzt, wird unter Bezugnahme auf 8 beschrieben. In der fünften Ausführungsform werden hauptsächlich Differenzen von der ersten Ausführungsform beschrieben, werden dieselben Konfigurationen durch dieselben Bezugszeichen bezeichnet und wird ihre Beschreibung unterlassen.
  • Wie in 8 veranschaulicht ist, besitzt die Sensorfusionsvorrichtung 1 der vorliegenden Ausführungsform zusätzlich zu den Konfigurationen der ersten Ausführungsform eine Sensorzustandsschätzungseinheit 410a. Ferner ist eine zweite Anpassungsergebnisvergleichseinheit 320b statt der ersten Anpassungsergebnisvergleichseinheit 320a vorgesehen und ist eine zweite Zieldetektionsstart-Bestimmungseinheit 340b statt der ersten Zieldetektionsstart-Bestimmungseinheit 340a vorgesehen. Ferner werden Ausgangssignale des ersten bis dritten Zustandsdetektionssensors 50a bis 50c in die Sensorfusionsvorrichtung 1 eingegeben.
  • Die ersten bis dritten Zustandsdetektionssensoren 50a bis 50c sind unter Verwendung eines Aufprallsensors, eines Temperatursensors und dergleichen konfiguriert und detektieren einen Aufprall und eine Temperaturänderung eines Abschnitts, an dem jeder der ersten bis dritten Zustandsdetektionssensoren 50a bis 50c angebracht ist. Speziell detektiert der erste Zustandsdetektionssensor 50a einen Aufprall und eine Temperaturänderung, die auf einen dritten Fahrzeugumgebungsüberwachungssensor 10c ausgeübt wird. Ferner detektiert der zweite Zustandsdetektionssensor 50b einen Aufprall und eine Temperaturänderung, die auf einen vierten Fahrzeugumgebungsüberwachungssensor 10d ausgeübt werden. Der dritte Zustandsdetektionssensor 50c ist an einer Stelle, wo es einfach ist, einen Aufprall, der auf das gesamte Fahrzeug ausgeübt wird, zu detektieren, wie z. B. ein Fahrgestell eines Trägerfahrzeugs angebracht und detektiert einen Aufprall, der auf eine beliebige Stelle ausgeübt wird, und eine Temperaturänderung.
  • Die Sensorzustandsschätzungseinheit 410a schätzt Befestigungszustände des dritten und des vierten Fahrzeugumgebungsüberwachungssensors 10c und 10d in Bezug auf das Trägerfahrzeug auf der Grundlage von Daten in Bezug auf die Aufpralle und die Temperaturänderungen, die von den ersten bis dritten Zustandsdetektionssensoren 50a bis 50c ausgeben werden. Zum Beispiel wird dann, wenn die Daten hinsichtlich des Aufpralls, die vom ersten Zustandsdetektionssensor 50a ausgegeben werden, gleich oder größer als ein Schwellenwert, der im Voraus gehalten wird, sind, ein erster Anomaliemerker, der angibt, dass eine Anomalie im Befestigungszustand des dritten Fahrzeugumgebungsüberwachungssensors 10c aufgetreten ist, zur zweiten Zieldetektionsstart-Bestimmungseinheit 340b ausgegeben. Zum Beispiel gibt dann, wenn die Daten hinsichtlich des Aufpralls, die vom zweiten Zustandsdetektionssensor 50b ausgegeben werden, gleich oder größer als ein Schwellenwert, der im Voraus gehalten wird, sind, die Sensorzustandsschätzungseinheit 410a einen zweiten Anomaliemerker, der angibt, dass eine Anomalie im Befestigungszustand des vierten Fahrzeugumgebungsüberwachungssensors 10d aufgetreten ist, zur zweiten Zieldetektionsstart-Bestimmungseinheit 340b aus. Darüber hinaus gibt dann, wenn die Daten hinsichtlich des Aufpralls, die vom dritten Zustandsdetektionssensor 50c ausgegeben werden, gleich oder größer als ein Schwellenwert, der im Voraus gehalten wird, sind, die Sensorzustandsschätzungseinheit 410a einen dritten Anomaliemerker, der angibt, dass Anomalien in den Befestigungszuständen des dritten und des vierten Fahrzeugumgebungsüberwachungssensors 10c und 10d aufgetreten sind, zur zweiten Zieldetektionsstart-Bestimmungseinheit 340b aus.
  • Ähnlich wird, wenn Daten hinsichtlich einer Temperatur, die vom ersten Zustandsdetektionssensor 50a ausgegeben werden, einen Arbeitsbereich, der im Voraus gehalten wird, überschreiten, bestimmt, dass der dritte Fahrzeugumgebungsüberwachungssensor 10c sich bei einer hohen Temperatur oder einer niedrigen Temperatur befindet, und der erste Anomaliemerker, der angibt, dass eine Anomalie im Sensor aufgetreten ist, wird zur zweiten Zieldetektionsstart-Bestimmungseinheit 340b ausgegeben. Ähnlich bestimmt die Sensorzustandsschätzungseinheit 410a dann, wenn Daten einer Temperatur, die vom zweiten Zustandsdetektionssensor 50b ausgegeben werden, einen Arbeitsbereich, der im Voraus gehalten wird, überschreiten, dass der vierte Fahrzeugumgebungsüberwachungssensor 10d sich bei einer hohen Temperatur oder einer niedrigen Temperatur befindet, und gibt den zweiten Anomaliemerker, der angibt, dass eine Anomalie im Sensor aufgetreten ist, zur zweiten Zieldetektionsstart-Bestimmungseinheit 340b aus. Darüber hinaus bestimmt die Sensorzustandsschätzungseinheit 410a dann, wenn Daten hinsichtlich einer Temperatur, die vom dritten Zustandsdetektionssensor 50c ausgegeben werden, einen Arbeitsbereich, der im Voraus gehalten wird, überschreiten, dass der dritte und der vierte Fahrzeugumgebungsüberwachungssensor 10c und 10d sich bei einer hohen Temperatur oder einer niedrigen Temperatur befinden, und gibt den dritten Anomaliemerker, der angibt, dass Anomalien im Sensor aufgetreten sind, zur zweiten Zieldetektionsstart-Bestimmungseinheit 340b aus.
  • Dann gibt die Sensorzustandsschätzungseinheit 410a Gewichtungsfaktoren für den dritten und den vierten Fahrzeugumgebungsüberwachungssensor 10c und 10d auf der Grundlage der Daten hinsichtlich der Aufpralle und der Temperaturänderungen, die von den ersten bis dritten Zustandsdetektionssensoren 50a bis 50c ausgeben werden, zur zweiten Anpassungsergebnisvergleichseinheit 320b aus.
  • Nach einem Empfangen der ersten bis dritten Anomaliemerker führt die zweite Zieldetektionsstart-Bestimmungseinheit 340b denselben Betrieb wie die erste Zieldetektionsstart-Bestimmungseinheit 340a der ersten Ausführungsform aus. Deshalb wird kein Sensorkoordinatenkonvertierungs-Korrekturwert berechnet, wenn keine Anomalie aufgetreten ist.
  • Die zweite Anpassungsergebnisvergleichseinheit 320b gibt einen Funktionskorrekturwert aus, der unter Verwendung der Gewichtsfaktoren im Vergleich des fünften Funktionsanpassungsergebnisses, das vom dritten Fahrzeugumgebungsüberwachungssensor 10c hergeleitet wird, und dem sechsten Funktionsanpassungsergebnis, das vom vierten Fahrzeugumgebungsüberwachungssensor 10d hergeleitet wird, die von der Funktionsanpassungseinheit 310a ausgegeben wurden ein fünftes und ein sechstes Funktionsanpassungsergebnis übereinstimmend gestaltet.
  • Mit den Konfigurationen, dem Verarbeitungsablauf und den Operationen der oben beschriebenen Funktionsblöcke, verursacht die Sensorfusionsvorrichtung 1, die die Sensorzielfunktion der vorliegenden Ausführungsform besitzt, dass die zweite Zielwahleinheit 300b zur Koordinatenkonvertierungskorrekturwert-Berechnungseinheit 330a derart arbeitet, dass sie den Sensorkoordinatenkonvertierungs-Korrekturwert berechnet, wenn aufgrund des Aufpralls oder die Temperatur bestimmt wird, dass die Anomalie aufgetreten ist. Somit kann die Anzahl unnötiger Operationen, wobei der Sensorkoordinatenkonvertierungs-Korrekturwert null ist, im Vergleich zur ersten Ausführungsform verringert werden, derart, dass die Leistungsaufnahme des gesamten Systems verringert werden kann. Ferner kann dann, wenn die zweite Anpassungsergebnisvergleichseinheit 320b den Funktionskorrekturwert, der das fünfte und das sechste Funktionsanpassungsergebnis übereinstimmend gestaltet, berechnet, jedes der Funktionsanpassungsergebnisse gewichtet werden und kann somit die Genauigkeit des Funktionskorrekturwerts verbessert werden.
  • Im Übrigen sind die ersten bis dritten Zustandsdetektionssensoren 50a bis 50c in der vorliegenden Ausführungsform unter Verwendung des Aufprallsensors und des Temperatursensors konfiguriert, jedoch sind sie nicht notwendigerweise lediglich unter Verwendung des Aufprallsensors oder des Temperatursensors konfiguriert. Ferner kann ein weiterer Sensor (z. B. ein Feuchtigkeitssensor) verwendet werden. Darüber hinaus kann eine beliebige Kombination dieser Sensoren verwendet werden.
  • <Sechste Ausführungsform>
  • 9 ist ein Funktionsblockdiagramm, das eine Ausführungsform der Sensorfusionsvorrichtung 1, die eine Sensorzielfunktion besitzt, veranschaulicht. Ein Verarbeitungsablauf und ein Betrieb der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion, die eine sechste Ausführungsform der vorliegenden Erfindung ist, besitzt, wird unter Bezugnahme auf 9 beschrieben. In der sechsten Ausführungsform werden hauptsächlich Differenzen von der ersten, der vierten und der fünften Ausführungsformen beschrieben, werden dieselben Konfigurationen durch dieselben Bezugszeichen bezeichnet und wird ihre Beschreibung unterlassen.
  • Wie in 9 veranschaulicht ist, entfernt die Sensorfusionsvorrichtung 1 der vorliegenden Ausführungsform die erste Zieldetektionsstart-Bestimmungseinheit 340a aus den Konfigurationen der ersten Ausführungsform und ist mit der Koordinatenkonvertierungskorrekturwert-Speichereinheit 390a und einer zweiten Koordinatenkonvertierungskorrekturimplementierungs-Bestimmungseinheit 400b versehen. Ferner werden Ausgangssignale des Trägerfahrzeugverhaltens-Detektionssensors 20a und des Spurmarkierungsdetektionssensors 30a und die Verteilungserfassungsinformationen 40a nicht eingegeben.
  • Die Koordinatenkonvertierungskorrekturwert-Speichereinheit 390a speichert eine Sensorkoordinatenkonvertierungs-Korrekturwertausgabe der Koordinatenkonvertierungskorrekturwert-Berechnungseinheit 330a zu mehreren Zeiten, ähnlich der vierten Ausführungsform.
  • Die zweite Koordinatenkonvertierungskorrekturimplementierungs-Bestimmungseinheit 400b empfängt erste bis dritte Anomaliemerker, die von der Sensorzustandsschätzungseinheit 410a ausgegeben werden, und sendet eine Anweisung, zur Koordinatenkonvertierungskorrekturwert-Speichereinheit 390a, einen Sensorkoordinatenkonvertierungs-Korrekturwert zur Sensorkoordinatenkonvertierungseinheit 100a auszugeben, wenn die jüngste Sensorkoordinate, die in der Koordinatenkonvertierungskorrekturwert-Speichereinheit 390a gespeichert ist, gleich oder größer als ein Schwellenwert, der im Voraus gehalten wird, ist.
  • Mit den Konfigurationen, dem Verarbeitungsablauf und den Operationen der oben beschriebenen Funktionsblöcke kann die Sensorfusionsvorrichtung 1, die die Sensorzielfunktion der vorliegenden Ausführungsform besitzt, einen Sensorkoordinatenkonvertierungsparameter der Sensorkoordinatenkonvertierungseinheit 100a schnell anpassen, wenn die Möglichkeit besteht, dass eine Anomalie in dem dritten und dem vierten Fahrzeugumgebungsüberwachungssensor 10c und 10d aufgetreten ist.
  • <Siebte Ausführungsform>
  • 10 ist ein Funktionsblockdiagramm, das eine Ausführungsform der Sensorfusionsvorrichtung 1, die eine Sensorzielfunktion besitzt, veranschaulicht. Ein Verarbeitungsablauf und ein Betrieb der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion, die eine siebte Ausführungsform der vorliegenden Erfindung ist, besitzt, wird unter Bezugnahme auf 10 beschrieben. In der siebten Ausführungsform werden hauptsächlich Differenzen von der ersten und der vierten Ausführungsform beschrieben, werden dieselben Konfigurationen durch dieselben Bezugszeichen bezeichnet und wird ihre Beschreibung unterlassen.
  • Wie in 10 veranschaulicht ist, besitzt die Sensorfusionsvorrichtung 1 der vorliegenden Ausführungsform eine dritte Koordinatenkonvertierungskorrekturimplementierungs-Bestimmungseinheit 400c statt der ersten Koordinatenkonvertierungskorrekturimplementierungs-Bestimmungseinheit 400a und ist zusätzlich zu den Konfigurationen der vierten Ausführungsform mit einer Warnungsanzeigeeinheit 420a versehen.
  • Die dritte Koordinatenkonvertierungskorrekturimplementierungs-Bestimmungseinheit 400c nimmt auf einen Sensorkoordinatenkonvertierungs-Korrekturwert, der in der Koordinatenkonvertierungskorrekturwert-Speichereinheit 390a gespeichert ist, Bezug und gibt zusätzlich zum Betrieb der ersten Koordinatenkonvertierungskorrekturimplementierungs-Bestimmungseinheit 400a der vierten Ausführungsform einen Warnungsanzeigemerker zur Warnungsanzeigeeinheit 420a aus, wenn die Anzahl, in der der Sensorkoordinatenkonvertierungs-Korrekturwert gleich oder größer als ein Schwellenwert, der im Voraus gehalten wird, ist, gleich oder größer als ein vorgegebener Schwellenwert ist.
  • Wenn der Warnungsanzeigemerker empfangen wird, zeigt die Warnungsdarstellungseinheit 420a eine Warnung an einer Warnvorrichtung eines Trägerfahrzeugs oder eines externen Systems des Trägerfahrzeugs (eines Cloud-Servers oder dergleichen) an. Die Warnung besitzt eine oder mehrere Stufen, z. B. Stufe 1: Prüfung empfohlen, Stufe 2: Prüfung erforderlich, Stufe 3: Systemstopp und dergleichen. Ein Fahrer oder ein Insasse sieht eine Warnanzeige und ergreift nötige Maßnahmen (automatisches Fahren, Stoppen der Fahrunterstützung, Fahrzeug reparieren und dergleichen). Die Warnungsdarstellungseinheit 420a kann eine Warnung anstatt oder zusätzlich zur Warnanzeige durch Schall oder Schwingung darstellen.
  • Mit den Konfigurationen, dem Verarbeitungsablauf und den Operationen der oben beschriebenen Funktionsblöcke kann die Sensorfusionsvorrichtung 1, die die Sensorzielfunktion der vorliegenden Ausführungsform besitzt, die Warnung hinsichtlich eines Zustands einer Achsenabweichung eines Sensors zu dem Fahrer oder dem Insassen oder dem externen System des Trägerfahrzeugs senden und somit kann die Notwendigkeit der Prüfung des Trägerfahrzeugs schnell bestimmt werden und kann die Sicherheit des Systems verbessert werden.
  • <Achte Ausführungsform>
  • 11 ist eine Konzeptansicht, die ein Verarbeitungsverfahren der Sensorfusionsvorrichtung 1, die eine Sensorzielfunktion besitzt, veranschaulicht. Ein Betrieb der Sensorfusionsvorrichtung 1, die die Sensorzielfunktion, die eine achte Ausführungsform der vorliegenden Erfindung ist, besitzt, wird unter Bezugnahme auf 1 und 11 beschrieben. In der achten Ausführungsform werden hauptsächlich Differenzen von der ersten Ausführungsform beschrieben, werden dieselben Konfigurationen durch dieselben Bezugszeichen bezeichnet und wird ihre Beschreibung unterlassen.
  • In der achten Ausführungsform sind ein siebtes ortsfestes Zielobjekt 810g, das ortsfeste Nichtziel-Zielobjekt 820a und der bewegte Körper 830a in der Umgebung des Trägerfahrzeugs 800 vorhanden, wie in 11 veranschaulicht ist. Ferner veranschaulicht die Zeichnung erste bis vierte Sensorbeobachtungsergebnisse 910a bis 910d und siebte und achte Funktionsanpassungsergebnisse 900g und 900h.
  • Der erste und der zweite Fahrzeugumgebungsüberwachungssensor 10a und 10b detektieren das siebte ortsfeste Zielobjekt 810g und geben das erste bzw. das zweite Sensorbeobachtungsergebnis 910a und 910b aus. Das erste und das zweite Sensorbeobachtungsergebnis 910a und 910b sind durch Liniensegmente, ebene Polygone oder dreidimensionale Polygone repräsentiert. Währenddessen detektieren der erste und der zweite Fahrzeugumgebungsüberwachungssensor 10a und 10b das erste ortsfeste Nichtziel-Zielobjekt 820a und geben das dritte bzw. das vierte Sensorbeobachtungsergebnis 910c und 910d aus. Das dritte und das vierte Sensorbeobachtungsergebnis 910c und 910d besitzen Informationen zu Punkten.
  • Die erste Zielwahleinheit 300a wählt das erste und das zweite Sensorbeobachtungsergebnis 910a und 910b unter den ersten bis vierten Sensorbeobachtungsergebnissen 910a bis 910d unter Verwendung eines Filters, das im Voraus gehalten wird. Hier besitzt das Filter dieselbe Form wie die Form (Liniensegment, ebenes Polygon oder dreidimensionales Polygon) der ersten bis vierten Sensorbeobachtungsergebnisse 910a bis 910d.
  • Die Funktionsanpassungseinheit 310a passt eine Funktion an das erste Sensorbeobachtungsergebnis 910a, das vom ersten Fahrzeugumgebungsüberwachungssensor 10a hergeleitet wurden, an und gibt das siebte Funktionsanpassungsergebnis 900e aus. Ferner passt die Funktionsanpassungseinheit 310a Funktion an das erste Sensorbeobachtungsergebnis 910a, das vom zweiten Fahrzeugumgebungsüberwachungssensor 10a hergeleitet wurde, an und gibt das achte Funktionsanpassungsergebnis 900f aus.
  • Die erste Anpassungsergebnisvergleichseinheit 320a vergleicht das siebte und das achte Funktionsanpassungsergebnis 900e und 900f und berechnet einen Funktionskorrekturwert, der das siebte Funktionsanpassungsergebnis 900e und das achte Funktionsanpassungsergebnis 900f übereinstimmend gestaltet.
  • Mit den Konfigurationen, dem Verarbeitungsablauf und den Operationen der oben beschriebenen Funktionsblöcke besitzt die Sensorfusionsvorrichtung 1, die die Sensorzielfunktion der vorliegenden Ausführungsform besitzt die oben beschriebene Wirkung, selbst wenn ein ortsfestes Zielobjekt eine ebene Struktur besitzt.
  • Im Übrigen kann in der vorliegenden Ausführungsform das siebte ortsfeste Zielobjekt 810g eine beliebige Straßenstruktur, die eine ebene Struktur besitzt, wie z. B. eine Leitplanke, eine Lärmschutzwand, eine Bordsteinkante und ein Mittelstreifen sein.
  • Ferner gibt in der vorliegenden Ausführungsform jeder des ersten und des zweiten Fahrzeugumgebungsüberwachungssensors 10a und 10b ein Sensorbeobachtungsergebnis aus, jedoch kann jeder der Sensoren mehrere Beobachtungsergebnisse ausgeben.
  • In den oben beschriebenen Ausführungsformen können die ersten bis vierten Fahrzeugumgebungsüberwachungssensoren 10a bis 10d vom selben Sensortyp oder von verschiedenen Typen von Sensoren sein. Ferner können die ersten bis vierten Fahrzeugumgebungsüberwachungssensoren 10a bis 10d ein beliebiger Sensor wie z. B. ein Millimeterwellenradar, Kameras (Kameras für sichtbares Licht, Nahinfrarot, Mittelinfrarot, Ferninfrarot), Lichtdetektions- und -entfernungsmessung (LiDAR), Sonar, eine Flugzeitsensor (TOF-Sensor) und ein Sensor, der sie kombiniert, sein.
  • Ferner können die Konfigurationen, der Verarbeitungsablauf und die Operationen der Funktionsblöcke, die in jede der Ausführungsformen beschrieben sind, beliebig kombiniert werden.
  • Darüber hinaus berechnet die fahrzeuginterne Vorrichtung (ECU) den Sensorkoordinatenkonvertierungs-Korrekturwert in der oben beschriebenen Beschreibung, jedoch kann ein Computer, der derart verbunden ist, dass er mit einem Fahrzeug kommunizieren kann, den Sensorkoordinatenkonvertierungs-Korrekturwert berechnen.
  • Wie oben beschrieben ist, enthält die Sensorfusionsvorrichtung 1 der Ausführungsform der vorliegenden Erfindung Folgendes: die Sensorkoordinatenkonvertierungseinheit 100a, die jedes Stück der Sensordaten, die durch die Fahrzeugumgebungsüberwachungssensoren 10a bis 10d detektiert werden, aus dem Koordinatensystem, das für jeden der Fahrzeugumgebungsüberwachungssensoren 10a bis 10d eindeutig ist, in ein vorgegebenes vereinheitlichtes Koordinatensystem (vereinheitlichte relative Koordinaten) umwandelt; die Zielwahleinheit 300a oder 300b, die vorgegebene Merkmale (das ortsfeste Zielobjekt 810a bis 810f) jedes Stücks der Sensordaten der Fahrzeugumgebungsüberwachungssensoren 10a bis 10d wählt; die Funktionsanpassungseinheit 310a, die Funktionen definiert, die jeweils eines Anordnungszustand der gewählten Merkmale für die jeweiligen Fahrzeugumgebungsüberwachungssensoren 10a bis 10d approximieren; die Anpassungsergebnisvergleichseinheit 320a oder 320b, die die Funktionen, die jeweils den Anordnungszustand der Merkmale, die durch jeden der Fahrzeugumgebungsüberwachungssensoren 10a bis 10d detektiert werden, approximieren, vergleicht; und die Koordinatenkonvertierungskorrekturwert-Berechnungseinheit 330a, die einen Korrekturbetrag zum Umsetzen von Koordinaten der Merkmale, die durch die Fahrzeugumgebungsüberwachungssensoren 10a bis 10d detektiert werden, aus einem Ergebnis des Vergleichs der Funktionen berechnet. Die Sensorkoordinatenkonvertierungseinheit 100a wandelt unter Verwendung des berechneten Korrekturbetrags die Fahrzeugumgebungsüberwachungssensoren 10a bis 10d in die vereinheitlichten relativen Koordinaten um. Somit ist es möglich, die Achsenabweichung des Befestigungswinkels in Bezug auf das Trägerfahrzeug, die in den Fahrzeugumgebungsüberwachungssensoren 10a und 10b auftritt, zu korrigieren.
  • Ferner können die Fahrzeugumgebungsüberwachungssensoren 10a bis 10d Millimeterwellenradare sein. Ferner können die Fahrzeugumgebungsüberwachungssensoren 10a bis 10d mindestens ein Millimeterwellenradar und mindestens eine Kamera enthalten. Auf diese Weise kann die Sensorfusionsvorrichtung 1 der vorliegenden Ausführungsform die Korrekturbeträge von verschiedenen Typen der Fahrzeugumgebungsüberwachungssensoren 10a bis 10d berechnen.
  • Ferner verwenden die Zielwahleinheiten 300a und 300b Strukturen, die im Wesentlichen parallel zur Fahrbahn in bekannten Intervallen angeordnet sind, und die Korrekturbeträge der Fahrzeugumgebungsüberwachungssensoren 10a bis 10d können genau berechnet werden.
  • Ferner wählen die Zielwahleinheiten 300a und 300b ein vorgegebenes Merkmal unter Verwendung eines Filters, das einem bekannten Anordnungszustand in Bezug auf das Merkmal entspricht, und die ortsfesten Zielobjekte 810a bis 810f, die zum Berechnen des Korrekturbetrags verwendet werden, können einfach detektiert werden.
  • Ferner extrapolieren die Anpassungsergebnisvergleichseinheiten 320a und 320b Linien, die durch die definierten Funktionen repräsentiert werden, außerhalb der Detektionsbereiche der Fahrzeugumgebungsüberwachungssensoren 10a bis 10d und vergleichen die extrapolierten Linien miteinander. Somit können selbst dann, wenn die Detektionsbereiche (die Sensordetektionsbereiche 700a und 700b) der Fahrzeugumgebungsüberwachungssensoren 10a und 10b nicht überlappen, die Funktionsanpassungsergebnisse 900a und 900b verglichen werden und kann der Korrekturbetrag berechnet werden.
  • Ferner ist die Warnungsdarstellungseinheit 420a, die eine Warnung ausgibt, wenn der berechnete Korrekturbetrag gleich oder größer als ein vorgegebener Schwellenwert ist, vorgesehen und somit kann der Insasse oder ein Wartungsmitarbeiter eine nötige Maßnahme ergreifen.
  • Ferner wird dann, wenn der Aufprall und/oder die Temperatur, die auf das Trägerfahrzeug ausgeübt werden und durch die Zustandsdetektionssensoren 50a bis 50c detektiert werden, eine vorgegebene Bedingung erfüllen, der Sensorkoordinatenkonvertierungs-Korrekturwert ausgeben. Somit wird der Sensorkoordinatenkonvertierungs-Korrekturwert nicht berechnet, wenn keine Anomalie aufgetreten ist, und kann die Verarbeitungslast verringert werden.
  • Im Übrigen ist die vorliegende Erfindung nicht auf die oben beschriebenen Ausführungsformen beschränkt und kann verschiedene Änderungen und entsprechende Konfigurationen, die in den Umfang der beigefügten Ansprüche fallen, enthalten. Zum Beispiel wurden die oben beschriebenen Ausführungsformen genau beschrieben, um die vorliegende Erfindung in einer einfach verständlichen Weise zu beschreiben, und die vorliegende Erfindung ist nicht notwendigerweise auf eine beschränkt, die die gesamte Konfiguration, die oben beschrieben ist, enthält. Ferner kann ein Teil der Konfiguration einer bestimmten Ausführungsform durch die Konfiguration einer weiteren Ausführungsform ersetzt werden. Ferner kann die Konfiguration einer bestimmten Ausführungsform der Konfiguration einer weiteren Ausführungsform hinzugefügt werden. Ferner können ein Hinzufügen, ein Löschen oder ein Ersetzen weiterer Konfigurationen in Bezug auf einige Konfigurationen jeder Ausführungsform vorgenommen werden.
  • Ferner kann jede Konfiguration, jede Funktion, jede Verarbeitungseinheit, jedes Verarbeitungsmittel und dergleichen, die oben beschrieben ist, teilweise oder vollständig durch Hardware z. B. durch ihr Entwerfen unter Verwendung einer integrierten Schaltung und dergleichen implementiert werden oder durch Software implementiert werden, indem verursacht wird, dass Prozessor ein Programm interpretiert und ausführt, das jede Funktion implementiert.
  • Daten wie z. B. Programme, Tabellen und Dateien, die die jeweiligen Funktionen realisieren, können in einer Speichervorrichtung wie z. B. einem Speicher, einer Festplatte und einem Festkörperlaufwerk (SSD) oder einem Aufzeichnungsmedium wie z. B. einer IC-Karte, einer SD-Karte, einem DVD und einem BD gespeichert sein.
  • Ferner sind lediglich eine Steuerleitung und eine Datenleitung, die als für die Beschreibung nötig erachtet werden, veranschaulicht und nicht alle Steuerleitungen und Datenleitungen, die zur Implementierung erforderlich sind, sind notwendigerweise veranschaulicht. In der Praxis kann davon ausgegangen werden, dass nahezu alle Komponenten verbunden sind.
  • Bezugszeichenliste
  • 10a bis 10d
    Fahrzeugumgebungsüberwachungssensor
    20a
    Trägerfahrzeugverhaltens-Detektionssensor
    30a
    Spurmarkierungsdetektionssensor
    40a
    Verteilungserfassungsinformationen
    50a bis 50c
    Zustandsdetektionssensor
    100a
    Sensorkoordinatenkonvertierungseinheit
    110a
    Sensorzeitsynchronisationseinheit
    120a
    Klassifizierungseinheit für bewegter Körper/ortsfestes Objekt
    200a
    Sensordatenintegrationseinheit
    300a, 300b
    Zielwahleinheit
    310a
    Funktionsanpassungseinheit
    320a, 320b
    Anpassungsergebnisvergleichseinheit
    330a
    Koordinatenkonvertierungskorrekturwert-Berechnungseinheit
    340a, 340b
    Zieldetektionsstart-Bestimmungseinheit
    350a
    Zieldetektionsdatengültigkeits-Bestimmungseinheit
    360a
    Zielspeichereinheit
    370a
    Anordnungsformschätzeinheit
    380a
    Erzeugungseinheit für ursprüngliche Funktionen
    390a
    Koordinatenkonvertierungskorrekturwert-Speichereinheit
    400a bis 400c
    Koordinatenkonvertierungskorrekturimplementierungs-Bestimmungseinheit
    410a
    Sensorzustandsschätzungseinheit
    420a
    Warnungsdarstellungseinheit
    700a, 700b
    Sensordetektionsbereich
    710a
    Trägerfahrzeugfahrtroute
    800
    Trägerfahrzeug
    810a bis 810g
    Ortsfestes Zielobjekt
    820a
    Ortsfestes Nichtziel-Zielobjekt
    830a
    Bewegter Körper
    900a bis 900g
    Funktionsanpassungsergebnis
    910a bis 910d
    Sensorbeobachtungsergebnis
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2015078925 A [0003, 0004]
    • JP 2019091273 A [0004]
    • JP 2010249613 A [0004]

Claims (10)

  1. Zielvorrichtung, die Korrekturbeträge von Detektionsergebnissen von zwei oder mehr Sensoren unter Verwendung der Detektionsergebnisse der Sensoren berechnet und Folgendes umfasst: eine Sensorkoordinatenkonvertierungseinheit, die Sensordaten, die durch den Sensor detektiert werden, aus einem Koordinatensystem, das für den Sensor eindeutig ist, in ein vorgegebenes vereinheitlichtes Koordinatensystem konvertiert; eine Zielwahleinheit, die vorgegebene Merkmale aus den Sensordaten, die durch die jeweiligen Sensoren detektiert werden, wählt; eine Funktionsanpassungseinheit, die Funktionen, die jeweils einen Anordnungszustand der gewählten Merkmale für die jeweiligen Sensoren approximieren, definiert; eine Anpassungsergebnisvergleichseinheit, die die Funktionen, die jeweils den Anordnungszustand der Merkmale, die durch die jeweiligen Sensoren detektiert werden, approximieren, vergleicht; und eine Korrekturwertberechnungseinheit, die einen Korrekturbetrag zum Konvertieren von Koordinaten der Merkmale, die durch die Sensoren detektiert werden, aus einem Ergebnis des Vergleichs der Funktionen berechnet.
  2. Zielvorrichtung nach Anspruch 1, wobei der Sensor ein Millimeterwellenradar ist.
  3. Zielvorrichtung nach Anspruch 1, wobei die Sensoren mindestens ein Millimeterwellenradar und mindestens eine Kamera enthalten.
  4. Zielvorrichtung nach Anspruch 1, wobei die Merkmale Strukturen sind, die im Wesentlichen parallel zu einer Fahrbahn in einem bekannten Intervall angeordnet sind.
  5. Zielvorrichtung nach Anspruch 4, wobei die Zielwahleinheit ein Filter besitzt, das einem bekannten Anordnungszustand in Bezug auf das Merkmal entspricht.
  6. Zielvorrichtung nach Anspruch 1, wobei die Anpassungsergebnisvergleichseinheit Linien, die jeweils durch die definierten Funktionen repräsentiert werden, außerhalb von Detektionsbereiche der Sensoren extrapoliert und die extrapolierten Linien miteinander vergleicht.
  7. Zielvorrichtung nach Anspruch 1, die ferner Folgendes umfasst: eine Warnungsdarstellungseinheit, die eine Warnung ausgibt, wenn der berechnete Korrekturbetrag gleich oder größer als ein vorgegebener Schwellenwert ist.
  8. Zielvorrichtung nach Anspruch 1, wobei ein Aufprall und/oder eine Temperatur, die auf ein Fahrzeug ausgeübt werden und durch einen Zustandsdetektionssensor detektiert werden, eingegeben werden, und der Korrekturbetrag ausgeben wird, wenn der Aufprall und/oder die Temperatur eine vorgegebene Bedingung erfüllen.
  9. Fahrsteuersystem, das das Fahren eines Fahrzeugs steuert und Folgendes umfasst: eine Sensorfusionsvorrichtung, die Detektionsergebnisse von zwei oder mehr Sensoren integriert und ausgibt; und eine Fahrsteuervorrichtung, die das Fahren des Fahrzeugs unter Verwendung einer Ausgabe der Sensorfusionsvorrichtung steuert, wobei die Sensorfusionsvorrichtung Folgendes umfasst: eine Sensorkoordinatenkonvertierungseinheit, die Sensordaten, die durch den Sensor detektiert werden, aus einem Koordinatensystem, das für den Sensor eindeutig ist, in ein vorgegebenes vereinheitlichtes Koordinatensystem konvertiert; eine Zielwahleinheit, die vorgegebene Merkmale aus den Sensordaten, die durch die jeweiligen Sensoren detektiert werden, wählt; eine Funktionsanpassungseinheit, die Funktionen, die jeweils einen Anordnungszustand der gewählten Merkmale für die jeweiligen Sensoren approximieren, definiert; eine Anpassungsergebnisvergleichseinheit, die die Funktionen, die jeweils den Anordnungszustand der Merkmale, die durch die jeweiligen Sensoren detektiert werden, approximieren, vergleicht; eine Korrekturwertberechnungseinheit, die einen Korrekturbetrag zum Konvertieren von Koordinaten der Merkmale, die durch die Sensoren detektiert werden, aus einem Ergebnis des Vergleichs der Funktionen berechnet; und eine Sensordatenintegrationseinheit, die die Sensordaten integriert und ein Integrationsergebnis ausgibt, und die Sensorkoordinatenkonvertierungseinheit die Sensordaten unter Verwendung des berechneten Korrekturbetrags in das vereinheitlichte Koordinatensystem umwandelt.
  10. Berechnungsverfahren für einen Korrekturbetrag von Sensordaten, das durch eine Zielvorrichtung, die Korrekturbeträge von Detektionsergebnissen von zwei oder mehr Sensoren unter Verwendung der Detektionsergebnisse der Sensoren berechnet, ausgeführt wird, wobei das Berechnungsverfahren Folgendes umfasst: Konvertieren von Sensordaten, die durch den Sensor detektiert werden, aus einem Koordinatensystem, das für den Sensor eindeutig ist, in ein vorgegebenes vereinheitlichtes Koordinatensystem; Wählen vorgegebener Merkmale aus den Sensordaten, die durch die jeweiligen Sensoren detektiert werden; Definieren von Funktionen, die jeweils einen Anordnungszustand der gewählten Merkmale für die jeweiligen Sensoren approximieren; Vergleichen der Funktionen, die jeweils den Anordnungszustand der Merkmale, die durch die jeweiligen Sensoren detektiert werden, approximieren; und Berechnen eines Korrekturbetrags zum Umsetzen von Koordinaten der Merkmale, die durch die Sensoren detektiert werden, aus einem Ergebnis des Vergleichs der Funktionen.
DE112020003137.3T 2019-08-02 2020-07-14 Zielvorrichtung, fahrsteuersystem und verfahren zum berechnen einer korrekturgrösse von sensordaten Pending DE112020003137T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-142898 2019-08-02
JP2019142898 2019-08-02
PCT/JP2020/027322 WO2021024712A1 (ja) 2019-08-02 2020-07-14 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法

Publications (1)

Publication Number Publication Date
DE112020003137T5 true DE112020003137T5 (de) 2022-04-07

Family

ID=74503057

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020003137.3T Pending DE112020003137T5 (de) 2019-08-02 2020-07-14 Zielvorrichtung, fahrsteuersystem und verfahren zum berechnen einer korrekturgrösse von sensordaten

Country Status (4)

Country Link
US (1) US20220289245A1 (de)
JP (1) JP7162142B2 (de)
DE (1) DE112020003137T5 (de)
WO (1) WO2021024712A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020005320T5 (de) * 2020-01-10 2022-11-10 Hitachi Astemo, Ltd. Sensorausrichtungseinrichtung, fahrsteuersystem und korrekturbetragschätzverfahren
US20220137626A1 (en) * 2020-11-04 2022-05-05 Canon Kabushiki Kaisha Apparatus, method, and non-transitory computer-readable storage medium
JP2022176641A (ja) * 2021-05-17 2022-11-30 日立Astemo株式会社 レーダ装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010249613A (ja) 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2015078925A (ja) 2013-10-17 2015-04-23 株式会社デンソー 周辺監視装置及び周辺監視システム
JP2019091273A (ja) 2017-11-15 2019-06-13 株式会社日立製作所 搬送車システム、搬送車制御システム及び搬送車制御方法

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05288847A (ja) * 1992-04-09 1993-11-05 Nissan Motor Co Ltd 接近検知装置
JP3341186B2 (ja) * 1994-03-31 2002-11-05 オムロン株式会社 対象判別装置および方法,ならびに対象判別装置を搭載した車両
JPH08271247A (ja) * 1995-03-30 1996-10-18 Mitsubishi Electric Corp センサのアライメント誤差推定装置
DE60107692T2 (de) * 2000-08-16 2005-12-15 Raytheon Company, Waltham System zur erfassung von naheliegenden objekten
US6922493B2 (en) * 2002-03-08 2005-07-26 Anzus, Inc. Methods and arrangements to enhance gridlocking
JP2004198159A (ja) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd 車載センサの軸ずれ計測装置
US7460951B2 (en) * 2005-09-26 2008-12-02 Gm Global Technology Operations, Inc. System and method of target tracking using sensor fusion
US7991550B2 (en) * 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
JP4636346B2 (ja) * 2009-03-31 2011-02-23 アイシン精機株式会社 車載カメラの校正装置、方法、及びプログラム
DE112009005165B4 (de) * 2009-08-26 2016-01-28 Mitsubishi Electric Corporation Einparkunterstützungsvorrichtung
JP5610847B2 (ja) * 2010-05-26 2014-10-22 三菱電機株式会社 角速度推定装置及びコンピュータプログラム及び角速度推定方法
DE102010060942A1 (de) * 2010-12-01 2012-06-06 Sick Ag Sensoranordnung zur Objekterkennung
US9357208B2 (en) * 2011-04-25 2016-05-31 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
US8775064B2 (en) * 2011-05-10 2014-07-08 GM Global Technology Operations LLC Sensor alignment process and tools for active safety vehicle applications
CN103889879B (zh) * 2011-10-19 2017-03-22 克朗设备公司 识别、匹配并跟踪图像序列中的多个对象
US9129211B2 (en) * 2012-03-15 2015-09-08 GM Global Technology Operations LLC Bayesian network to track objects using scan points using multiple LiDAR sensors
JP6182866B2 (ja) * 2012-03-21 2017-08-23 株式会社リコー 校正装置、距離計測装置及び車両
KR102001659B1 (ko) * 2012-11-19 2019-07-19 한국전자통신연구원 차량용 카메라 캘리브레이션 장치 및 방법
US9174672B2 (en) * 2013-10-28 2015-11-03 GM Global Technology Operations LLC Path planning for evasive steering maneuver in presence of target vehicle and surrounding objects
WO2016014718A1 (en) * 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
JP6520203B2 (ja) * 2015-02-25 2019-05-29 株式会社デンソー 搭載角度誤差検出方法および装置、車載レーダ装置
US10578713B2 (en) * 2015-06-24 2020-03-03 Panasonic Corporation Radar axis displacement amount calculation device and radar axis displacement calculation method
US10582121B2 (en) * 2016-01-12 2020-03-03 Mitsubishi Electric Research Laboratories, Inc. System and method for fusing outputs of sensors having different resolutions
JP6304777B2 (ja) * 2016-05-17 2018-04-04 本田技研工業株式会社 移動体
DE102016009756A1 (de) * 2016-08-10 2018-02-15 Daimler Ag Verfahren zum Kalibrieren eines Sensorsystems eines Kraftfahrzeugs sowie Sensorsystem
US10989791B2 (en) * 2016-12-05 2021-04-27 Trackman A/S Device, system, and method for tracking an object using radar data and imager data
WO2018195986A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Calibration of laser sensors
US10545221B2 (en) * 2017-05-23 2020-01-28 Veoneer, Inc. Apparatus and method for detecting alignment of sensor in an automotive detection system
EP3415943A1 (de) * 2017-06-13 2018-12-19 Veoneer Sweden AB Fehlerschätzung für ein fahrzeugumgebungserkennungssystem
US11300958B2 (en) * 2017-07-13 2022-04-12 Waymo Llc Sensor adjustment based on vehicle motion
US10656245B2 (en) * 2017-09-05 2020-05-19 Valeo Radar Systems, Inc. Automotive radar sensor blockage detection using adaptive overlapping visibility
US10699135B2 (en) * 2017-11-20 2020-06-30 Here Global B.V. Automatic localization geometry generator for stripe-shaped objects
JP6818907B2 (ja) * 2017-11-20 2021-01-27 三菱電機株式会社 障害物認識装置および障害物認識方法
US20180074506A1 (en) * 2017-11-21 2018-03-15 GM Global Technology Operations LLC Systems and methods for mapping roadway-interfering objects in autonomous vehicles
US10732262B2 (en) * 2017-12-18 2020-08-04 Veoneer Us, Inc. Apparatus and method for detecting alignment of sensor in an automotive detection system
US20200049511A1 (en) * 2018-08-07 2020-02-13 Ford Global Technologies, Llc Sensor fusion
JP6970065B2 (ja) * 2018-09-06 2021-11-24 株式会社Soken 物体検出装置
CN109143242B (zh) * 2018-09-07 2020-04-14 百度在线网络技术(北京)有限公司 障碍物绝对速度估计方法、系统、计算机设备和存储介质
US11016495B2 (en) * 2018-11-05 2021-05-25 GM Global Technology Operations LLC Method and system for end-to-end learning of control commands for autonomous vehicle
US11610337B2 (en) * 2019-02-17 2023-03-21 Purdue Research Foundation Calibration of cameras and scanners on UAV and mobile platforms
JP7172786B2 (ja) * 2019-03-22 2022-11-16 トヨタ自動車株式会社 車両制御システム
JP7280759B2 (ja) * 2019-06-20 2023-05-24 ヤンマーパワーテクノロジー株式会社 散布作業用の自動走行システム
JP7161976B2 (ja) * 2019-06-20 2022-10-27 ヤンマーパワーテクノロジー株式会社 作業車両用の自動走行システム
US12046006B2 (en) * 2019-07-05 2024-07-23 Nvidia Corporation LIDAR-to-camera transformation during sensor calibration for autonomous vehicles
EP3767332B1 (de) * 2019-07-18 2023-12-13 Aptiv Technologies Limited Verfahren und systeme zur radar-objektdetektion
US20210033722A1 (en) * 2019-07-29 2021-02-04 Trackman A/S System and method for inter-sensor calibration
WO2021024711A1 (ja) * 2019-08-02 2021-02-11 日立オートモティブシステムズ株式会社 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法
DE112020005320T5 (de) * 2020-01-10 2022-11-10 Hitachi Astemo, Ltd. Sensorausrichtungseinrichtung, fahrsteuersystem und korrekturbetragschätzverfahren
CN111272165B (zh) * 2020-02-27 2020-10-30 清华大学 一种基于特征点标定的智能车定位方法
US11785340B2 (en) * 2020-03-16 2023-10-10 Sony Semiconductor Solutions Corporation Signal processing device, signal processing method, and parameter search method
US11985424B2 (en) * 2020-03-16 2024-05-14 Sony Semiconductor Solutions Corporation Signal processing device and signal processing method for correcting input signal from sensor
CA3177161A1 (en) * 2020-04-28 2021-11-04 Rahul RAMAKRISHNAN Object detection and tracking for automated operation of vehicles and machinery
EP3958016A1 (de) * 2020-08-20 2022-02-23 Zenuity AB Detektion stationärer objekte
EP4233003A4 (de) * 2020-10-26 2024-04-17 Plato Systems, Inc. Zentralisiertes verfolgungssystem mit verteilten festen sensoren
US11912301B1 (en) * 2020-12-10 2024-02-27 Zoox, Inc. Top-down scenario exposure modeling
JP2024508137A (ja) * 2021-03-05 2024-02-22 トラックマン・アクティーゼルスカブ ロボットカメラ較正のためのシステムおよび方法
JP2023084370A (ja) * 2021-12-07 2023-06-19 本田技研工業株式会社 移動体制御装置、移動体制御方法、およびプログラム
US11574462B1 (en) * 2022-06-30 2023-02-07 Plus AI, Inc. Data augmentation for detour path configuring

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010249613A (ja) 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2015078925A (ja) 2013-10-17 2015-04-23 株式会社デンソー 周辺監視装置及び周辺監視システム
JP2019091273A (ja) 2017-11-15 2019-06-13 株式会社日立製作所 搬送車システム、搬送車制御システム及び搬送車制御方法

Also Published As

Publication number Publication date
JPWO2021024712A1 (de) 2021-02-11
JP7162142B2 (ja) 2022-10-27
WO2021024712A1 (ja) 2021-02-11
US20220289245A1 (en) 2022-09-15

Similar Documents

Publication Publication Date Title
DE112020003137T5 (de) Zielvorrichtung, fahrsteuersystem und verfahren zum berechnen einer korrekturgrösse von sensordaten
EP3497476B1 (de) Kraftfahrzeug und verfahren zur 360°-umfelderfassung
DE112015004817B4 (de) Hinderniswarnvorrichtung
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE102017105305A1 (de) Verfahren zur automatischen bestimmung einer sensorstellung
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE112009005292B4 (de) Objekterfassungsvorrichtung
DE102018220024B3 (de) Verfahren zur Fusion von Sensordaten von mehreren Sensoren und Fusionsvorrichtung zum Fusionieren von Sensordaten von mehreren Sensoren
DE102009014105A1 (de) Erkennungssystem für ein Fahrzeug
DE102017103275A1 (de) Verfahren zum Erfassen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mithilfe eines Ultraschallsensors mit verbesserter Filterung von Bodenreflexionen, Steuergerät, Ultraschallsensorvorrichtung sowie Kraftfahrzeug
DE102017202891B4 (de) Objekterkennungsvorrichtung und Objekterkennungsverfahren
DE102016212193A1 (de) Vorrichtung und Verfahren zur Detektion eines Objekts auf einer Strasse
DE102019205008B3 (de) System zur Rückwärtigen Kollisionsvermeidung
DE102015000399A1 (de) Kartographieren von Fahrspuren mittels Fahrzeugflottendaten
DE112010005903T5 (de) Objekterfassungsvorrichtung und Objekterfassungsprogramm
DE102018121165A1 (de) Verfahren zum Abschätzen der Umgebung eines Fahrzeugs
DE102018103803A1 (de) System und verfahren für das erkennen einer fehlerhaften sensorinstallation innerhalb eines fahrzeugs, um die mit der objekterkennung verbundenen gefahren zu verringern
DE112020003009T5 (de) Zielvorrichtung, fahrsteuersystem und verfahren zum berechnen einer korrekturgrösse für sensordaten
DE112015004832T5 (de) Seitenabstandssensordiagnosevorrichtung
EP3504697A1 (de) Verfahren zum vermessen eines fahrereignisses, servervorrichtung und system aus der servervorrichtung und mehreren kraftfahrzeugen
DE102020215773A1 (de) Verfahren und Vorrichtung zum Erkennen von Objekten in Sensordaten einer Ultraschallsensorik eines Fahrzeugs
DE102019131667A1 (de) Fahrzeug und verfahren zur voraussage einer kollision
DE102018217268A1 (de) Vorrichtung und Verfahren zum Ermitteln von Höheninformationen eines Objekts in einer Umgebung eines Fahrzeugs
DE112020001528T5 (de) Erfassungsvorrichtung und erfassungsverfahren
DE102007058241B4 (de) Auswerteverfahren, insbesondere für ein Fahrerassistenzsystem eines Kraftfahrzeugs, zur Objektdetektion mittels eines Radarsensors

Legal Events

Date Code Title Description
R012 Request for examination validly filed