DE112020005320T5 - Sensorausrichtungseinrichtung, fahrsteuersystem und korrekturbetragschätzverfahren - Google Patents

Sensorausrichtungseinrichtung, fahrsteuersystem und korrekturbetragschätzverfahren Download PDF

Info

Publication number
DE112020005320T5
DE112020005320T5 DE112020005320.2T DE112020005320T DE112020005320T5 DE 112020005320 T5 DE112020005320 T5 DE 112020005320T5 DE 112020005320 T DE112020005320 T DE 112020005320T DE 112020005320 T5 DE112020005320 T5 DE 112020005320T5
Authority
DE
Germany
Prior art keywords
target
sensor
information
positional relationship
correction amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020005320.2T
Other languages
English (en)
Inventor
Shunsuke MATSUO
Tatsuhiko Monji
Akira Kuriyama
Haruki Nishimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of DE112020005320T5 publication Critical patent/DE112020005320T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/023Avoiding failures by using redundant parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/403Antenna boresight in azimuth, i.e. in the horizontal plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4091Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es wird eine Achsenabweichung eines Sensors korrigiert. Eine Sensorausrichtungseinrichtung umfasst: eine Zielpositionsbeziehungs-Verarbeitungseinheit, die ausgestaltet ist, um eine Positionsbeziehungsinformation des ersten Ziels und des zweiten Ziels auszugeben; eine Sensorbeobachtungsinformations-Verarbeitungseinheit, die ausgestaltet ist, um das Beobachtungsergebnis des ersten Ziels und das Beobachtungsergebnis des zweiten Ziels gemäß einem Koordinatenumwandlungsparameter in ein vorbestimmtes vereinheitlichtes Koordinatensystem umzuwandeln, eine Zeitsynchronisation mit einem vorbestimmten Timing durchzuführen und eine erste Zielinformation, die eine Position des ersten Ziels angibt, und eine zweite Zielinformation, die eine Position des zweiten Ziels angibt, zu extrahieren; eine Positionsschätzeinheit, die ausgestaltet ist, um eine Position des zweiten Ziels unter Verwendung der ersten Zielinformation, der zweiten Zielinformation und der Positionsbeziehungsinformation zu schätzen; und eine Sensorkorrekturbetrag-Schätzeinheit, die ausgestaltet ist, um einen Abweichungsbetrag des zweiten Sensors unter Verwendung der zweiten Zielinformation und einer geschätzten Position des zweiten Ziels zu berechnen und einen Korrekturbetrag zu schätzen. Der Koordinatenumwandlungsparameter wird basierend auf dem Korrekturbetrag geändert.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine fahrzeuginterne Steuereinrichtung und spezieller eine Sensorausrichtungseinrichtung, die Sensordaten korrigiert.
  • Technischer Hintergrund
  • Fahrassistenzsysteme und Systeme eines automatisierten Fahrens wurden entwickelt, um verschiedene Ziele zu erreichen, wie beispielsweise eine Reduzierung von Verkehrsunfällen, eine Reduzierung der Fahrerbelastung, eine Verbesserung der Kraftstoffwirtschaftlichkeit zum Reduzieren der globalen Umweltbelastung und eine Bereitstellung von Transportmitteln für schwache Straßennutzer zum Realisieren einer zukunftsfähigen Gesellschaft. Bei dem Fahrassistenzsystem und dem System eines automatisierten Fahrens sind eine Vielzahl von Fahrzeugperipherieüberwachungssensoren bereitgestellt, um anstatt des Fahrers die Peripherie des Fahrzeugs zu überwachen. Ferner ist, um die Sicherheit dieser Systeme zu garantieren, eine Funktion zur Durchführung einer Korrektur, auch wenn bei dem Anbringungswinkel des Fahrzeugperipherieüberwachungssensors eine Abweichung vorliegt, erforderlich.
  • Der technische Hintergrund des vorliegenden technischen Gebiets umfasst den folgenden Stand der Technik. PTL 1 ( JP 2016-065759 A ) beschreibt eine Achsenabweichungsbetrag-Schätzeinrichtung, die ermittelt, ob ein erstes Objekt, das durch einen Sensor einer elektromagnetischen Welle detektiert wird, der eine Position eines Objekts detektiert, indem eine elektromagnetische Welle übertragen und empfangen wird, und ein zweites Objekt, das durch einen Bildsensor detektiert wird, der eine Position eines Objekts detektiert, indem eine Bildverarbeitung an einem erfassten Bild durchgeführt wird, das gleiche Objekt in einer Kollisionsreduzierungseinrichtung sind, und als Achsenabweichungsbetrag einen Winkel zwischen einem ersten Liniensegment, das eine Position des eigenen Fahrzeugs und des ersten Objekts verbindet, und einem zweiten Liniensegment, das die Position des eigenen Fahrzeugs und des zweiten Objekts verbindet, berechnet, wenn ermittelt wird, dass das erste Objekt und das zweite Objekt das gleiche Objekt sind (siehe Zusammenfassung).
  • Ferner wird in PTL 2 ( JP 2004-317507 A ) die Wellenform der Empfangsintensität in Bezug auf die Position in der Abtastrichtung eine Form eines umgekehrten W, und wird die Achsenabweichung, die die Wankrichtung des Radars umfasst, unter Verwendung des Anpassungsziels angepasst, wobei das Helligkeits-/Dunkelheitsmuster und die äußere Form der Detektionsfläche derart festgelegt werden, dass der Achsenabweichungsbetrag für jede Richtung von der Wellenform quantitativ berechnet werden kann. Ferner ist bei dem Vereinigungsverfahren ein Achsenanpassungsverfahren beschrieben, bei dem ein Bild des gleichen Anpassungsziels nach einer Achsenanpassung des Radars erfasst wird, und eine Achsenanpassung der Kamera in Bezug auf das Radar auf der Grundlage von Koordinatenwerten einer Vielzahl von Merkmalspunkten in dem Bild an einer Bildebene durchgeführt wird (siehe Zusammenfassung).
  • Zitierungsliste
  • Patentliteratur
    • PTL 1: JP 2016-065759 A
    • PTL 2: JP 2004-317507 A
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • In PTL 1 wird jedoch ermittelt, ob ein durch einen Funkwellensensor detektiertes Objekt und ein durch einen Bildsensor detektiertes Objekt das selbe Objekt sind, und wird, wenn ermittelt wird, dass die Objekte das selbe sind, ein Achsenabweichungsbetrag berechnet. Wenn jedoch die detektierten Objekte nicht das selbe Objekt sind, wird der Achsenabweichungsbetrag nicht berechnet. Ferner besteht das Problem, dass Schwankungen bei Detektionspunkten und Unterschiede bei Detektionspunkten unter einer Vielzahl von Sensoren ungeachtet der Größe der seitlichen Breite des detektierten Objekts auftreten. Ferner wird in PTL 2, nachdem die Achsenabweichungsanpassung unter Verwendung der Detektionsinformation des Ziels durch ein einzelnes Radar durchgeführt wird, die Achsenabweichungsanpassung unter Verwendung der Abbildung des Ziels durch die Kamera durchgeführt, wobei jedoch das Problem besteht, dass es notwendig ist, die Achsenabweichung des Sensors letztlich unter Verwendung von menschlicher Arbeit oder einer Achsenanpassungseinrichtung physikalisch zu korrigieren.
  • Lösung des Problems
  • Ein repräsentatives Beispiel der in der Anmeldung offenbarten Erfindung lautet wie folgt. Das heißt, es wird eine Sensorausrichtungseinrichtung bereitgestellt, in die ein Beobachtungsergebnis eines ersten Ziels durch einen ersten Sensor und ein Beobachtungsergebnis eines zweiten Ziels durch einen zweiten Sensor eingegeben werden, wobei die Sensorausrichtungseinrichtung umfasst: eine Zielpositionsbeziehungs-Verarbeitungseinheit, die ausgestaltet ist, um eine Positionsbeziehungsinformation des ersten Ziels und des zweiten Ziels auszugeben; eine Sensorbeobachtungsinformations-Verarbeitungseinheit, die ausgestaltet ist, um das Beobachtungsergebnis des ersten Ziels und das Beobachtungsergebnis des zweiten Ziels gemäß einem Koordinatenumwandlungsparameter in ein vorbestimmtes vereinheitlichtes Koordinatensystem umzuwandeln, eine Zeitsynchronisation mit einem vorbestimmten Timing durchzuführen und eine erste Zielinformation, die eine Position des ersten Ziels angibt, und eine zweite Zielinformation, die eine Position des zweiten Ziels angibt, zu extrahieren; eine Positionsschätzeinheit, die ausgestaltet ist, um eine Position des zweiten Ziels unter Verwendung der ersten Zielinformation, der zweiten Zielinformation und der Positionsbeziehungsinformation zu schätzen; und eine Sensorkorrekturbetrag-Schätzeinheit, die ausgestaltet ist, um einen Abweichungsbetrag des zweiten Sensors unter Verwendung der zweiten Zielinformation und einer geschätzten Position des zweiten Ziels zu berechnen und einen Korrekturbetrag zu schätzen. Der Koordinatenumwandlungsparameter wird basierend auf dem Korrekturbetrag geändert.
  • Vorteilhafte Auswirkungen der Erfindung
  • Gemäß der vorliegenden Erfindung kann eine Achsenabweichung eines Sensors korrigiert werden. Ziele, Ausgestaltungen und Auswirkungen neben der obigen Beschreibung werden durch die Erklärung hinsichtlich der folgenden Ausführungsformen ersichtlich.
  • Figurenliste
    • 1 ist ein Funktionsblockdiagramm einer Sensorvereinigungseinrichtung mit einer Sensorausrichtungsfunktion gemäß einer ersten Ausführungsform.
    • 2 ist ein konzeptionelles Diagramm, das ein Verarbeitungsverfahren der Sensorvereinigungseinrichtung mit der Sensorausrichtungsfunktion gemäß der ersten Ausführungsform veranschaulicht.
    • 3 ist ein konzeptionelles Diagramm, das ein Verarbeitungsverfahren der Sensorvereinigungseinrichtung mit der Sensorausrichtungsfunktion gemäß der ersten Ausführungsform veranschaulicht.
    • 4 ist ein konzeptionelles Diagramm, das ein Verarbeitungsverfahren der Sensorvereinigungseinrichtung mit der Sensorausrichtungsfunktion gemäß der ersten Ausführungsform veranschaulicht.
    • 5 ist ein Diagramm, das ein Beispiel eines Sensorausrichtungsprozesses unter Verwendung einer Straßenkonstruktion gemäß der ersten Ausführungsform veranschaulicht.
    • 6 ist ein Diagramm, das ein Beispiel eines Sensorausrichtungsprozesses unter Verwendung einer Straßenkonstruktion gemäß der ersten Ausführungsform veranschaulicht.
    • 7 ist ein Diagramm, das ein Beispiel eines Sensorausrichtungsprozesses unter Verwendung einer Straßenkonstruktion gemäß der ersten Ausführungsform veranschaulicht.
    • 8 ist ein Diagramm, das ein Beispiel eines Sensorausrichtungsprozesses unter Verwendung einer Straßenkonstruktion gemäß der ersten Ausführungsform veranschaulicht.
    • 9 ist ein Diagramm, das ein Beispiel eines Sensorausrichtungsprozesses unter Verwendung einer Straßenkonstruktion gemäß der ersten Ausführungsform veranschaulicht.
    • 10 ist ein Funktionsblockdiagramm einer Sensorvereinigungseinrichtung mit einer Sensorausrichtungsfunktion einer zweiten Ausführungsform.
    • 11 ist ein Funktionsblockdiagramm einer Sensorvereinigungseinrichtung mit einer Sensorausrichtungsfunktion der dritten Ausführungsform.
    • 12 ist ein Funktionsblockdiagramm einer Sensorvereinigungseinrichtung mit einer Sensorausrichtungsfunktion einer vierten Ausführungsform.
  • Beschreibung der Ausführungsformen
  • Hierin nachfolgend werden Ausführungsformen der vorliegenden Erfindung in Bezug auf die Zeichnungen beschrieben. Es sei angemerkt, dass in allen Zeichnungen zur Erklärung von Arten zum Ausführen der Erfindung Kasten oder Elemente mit der gleichen Funktion durch die gleichen Bezugszeichen bezeichnet sind und eine wiederholte Beschreibung dieser weggelassen wird.
  • Erste Ausführungsform
  • 1 ist ein Funktionsblockdiagramm, das eine Ausführungsform einer Sensorvereinigungseinrichtung 1 mit einer Sensorausrichtungsfunktion veranschaulicht.
  • Wie es in 1 veranschaulicht ist, umfasst die Sensorvereinigungseinrichtung 1 der vorliegenden Ausführungsform eine Sensorbeobachtungsinformations-Verarbeitungseinheit 100, eine Zielpositionsbeziehungs-Verarbeitungseinheit 110, eine Zielpositionsbeziehungsinformations-Speichereinheit 120, eine Positionsschätzeinheit 130 und eine Datenintegrationseinheit 200. Die Sensorausrichtungsfunktion ist durch jede andere Einheit als die Datenintegrationseinheit 200 der Sensorvereinigungseinrichtung 1 ausgestaltet, und die Sensorausrichtungseinrichtung ist durch jede andere Einheit als die Datenintegrationseinheit 200 realisiert.
  • Ferner werden Ausgangssignale eines ersten Fahrzeugperipherieüberwachungssensors 10a, eines zweiten Fahrzeugperipherieüberwachungssensors 10b und eines Sensors 20 zur Detektion des Verhaltens des eigenen Fahrzeugs in die Sensorvereinigungseinrichtung 1 eingegeben.
  • Der erste und zweite Fahrzeugperipherieüberwachungssensor 10a und 10b sind Sensoren, die eine Straßenkonstruktion (Objekt oder Fahrbahnanzeigeobjekt) um ein eigenes Fahrzeug 800 herum detektieren. Als Beispiel umfassen der erste und zweite Fahrzeugperipherieüberwachungssensor 10a und 10b ein Millimeterwellenradar, eine Kamera (Kamera für sichtbares Licht, nahes Infrarot, mittleres Infrarot oder fernes Infrarot), ein Light Detection and Ranging (LiDAR), ein Sonar, einen Laufzeitsensor (TOF-Sensor), einen Sensor, der diese kombiniert, oder ähnliches.
  • Der Sensor 20 zur Detektion des Verhaltens des eigenen Fahrzeugs ist eine Sensorgruppe, die eine Geschwindigkeit, eine Gierrate und einen Lenkwinkel des eigenen Fahrzeugs 800 detektiert. Beispiele hierfür umfassen einen Raddrehzahlsensor, einen Lenkwinkelsensor und dergleichen.
  • Die Sensorvereinigungseinrichtung 1 (elektronische Steuereinrichtung) und verschiedene Sensoren (der erste Fahrzeugperipherieüberwachungssensor 10a, der zweite Fahrzeugperipherieüberwachungssensor 10b und dergleichen) der vorliegenden Ausführungsform umfassen einen Computer (Mikrocomputer), der eine Arithmetikeinrichtung, einen Speicher und eine Eingabe/Ausgabe-Einrichtung umfasst.
  • Die Arithmetikeinrichtung umfasst einen Prozessor und führt ein in dem Speicher gespeichertes Programm aus. Ein Teil der durch die Arithmetikeinrichtung durchgeführten Verarbeitung, welche das Programm ausführt, kann durch eine andere Arithmetikeinrichtung ausgeführt werden (beispielsweise Hardware, wie beispielsweise ein Universalschaltkreis (FPGA) und ein anwendungsspezifischer Schaltkreis (ASIC)).
  • Der Speicher umfasst einen ROM und einen RAM, die nicht flüchtige Speicherelemente sind. Der ROM speichert ein unveränderliches Programm (zum Beispiel BIOS) und dergleichen. Der RAM ist ein Hochgeschwindigkeits- und flüchtiges Speicherelement, wie beispielsweise ein dynamischer Direktzugriffsspeicher (DRAM) und ein nicht flüchtiges Speicherelement, wie beispielsweise ein statischer Direktzugriffsspeicher (SRAM), und speichert ein durch die Arithmetikeinrichtung ausgeführtes Programm und Daten, die verwendet werden, wenn das Programm ausgeführt wird.
  • Die Eingabe/Ausgabe-Einrichtung ist eine Schnittstelle, die gemäß einem vorbestimmten Protokoll Verarbeitungsinhalte von der elektronischen Steuereinrichtung oder dem Sensor nach extern überträgt und Daten von außen empfängt.
  • Das durch die Arithmetikeinrichtung ausgeführte Programm ist in einem nicht flüchtigen Speicher gespeichert, der ein nicht-transitorisches Speichermedium der elektronischen Steuereinrichtung oder des Sensors ist.
  • Die Zielpositionsbeziehungsinformations-Speichereinheit 120 zeichnet in einem nachstehend beschriebenen Prozess eine Positionsinformation eines stationären Objekts (beispielsweise eine Stützsäule und ein Holm eines Geländers, ein Verkehrsschild und Straßenmarkierungen, wie beispielsweise eine weiße Linie, eine Schallschutzwand und ein Markierungsknopf (Rüttelstreifen, Reflektoren, runde erhabene Markierungen, etc.)) als Ziel auf. Beispielsweise wird eine Positionsinformation eines stationären Objekts als Karteninformation geführt. Zusätzlich zu der Positionsinformation des stationären Objekts, das ein Ziel sein soll, wird auch der Zieltyp in Verbindung mit der Positionsinformation aufgezeichnet. Hier ist der Zieltyp eine Klassifizierung eines Ziels, die angibt, um was es sich bei dem Objekt handelt, und ein Anordnungszustand von Detektionspunkten (ein Detektionspunkt, ein bestimmtes Anordnungsmuster oder dergleichen).
  • In 2 bis 4 fährt das eigene Fahrzeug 800 mit einer Geschwindigkeit von 0 oder mehr in der Richtung der Fahrtroute des eigenen Fahrzeugs (das heißt, das eigene Fahrzeug 800 kann fahren oder gestoppt sein). Der erste Fahrzeugperipherieüberwachungssensor 10a und der zweite Fahrzeugperipherieüberwachungssensor 10b sind an dem eigenen Fahrzeug 800 angebracht. Ferner befinden sich um das eigene Fahrzeug 800 herum ein erstes Ziel 300 und ein erstes Nicht-Ziel 390, die durch den ersten Fahrzeugperipherieüberwachungssensor 10a beobachtet werden, und ein zweites Ziel 400 und ein zweites Nicht-Ziel 490, die durch den zweiten Fahrzeugperipherieüberwachungssensor 10b beobachtet werden. Hier ist das erste Ziel 300 ein Ziel, das mit hoher Genauigkeit durch den ersten Fahrzeugperipherieüberwachungssensor 10a detektiert werden kann, und ist das zweite Ziel 400 ein Ziel, das mit hoher Genauigkeit durch den zweiten Fahrzeugperipherieüberwachungssensor 10b detektiert werden kann. Unter den durch die Fahrzeugperipherieüberwachungssensoren 10a und 10b beobachteten Objekten sind die Ziele 300 und 400 stationäre Objekte, deren Positionen in der Zielpositionsbeziehungsinformations-Speichereinheit 120 aufgezeichnet werden, und sind die Nicht-Ziele 390 und 490 stationäre Objekte oder mobile Objekte, deren Positionen nicht in der Zielpositionsbeziehungsinformations-Speichereinheit 120 aufgezeichnet werden.
  • Als nächstes wird die Verarbeitung der Sensorvereinigungseinrichtung 1 mit der Sensorausrichtungsfunktion gemäß einer Ausführungsform der vorliegenden Erfindung in Bezug auf 1 bis 4 beschrieben.
  • 2(A) bis 2(C) veranschaulichen das Konzept des Verarbeitungsverfahrens in einem Zustand, in dem der zweite Fahrzeugperipherieüberwachungssensor 10b an dem eigenen Fahrzeug 800 angebracht ist, während in der horizontalen Richtung eine axiale Abweichung um einen Winkel θ1 vorliegt, der erste Fahrzeugperipherieüberwachungssensor 10a das erste Ziel 300 und das erste Nicht-Ziel 390, die ein Detektionspunkt sind, detektiert, und der zweite Fahrzeugperipherieüberwachungssensor 10b das zweite Ziel 400 und das zweite Nicht-Ziel 490, die ein Detektionspunkt sind, detektiert. 2(A) veranschaulicht eine Sensorinformation vor einer Zielextraktion, 2(B) veranschaulicht eine Positionsinformation des extrahierten Ziels und 2(C) veranschaulicht eine Positionsinformation des Ziels nach einer Versatzauslöschung. In den Zeichnungen geben das zweite Ziel 400 und das zweite Nicht-Ziel 490, die durch nicht unterbrochene Linien dargestellt sind, Positionen an, die durch den zweiten Fahrzeugperipherieüberwachungssensor 10b beobachtet werden, und geben das zweite Ziel 400 und das zweite Nicht-Ziel 490, die durch unterbrochene Linien dargestellt sind, wahre Positionen an.
  • Wie es in 2(A) veranschaulicht ist, detektiert der erste Fahrzeugperipherieüberwachungssensor 10a das erste Ziel 300 und das erste Nicht-Ziel 390, und gibt er zumindest relative Koordinaten des ersten Ziels 300 und des ersten Nicht-Ziels 390 in Bezug auf das eigene Fahrzeug 800 aus. Der zweite Fahrzeugperipherieüberwachungssensor 10b detektiert das zweite Ziel 400 und das zweite Nicht-Ziel 490 und gibt zumindest relative Koordinaten des zweiten Ziels 400 und des zweiten Nicht-Ziels 490 an das eigene Fahrzeug 800 aus. Wenn sowohl das Ziel als auch das Nicht-Ziel ein mobiles Objekt ist, kann auch die absolute Geschwindigkeit ausgegeben werden.
  • Die Zielpositionsbeziehungs-Verarbeitungseinheit 110 erzeugt eine relative Positionsbeziehung zwischen dem ersten Ziel 300 und dem zweiten Ziel 400. Im Speziellen werden die Positionsinformation und der Zieltyp des ersten Ziels 300 und die Positionsinformation und der Zieltyp des zweiten Ziels 400 als Eingänge von der Zielpositionsbeziehungsinformations-Speichereinheit 120 empfangen und in eine relative Positionsbeziehung zwischen dem ersten Ziel 300 und dem zweiten Ziel 400 umgewandelt. Ferner gibt die Zielpositionsbeziehungs-Verarbeitungseinheit 110 einen zulässigen Achsenabweichungsbereich, der vorab für jeden Fahrzeugperipherieüberwachungssensor 10 ermittelt wird, an die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 aus. Die Zielpositionsbeziehungs-Verarbeitungseinheit 110 gibt auch die relative Positionsbeziehung zwischen dem ersten Ziel 300 und dem zweiten Ziel 400, den Typ des ersten Ziels 300 und den Typ des zweiten Ziels 400 an die Positionsschätzeinheit 130 aus.
  • Hier umfasst die relative Positionsbeziehung vereinheitlichte relative Koordinaten des zweiten Ziels 400, ausgehend von dem ersten Ziel 300, oder vereinheitlichte relative Koordinaten des ersten Ziels 300, ausgehend von dem zweiten Ziel 400, und wird sie durch die Koordinaten der Ziele 300 und 400 berechnet, deren Positionen in der Zielpositionsbeziehungsinformations-Speichereinheit 120 aufgezeichnet sind. Ferner sind die vereinheitlichten relativen Koordinaten ein Koordinatensystem, in dem Koordinaten basierend auf dem Datenausgang von der Vielzahl von Fahrzeugperipherieüberwachungssensoren 10a und 10b erfasst werden. Beispielsweise ist, wie in 2(D) veranschaulicht, eine x-Achse in der Vorwärtsrichtung des eigenen Fahrzeugs 800 definiert, und ist eine y-Achse in der linken Richtung des eigenen Fahrzeugs 800 definiert, wobei die Mitte des vorderen Endes des eigenen Fahrzeugs 800 ein Startpunkt ist.
  • Die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 führt hauptsächlich eine Koordinatenumwandlung von Eingangssensordaten, eine Zeitsynchronisation von Detektionsergebnissen zwischen Sensoren und eine Zielermittlung durch.
  • Eine Koordinatenumwandlungseinheit 100a der Sensordaten transformiert die relativen Koordinaten zwischen dem ersten Ziel 300 und dem eigenen Fahrzeug 800, die relativen Koordinaten zwischen dem ersten Nicht-Ziel 390 und dem eigenen Fahrzeug 800, die relativen Koordinaten zwischen dem zweiten Ziel 400 und dem eigenen Fahrzeug 800 und die relativen Koordinaten zwischen dem zweiten Nicht-Ziel 490 und dem eigenen Fahrzeug 800 in die vereinheitlichten relativen Koordinaten mit dem eigenen Fahrzeug 800 unter Verwendung der Koordinatenumwandlungsparameter.
  • Die Detektionsergebnisse der Geschwindigkeit, der Gierrate und des Lenkwinkels des eigenen Fahrzeugs 800 durch den Sensor 20 zur Detektion des Verhaltens des eigenen Fahrzeugs werden in eine Zeitsynchronisationseinheit 100b eingegeben, die die Detektionszeitpunkte zwischen den Sensoren synchronisiert. Unter Verwendung der eingegebenen Detektionsergebnisse der Geschwindigkeit, der Gierrate und des Lenkwinkels des eigenen Fahrzeugs 800 korrigiert die Zeitsynchronisationseinheit 100b die vereinheitlichten relativen Koordinaten des ersten Ziels 300, die vereinheitlichten relativen Koordinaten des ersten Nicht-Ziels 390, die vereinheitlichten relativen Koordinaten des zweiten Ziels 400 und die vereinheitlichten relativen Koordinaten des zweiten Nicht-Ziels 490 in die vereinheitlichten relativen Koordinaten mit einem vorbestimmten Timing und synchronisiert sie die Zeitpunkte der Detektionsergebnisse der jeweiligen Sensoren. Die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten ersten Ziels 300, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten ersten Nicht-Ziels 390, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten zweiten Ziels 400 und die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten zweiten Nicht-Ziels 490 werden an die Datenintegrationseinheit 200 und eine Zielermittlungseinheit 100c ausgegeben. Wenn die Ziele und die Nicht-Ziele mobile Objekte sind, kann auch die absolute Geschwindigkeit ausgegeben werden.
  • Die Zielermittlungseinheit 100c ermittelt ein Ziel. Im Speziellen empfängt die Zielermittlungseinheit 100c von der Zeitsynchronisationseinheit 100b die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten ersten Ziels 300, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten ersten Nicht-Ziels 390, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten zweiten Ziels 400, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten zweiten Nicht-Ziels 490 und den zulässigen Achsenabweichungsbereich als Eingänge. Die Zielermittlungseinheit 100c extrahiert das erste Ziel 300 und das zweite Ziel 400 basierend auf den zulässigen Achsenabweichungsbereichen des Fahrzeugperipherieüberwachungssensors 10a und des Fahrzeugperipherieüberwachungssensors 10b und gibt die vereinheitlichten relativen Koordinaten des ersten Ziels 300 und die vereinheitlichten relativen Koordinaten des zweiten Ziels 400 an die Positionsschätzeinheit 130 aus (siehe 2(B)).
  • Ferner gibt die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit des zeitlich synchronisierten ersten Ziels 300, die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit des zeitlich synchronisierten ersten Nicht-Ziels 390, die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit des zeitlich synchronisierten zweiten Ziels 400 und die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit des zeitlich synchronisierten zweiten Nicht-Ziels 490 an die Datenintegrationseinheit 200 aus. Ferner gibt die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 die vereinheitlichten relativen Koordinaten des zweiten Ziels 400 an eine Korrekturwertschätzeinheit 140 aus.
  • Die Datenintegrationseinheit 200 integriert die gesamte Eingangsinformation und gibt ein Integrationsergebnis an eine Fahrsteuereinrichtung 2 aus. Die Fahrsteuereinrichtung 2 ist ein System eines automatisierten Fahrens (AD-ECU) oder ein Fahrassistenzsystem, das das Fahren des Fahrzeugs unter Verwendung des Ausgangs von der Sensorvereinigungseinrichtung 1 steuert.
  • Die Positionsschätzeinheit 130 schätzt wahre vereinheitlichte relative Koordinaten des zweiten Ziels 400. Im Speziellen werden die relative Positionsbeziehung zwischen dem ersten Ziel 300 und dem zweiten Ziel 400, der Typ des ersten Ziels 300, der Typ des zweiten Ziels 400, die vereinheitlichten relativen Koordinaten des ersten Ziels 300 und die vereinheitlichten relativen Koordinaten des zweiten Ziels 400 in die Positionsschätzeinheit 130 eingegeben. Unter Verwendung der relativen Positionsbeziehung zwischen dem ersten Ziel 300 und dem zweiten Ziel 400, die von der Zielpositionsbeziehungs-Verarbeitungseinheit 110 erlangt wird (deren Positionen in der Zielpositionsbeziehungsinformations-Speichereinheit 120 aufgezeichnet sind), löscht die Positionsschätzeinheit 130 Versätze in der x-Achsenrichtung (vertikal) und der y-Achsenposition (horizontal) des ersten Ziels 300 und des zweiten Ziels 400 aus (siehe 2(C)). Die Position des ersten Ziels 300 nach der Versatzauslöschung ist die wahre Position des zweiten Ziels 400. Die vereinheitlichten relativen Koordinaten des ersten Ziels 300, der Typ des ersten Ziels 300, die vereinheitlichten relativen Koordinaten des zweiten Ziels 400 und der Typ des zweiten Ziels 400 nach der Versatzauslöschung werden an die Korrekturbetragschätzeinheit 140 ausgegeben.
  • Die Korrekturbetragschätzeinheit 140 schätzt den Abweichungsbetrag und berechnet den Korrekturbetrag. Im Speziellen empfängt eine Abweichungsbetragschätzeinheit 140a als Eingänge die vereinheitlichten relativen Koordinaten des ersten Ziels 300, den Typ des ersten Ziels 300, die vereinheitlichten relativen Koordinaten des zweiten Ziels 400 und den Typ des zweiten Ziels 400 nach einer Versatzauslöschung und berechnet sie den Achsenabweichungsbetrag des zweiten Fahrzeugperipherieüberwachungssensors 10b durch Verwenden der vereinheitlichten relativen Koordinaten der Anbringungsposition des ersten Fahrzeugperipherieüberwachungssensors 10a und der vereinheitlichten relativen Koordinaten der Anbringungsposition des zweiten Fahrzeugperipherieüberwachungssensors 10b unter Verwendung eines Berechnungsverfahrens entsprechend dem Typ des ersten Ziels 300 und dem Typ des zweiten Ziels 400. Eine Korrekturbetragberechnungseinheit 140b berechnet einen Sensorkoordinatenumwandlungs-Korrekturwert auf der Grundlage des Achsenabweichungsbetrags des zweiten Fahrzeugperipherieüberwachungssensors 10b, der durch die Abweichungsbetragschätzeinheit 140a berechnet wird, und gibt den Sensorkoordinatenumwandlungs-Korrekturwert an die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 aus.
  • Die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 (die Koordinatenumwandlungseinheit 100a der Sensordaten) ändert den Koordinatenumwandlungsparameter auf der Grundlage des Sensorkoordinatenumwandlungs-Korrekturwerts, der von der Korrekturbetragschätzeinheit 140 empfangen wird. Es sei angemerkt, dass die Korrekturbetragschätzeinheit 140 den Koordinatenumwandlungsparameter berechnen und den geänderten Koordinatenumwandlungsparameter an die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 ausgeben kann.
  • 3(A) bis 3(C) veranschaulichen das Konzept des Verarbeitungsverfahrens in einem Zustand, in dem der zweite Fahrzeugperipherieüberwachungssensor 10b an dem eigenen Fahrzeug 800 angebracht ist, während in der horizontalen Richtung eine axiale Abweichung um den Winkel θ1 vorliegt, der erste Fahrzeugperipherieüberwachungssensor 10a die ersten Ziele 300, 310 und 320 und das erste Nicht-Ziel 390, die Detektionspunkte mit einem konstanten Anordnungsmuster sind, detektiert, und der zweite Fahrzeugperipherieüberwachungssensor 10b das zweite Ziel 400 und das zweite Nicht-Ziel 490, die ein Detektionspunkt sind, detektiert. 3(A) veranschaulicht eine Sensorinformation vor einer Zielextraktion, 3(B) veranschaulicht eine Positionsinformation des extrahierten Ziels und 3(C) veranschaulicht eine Positionsinformation des Ziels nach einer Versatzauslöschung. In den Zeichnungen geben das zweite Ziel 400 und das zweite Nicht-Ziel 490, die durch nicht unterbrochene Linien dargestellt sind, durch den zweiten Fahrzeugperipherieüberwachungssensor 10b beobachtete Positionen an, und geben das zweite Ziel 400 und das zweite Nicht-Ziel 490, die durch unterbrochene Linien dargestellt sind, wahre Positionen an.
  • Bezüglich des Verarbeitungsflusses in dem Zustand von 3 werden nachstehend hauptsächlich Unterschiede zu dem Verarbeitungsfluss in dem Zustand von 2 beschrieben.
  • Wie es in 3(A) veranschaulicht ist, detektiert der erste Fahrzeugperipherieüberwachungssensor 10a die ersten Ziele 300 bis 320 und das erste Nicht-Ziel 390 und gibt er zumindest relative Koordinaten der ersten Ziele 300 bis 320 und des ersten Nicht-Ziels 390 in Bezug auf das eigene Fahrzeug 800 aus. Der zweite Fahrzeugperipherieüberwachungssensor 10b detektiert das zweite Ziel 400 und das zweite Nicht-Ziel 490 und gibt zumindest relative Koordinaten des zweiten Ziels 400 und des zweiten Nicht-Ziels 490 an das eigene Fahrzeug 800 aus. Die ersten Ziele 300 bis 320 sind Komponenten einer Straßenkonstruktion mit einem periodischen Anordnungsmuster mit Intervallen von mehreren Metern oder weniger. Ferner kann in einem Fall, in dem die Ziele und die Nicht-Ziele jeweils mobile Objekte sind, auch die absolute Geschwindigkeit ausgegeben werden.
  • Die Zielpositionsbeziehungs-Verarbeitungseinheit 110 erzeugt eine relative Positionsbeziehung zwischen den ersten Zielen 300 bis 320 und dem zweiten Ziel. Im Speziellen werden die Positionsinformation und die Zieltypen der ersten Ziele 300 bis 320, die Positionsinformation und die Zieltypen des zweiten Ziels 400 als Eingänge von der Zielpositionsbeziehungsinformations-Speichereinheit 120 empfangen und in die relative Positionsbeziehung zwischen den ersten Zielen 300 bis 320 und dem zweiten Ziel 400 umgewandelt. Der zulässige Achsenabweichungsbereich wird an die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 ausgegeben. Ferner werden die relative Positionsbeziehung zwischen einer ersten Straßenkonstruktion 500 und dem zweiten Ziel 400 mit einem spezifischen Anordnungsmuster, das die ersten Ziele 300 bis 320, die Typen der ersten Ziele 300 bis 320 und den Typ des zweiten Ziels 400 umfasst, an die Positionsschätzeinheit 130 ausgegeben.
  • Die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 führt hauptsächlich eine Koordinatenumwandlung von Eingangssensordaten, eine Zeitsynchronisation von Detektionsergebnissen zwischen Sensoren und eine Zielermittlung durch.
  • Die Koordinatenumwandlungseinheit 100a der Sensordaten wandelt die relativen Koordinaten zwischen den ersten Zielen 300 bis 320 und dem eigenen Fahrzeug 800, die relativen Koordinaten zwischen dem ersten Nicht-Ziel 390 und dem eigenen Fahrzeug 800, die relativen Koordinaten zwischen dem zweiten Ziel 400 und dem eigenen Fahrzeug 800 und die relativen Koordinaten zwischen dem zweiten Nicht-Ziel 490 und dem eigenen Fahrzeug 800 in die vereinheitlichten relativen Koordinaten mit dem eigenen Fahrzeug 800 unter Verwendung der Koordinatenumwandlungsparameter um.
  • Die Detektionsergebnisse der Geschwindigkeit, der Gierrate und des Lenkwinkels des eigenen Fahrzeugs 800 durch den Sensor 20 zur Detektion des Verhaltens des eigenen Fahrzeugs werden in die Zeitsynchronisationseinheit 100b eingegeben, die die Detektionszeitpunkte zwischen den Sensoren synchronisiert. Die Zeitsynchronisationseinheit 100b verwendet die eingegebenen Detektionsergebnisse der Geschwindigkeit, der Gierrate und des Lenkwinkels des eigenen Fahrzeugs 800 zur Korrektur der vereinheitlichten relativen Koordinaten der ersten Ziele 300 bis 320, der vereinheitlichten relativen Koordinaten des ersten Nicht-Ziels 390, der vereinheitlichten relativen Koordinaten des zweiten Ziels 400 und der vereinheitlichten relativen Koordinaten des zweiten Nicht-Ziels 490 in die vereinheitlichten relativen Koordinaten mit einem vorbestimmten Timing, wodurch die Zeitpunkte der Detektionsergebnisse der jeweiligen Sensoren synchronisiert werden. Die vereinheitlichten relativen Koordinaten der zeitlich synchronisierten ersten Ziele 300 bis 320, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten ersten Nicht-Ziels 390, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten zweiten Ziels 400 und die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten zweiten Nicht-Ziels 490 werden an die Datenintegrationseinheit 200 und die Zielermittlungseinheit 100c ausgegeben. Wenn die Ziele und die Nicht-Ziele mobile Objekte sind, kann auch die absolute Geschwindigkeit ausgegeben werden.
  • Die Zielermittlungseinheit 100c ermittelt ein Ziel. Im Speziellen empfängt die Zielermittlungseinheit 100c von der Zeitsynchronisationseinheit 100b die vereinheitlichten relativen Koordinaten der zeitlich synchronisierten ersten Ziele 300 bis 320, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten ersten Nicht-Ziels 390, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten zweiten Ziels 400, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten zweiten Nicht-Ziels 490 und den zulässigen Achsenabweichungsbereich als Eingänge. Die Zielermittlungseinheit 100c extrahiert die ersten Ziele 300 bis 320 und das zweite Ziel 400 basierend auf den zulässigen Achsenabweichungsbereichen des Fahrzeugperipherieüberwachungssensors 10a und des Fahrzeugperipherieüberwachungssensors 10b und gibt die vereinheitlichten relativen Koordinaten der ersten Ziele 300 bis 320 und die vereinheitlichten relativen Koordinaten des zweiten Ziels 400 an die Positionsschätzeinheit 130 aus (siehe 3(B)).
  • Ferner gibt die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 die vereinheitlichten relativen Koordinaten und die absoluten Geschwindigkeiten der zeitlich synchronisierten ersten Ziele 300 bis 320, die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit des zeitlich synchronisierten ersten Nicht-Ziels 390, die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit des zeitlich synchronisierten zweiten Ziels 400 und die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit des zeitlich synchronisierten zweiten Nicht-Ziels 490 an die Datenintegrationseinheit 200 aus. Ferner gibt die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 die vereinheitlichten relativen Koordinaten des zweiten Ziels 400 an die Korrekturwertschätzeinheit 140 aus.
  • Die Positionsschätzeinheit 130 schätzt eine wahre seitliche Position des zweiten Ziels 400. Im Speziellen werden die relative Positionsbeziehung zwischen den ersten Zielen 300 bis 320 und dem zweiten Ziel 400, die Typen der ersten Ziele 300 bis 320, der Typ des zweiten Ziels 400, die vereinheitlichten relativen Koordinaten der ersten Ziele 300 bis 320 und die vereinheitlichten relativen Koordinaten des zweiten Ziels 400 in die Positionsschätzeinheit 130 eingegeben. Die Positionsschätzeinheit 130 berechnet eine seitliche Position der ersten Straßenkonstruktion 500 mit einem spezifischen Anordnungsmuster, das die ersten Ziele 300 bis 320 umfasst, in dem vereinheitlichten Koordinatensystem, gesehen von dem eigenen Fahrzeug 800, basierend auf den vereinheitlichten relativen Koordinaten der ersten Ziele 300 bis 320 und dem Zieltyp. Als nächstes werden unter Verwendung der relativen Positionsbeziehung zwischen dem zweiten Ziel 400 und der ersten Straßenkonstruktion 500 (deren Positionen in der Zielpositionsbeziehungsinformations-Speichereinheit 120 aufgezeichnet sind), die von der Zielpositionsbeziehungs-Verarbeitungseinheit 110 erlangt wird, Versätze in der x-Achsenrichtung (vertikal) und der y-Achsenrichtung (horizontal) des ersten Ziels 300 und der ersten Straßenkonstruktion 500 ausgelöscht (siehe 3(C)). Die seitliche Position der ersten Straßenkonstruktion 500 nach der Versatzauslöschung ist die wahre seitliche Position des zweiten Ziels 400. Die seitliche Position in den vereinheitlichten relativen Koordinaten der ersten Straßenkonstruktion 500 nach der Versatzauslöschung, der Typ der ersten Ziele 300 bis 320, die vereinheitlichten relativen Koordinaten des zweiten Ziels 400 und der Typ des zweiten Ziels 400 werden an die Korrekturbetragschätzeinheit 140 ausgegeben.
  • Die Korrekturbetragschätzeinheit 140 schätzt den Abweichungsbetrag und berechnet den Korrekturbetrag. Im Speziellen empfängt die Abweichungsbetragschätzeinheit 140a als Eingänge die vereinheitlichten relativen Koordinaten des ersten Ziels 300, die Typen der ersten Ziele 300 bis 320, die vereinheitlichten relativen Koordinaten der ersten Straßenkonstruktion 500 und den Typ des zweiten Ziels 400 nach einer Versatzauslöschung und berechnet sie den Achsenabweichungsbetrag des zweiten Fahrzeugperipherieüberwachungssensors 10b durch Verwenden der vereinheitlichten relativen Koordinaten der Anbringungsposition des ersten Fahrzeugperipherieüberwachungssensors 10a und der vereinheitlichten relativen Koordinaten der Anbringungsposition des zweiten Fahrzeugperipherieüberwachungssensors 10b unter Verwendung eines Berechnungsverfahrens entsprechend den Typen der ersten Ziele 300 bis 320 und dem Typ des zweiten Ziels 400. Die Korrekturbetragberechnungseinheit 140b berechnet einen Sensorkoordinatenumwandlungs-Korrekturwert auf der Grundlage des Achsenabweichungsbetrags des zweiten Fahrzeugperipherieüberwachungssensors 10b, der durch die Abweichungsbetragschätzeinheit 140a berechnet wird, und gibt den Sensorkoordinatenumwandlungs-Korrekturwert an die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 aus.
  • 4(A) bis 4(C) veranschaulichen das Konzept des Verarbeitungsverfahrens in einem Zustand, in dem der zweite Fahrzeugperipherieüberwachungssensor 10b an dem eigenen Fahrzeug 800 angebracht ist, während in der horizontalen Richtung eine axiale Abweichung um den Winkel θ1 vorliegt, der erste Fahrzeugperipherieüberwachungssensor 10a die ersten Ziele 300, 310 und 320, die Detektionspunkte mit einem bestimmten Anordnungsmuster sind, detektiert, und der zweite Fahrzeugperipherieüberwachungssensor 10b die zweiten Ziele 400, 410 und 420, die Detektionspunkte mit einem bestimmten Anordnungsmuster sind, detektiert. 4(A) veranschaulicht eine Sensorinformation vor einer Zielextraktion, 4(B) veranschaulicht eine Positionsinformation des extrahierten Ziels und 4(C) veranschaulicht eine Positionsinformation des Ziels nach einer Versatzauslöschung. In den Zeichnungen geben das zweite Ziel 400 und das zweite Nicht-Ziel 490, die durch nicht unterbrochene Linien dargestellt sind, durch den zweiten Fahrzeugperipherieüberwachungssensor 10b beobachtete Positionen an, und geben das zweite Ziel 400 und das zweite Nicht-Ziel 490, die durch unterbrochene Linien dargestellt sind, wahre Positionen an.
  • Bezüglich des Verarbeitungsflusses in dem Zustand von 4 werden nachstehend hauptsächlich Unterschiede zu dem Verarbeitungsfluss in dem Zustand von 3 beschrieben.
  • Wie es in 4(A) veranschaulicht ist, detektiert der erste Fahrzeugperipherieüberwachungssensor 10a die ersten Ziele 300 bis 320 und das erste Nicht-Ziel 390 und gibt er zumindest relative Koordinaten der ersten Ziele 300 bis 320 und des ersten Nicht-Ziels 390 in Bezug auf das eigene Fahrzeug 800 aus. Der zweite Fahrzeugperipherieüberwachungssensor 10b detektiert die zweiten Ziele 400 bis 420 und das zweite Nicht-Ziel 490 und gibt zumindest relative Koordinaten der zweiten Ziele 400 bis 420 und des zweiten Nicht-Ziels 490 an das eigene Fahrzeug 800 aus. Die ersten Ziele 300 bis 320 sind Komponenten einer Straßenkonstruktion mit einem periodischen Anordnungsmuster mit Intervallen von mehreren Metern oder weniger. Die zweiten Ziele 400 bis 420 sind Komponenten einer Straßenkonstruktion mit einem periodischen Anordnungsmuster mit Intervallen von mehreren Metern oder weniger. Ferner kann in einem Fall, in dem die Ziele und die Nicht-Ziele jeweils mobile Objekte sind, auch die absolute Geschwindigkeit ausgegeben werden.
  • Die Zielpositionsbeziehungs-Verarbeitungseinheit 110 erzeugt eine relative Positionsbeziehung zwischen der ersten Straßenkonstruktion 500 mit einem spezifischen Anordnungsmuster, das die ersten Ziele 300 bis 320 umfasst, und einer zweiten Straßenkonstruktion 600 mit einem spezifischen Anordnungsmuster, das die zweiten Ziele 400 bis 420 umfasst. Im Speziellen werden die Positionsinformation und die Zieltypen der ersten Ziele 300 bis 320 und die Positionsinformation und die Zieltypen der zweiten Ziele 400 bis 420 als Eingänge von der Zielpositionsbeziehungsinformations-Speichereinheit 120 empfangen und in eine relative Positionsbeziehung zwischen der ersten Straßenkonstruktion 500 und der zweiten Straßenkonstruktion 600 umgewandelt. Der zulässige Achsenabweichungsbereich wird an die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 ausgegeben. Ferner gibt die Zielpositionsbeziehungs-Verarbeitungseinheit 110 die relative Positionsbeziehung zwischen der ersten Straßenkonstruktion 500 und der zweiten Straßenkonstruktion 600, die Typen der ersten Ziele 300 bis 320 und die Typen der zweiten Ziele 400 bis 420 an die Positionsschätzeinheit 130 aus.
  • Die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 führt hauptsächlich eine Koordinatenumwandlung von Eingangssensordaten, eine Zeitsynchronisation von Detektionsergebnissen zwischen Sensoren und eine Zielermittlung durch.
  • Die Koordinatenumwandlungseinheit 100a wandelt die Koordinaten der Sensordaten um. Im Speziellen wandelt die Koordinatenumwandlungseinheit 100a die relativen Koordinaten zwischen den ersten Zielen 300 bis 320 und dem eigenen Fahrzeug 800, die relativen Koordinaten zwischen dem ersten Nicht-Ziel 390 und dem eigenen Fahrzeug 800, die relativen Koordinaten zwischen den zweiten Zielen 400 bis 420 und dem eigenen Fahrzeug 800 und die relativen Koordinaten zwischen dem zweiten Nicht-Ziel 490 und dem eigenen Fahrzeug 800 in die vereinheitlichten relativen Koordinaten mit dem eigenen Fahrzeug 800 unter Verwendung der Koordinatenumwandlungsparameter um.
  • Die Zeitsynchronisationseinheit 100b synchronisiert Zeitpunkte zwischen Elementen von Sensordaten, die zu verschiedenen Zeitpunkten detektiert werden. Im Speziellen werden die Detektionsergebnisse der Geschwindigkeit, der Gierrate und des Lenkwinkels des eigenen Fahrzeugs 800 durch den Sensor 20 zur Detektion des Verhaltens des eigenen Fahrzeugs in die Zeitsynchronisationseinheit 100b eingegeben. Die Zeitsynchronisationseinheit 100b verwendet die eingegebenen Detektionsergebnisse der Geschwindigkeit, der Gierrate und des Lenkwinkels des eigenen Fahrzeugs 800 zur Korrektur der vereinheitlichten relativen Koordinaten der ersten Ziele 300 bis 320, der vereinheitlichten relativen Koordinaten des ersten Nicht-Ziels 390, der vereinheitlichten relativen Koordinaten der zweiten Ziele 400 bis 420 und der vereinheitlichten relativen Koordinaten des zweiten Nicht-Ziels 490 in die vereinheitlichten relativen Koordinaten mit einem vorbestimmten Timing, wodurch die Zeitpunkte der Detektionsergebnisse der jeweiligen Sensoren synchronisiert werden. Die vereinheitlichten relativen Koordinaten der zeitlich synchronisierten ersten Ziele 300 bis 320, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten ersten Nicht-Ziels 390, die vereinheitlichten relativen Koordinaten der zeitlich synchronisierten zweiten Ziele 400 bis 420 und die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten zweiten Nicht-Ziels 490 werden an die Datenintegrationseinheit 200 und die Zielermittlungseinheit 100c ausgegeben. Wenn die Ziele und die Nicht-Ziele mobile Objekte sind, kann auch die absolute Geschwindigkeit ausgegeben werden.
  • Die Zielermittlungseinheit 100c ermittelt ein Ziel. Im Speziellen empfängt die Zielermittlungseinheit 100c von der Zeitsynchronisationseinheit 100b die vereinheitlichten relativen Koordinaten der zeitlich synchronisierten ersten Ziele 300 bis 320, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten ersten Nicht-Ziels 390, die vereinheitlichten relativen Koordinaten der zeitlich synchronisierten zweiten Ziele 400 bis 420, die vereinheitlichten relativen Koordinaten des zeitlich synchronisierten zweiten Nicht-Ziels 490 und den zulässigen Achsenabweichungsbereich als Eingänge. Die Zielermittlungseinheit 100c extrahiert die ersten Ziele 300 bis 320 und die zweiten Ziele 400 bis 420 basierend auf den zulässigen Achsenabweichungsbereichen des Fahrzeugperipherieüberwachungssensors 10a und des Fahrzeugperipherieüberwachungssensors 10b und gibt die vereinheitlichten relativen Koordinaten der ersten Ziele 300 bis 320 und die vereinheitlichten relativen Koordinaten der zweiten Ziele 400 bis 420 an die Positionsschätzeinheit 130 aus (siehe 4(B)).
  • Ferner gibt die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 die vereinheitlichten relativen Koordinaten und die absoluten Geschwindigkeiten der zeitlich synchronisierten ersten Ziele 300 bis 320, die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit des zeitlich synchronisierten ersten Nicht-Ziels 390, die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit der zeitlich synchronisierten zweiten Ziele 400 bis 420 und die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit des zeitlich synchronisierten zweiten Nicht-Ziels 490 an die Datenintegrationseinheit 200 aus. Ferner gibt die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 die vereinheitlichten relativen Koordinaten der zweiten Ziele 400 bis 420 an die Korrekturwertschätzeinheit 140 aus.
  • Die Positionsschätzeinheit 130 schätzt eine Annäherungsfunktion hinsichtlich wahrer vereinheitlichter relativer Koordinaten der zweiten Straßenkonstruktion 600, die durch die zweiten Ziele 400 bis 420 gebildet ist. Im Speziellen werden die relative Positionsbeziehung zwischen den ersten Zielen 300 bis 320 und den zweiten Zielen 400 bis 420, die Typen der ersten Ziele 300 bis 320, die Typen der zweiten Ziele 400 bis 420, die vereinheitlichten relativen Koordinaten der ersten Ziele 300 bis 320 und die vereinheitlichten relativen Koordinaten der zweiten Ziele 400 bis 420 in die Positionsschätzeinheit 130 eingegeben. Basierend auf den vereinheitlichten relativen Koordinaten der ersten Ziele 300 bis 320 und dem Zieltyp berechnet die Positionsschätzeinheit 130 eine Annäherungsfunktion hinsichtlich der vereinheitlichten relativen Koordinaten der ersten Straßenkonstruktion 500 mit einem spezifischen Anordnungsmuster, das die ersten Ziele 300 bis 320, gesehen von dem eigenen Fahrzeug 800, umfasst. Ferner berechnet die Positionsschätzeinheit 130 eine Annäherungsfunktion hinsichtlich der vereinheitlichten relativen Koordinaten der zweiten Straßenkonstruktion 600 mit einem spezifischen Anordnungsmuster, das die zweiten Ziele 400 bis 420 umfasst, gesehen von dem eigenen Fahrzeug 800, basierend auf den vereinheitlichten relativen Koordinaten der zweiten Ziele 400 bis 420 und dem Zieltyp. Als nächstes werden unter Verwendung der relativen Positionsbeziehung zwischen der ersten Straßenkonstruktion 500 und der zweiten Straßenkonstruktion 600 (deren Positionen in der Zielpositionsbeziehungsinformations-Speichereinheit 120 aufgezeichnet sind), die von der Zielpositionsbeziehungs-Verarbeitungseinheit 110 erlangt wird, Versätze in der x-Achsenrichtung (vertikal) und der y-Achsenrichtung (horizontal) der ersten Straßenkonstruktion 500 und der zweiten Straßenkonstruktion 600 ausgelöscht (siehe 4(C)). Die Annäherungsfunktion hinsichtlich der vereinheitlichten relativen Koordinaten der ersten Straßenkonstruktion 500 nach einer Versatzauslöschung ist die wahre Annäherungsfunktion der zweiten Straßenkonstruktion 600. Die Annäherungsfunktion hinsichtlich der vereinheitlichten relativen Koordinaten der ersten Straßenkonstruktion 500, die Typen der ersten Ziele 300 bis 320, die Annäherungsfunktion hinsichtlich der vereinheitlichten relativen Koordinaten der zweiten Straßenkonstruktion 600 und die Typen der zweiten Ziele 400 bis 420 nach einer Versatzauslöschung werden an die Korrekturbetragschätzeinheit 140 ausgegeben.
  • Die Korrekturbetragschätzeinheit 140 schätzt den Abweichungsbetrag und berechnet den Korrekturbetrag. Im Speziellen empfängt die Abweichungsbetragschätzeinheit 140a als Eingänge die Annäherungsfunktion hinsichtlich der ersten Straßenkonstruktion 500, die Typen der ersten Ziele 300 bis 320, die vereinheitlichten relativen Koordinaten der zweiten Straßenkonstruktion 600 und die Typen der zweiten Ziele 400 bis 420 nach einer Versatzauslöschung und berechnet sie den Achsenabweichungsbetrag des zweiten Fahrzeugperipherieüberwachungssensors 10b durch Verwenden der vereinheitlichten relativen Koordinaten der Anbringungsposition des ersten Fahrzeugperipherieüberwachungssensors 10a und der vereinheitlichten relativen Koordinaten der Anbringungsposition des zweiten Fahrzeugperipherieüberwachungssensors 10b unter Verwendung eines Berechnungsverfahrens entsprechend den Typen der ersten Ziele 300 bis 320 und den Typen der zweiten Ziele 400 bis 420. Die Korrekturbetragberechnungseinheit 140b berechnet einen Sensorkoordinatenumwandlungs-Korrekturwert auf der Grundlage des Achsenabweichungsbetrags des zweiten Fahrzeugperipherieüberwachungssensors 10b, der durch die Abweichungsbetragschätzeinheit 140a berechnet wird, und gibt den Sensorkoordinatenumwandlungs-Korrekturwert an die Sensorbeobachtungsinformations-Verarbeitungseinheit 100 aus.
  • In der Sensorvereinigungseinrichtung 1 der vorliegenden Ausführungsform kann der Korrekturbetrag basierend auf dem horizontalen Achsenabweichungsbetrag (Winkel θ1) des zweiten Fahrzeugperipherieüberwachungssensors 10b unter Verwendung der relativen Positionsbeziehung zwischen den Zielen wie oben beschrieben erhalten werden, und die Positionen der Objekte, die durch die Vielzahl von Fahrzeugperipherieüberwachungssensoren 10 erlangt werden, können in die vereinheitlichten relativen Koordinaten integriert werden.
  • Als nächstes wird ein Beispiel einer Sensorausrichtung unter Verwendung einer tatsächlich installierten Straßenkonstruktion in Bezug auf 5 bis 9 beschrieben. Es wird ein Fall in Betracht gezogen, in dem der erste Fahrzeugperipherieüberwachungssensor 10a eine Kamera ist und der zweite Fahrzeugperipherieüberwachungssensor 10b ein Radar ist.
  • 5 ist ein Diagramm, das ein Beobachtungsergebnis eines Verkehrsschilds durch einen Fahrzeugperipherieüberwachungssensor 10 veranschaulicht.
  • Wenn ein Verkehrsschild als Straßenkonstruktion betrachtet wird, beobachtet der erste Fahrzeugperipherieüberwachungssensor 10a (Kamera) eine Schildplatte 1000, die eine Konstruktion mit einer bestimmten Größe ist, als das erste Ziel 300. Andererseits detektiert der zweite Fahrzeugperipherieüberwachungssensor 10b (Radar) eine Stützsäule 1010 als das zweite Ziel 400.
  • Hinsichtlich des Schilds als Straßenkonstruktion berechnet, da die Größe der Schildplatte 1000 und die Plattenbodenhöhe (die Länge der Stützsäule 1010) ermittelt werden, die Positionsschätzeinheit 130 den Versatz des ersten Ziels 300 unter Verwendung der relativen Positionsbeziehung zwischen dem ersten Ziel 300 (der Schildplatte 1000) und dem zweiten Ziel 400 (der Stützsäule 1010), und löscht sie den Versatz des ersten Ziels 300 unter Verwendung der beobachteten Position und der relativen Positionsbeziehung des ersten Ziels 300 aus. Die Korrekturbetragschätzeinheit 140 berechnet einen Achsenabweichungsbetrag des zweiten Fahrzeugperipherieüberwachungssensors 10b und einen dem Achsenabweichungsbetrag zugehörigen Korrekturbetrag unter Verwendung der Position des ersten Ziels 300 nach einer Versatzauslöschung.
  • 6 ist ein Diagramm, das ein Beobachtungsergebnis eines Geländers von dem Fahrzeugperipherieüberwachungssensor 10 veranschaulicht.
  • Hinsichtlich des Geländers als Straßenkonstruktion beobachtet, da das Intervall zwischen Stützsäulen 1110 gemäß der Länge eines Holms 1100 ermittelt wird, der erste Fahrzeugperipherieüberwachungssensor 10a (Kamera) die Holme 1100, die Konstruktionen mit einer bestimmten Größe umfassen, als die zweiten Ziele 300, 310 und 320. Andererseits beobachtet der zweite Fahrzeugperipherieüberwachungssensor 10b (Radar) die Stützsäulen 1110 mit einem konstanten Anordnungsmuster als die zweiten Ziele 400, 410 und 420.
  • Da die relative Positionsbeziehung zwischen dem Holm und der Stützsäule in dem Geländer als Straßenkonstruktion ermittelt wird, berechnet die Positionsschätzeinheit 130 die Versätze der ersten Ziele 300, 310 und 320 (Holme 1100) unter Verwendung der relativen Positionsbeziehung zwischen den ersten Zielen 300, 310 und 320 und den zweiten Zielen 400, 410 und 420 (Stützsäulen 1110), und löscht sie die Versätze der ersten Ziele 300, 310 und 320 unter Verwendung der beobachteten Positionen der ersten Ziele 300, 310 und 320 und der relativen Positionsbeziehung aus. Die Korrekturbetragschätzeinheit 140 berechnet einen Achsenabweichungsbetrag des zweiten Fahrzeugperipherieüberwachungssensors 10b und einen dem Achsenabweichungsbetrag zugehörigen Korrekturbetrag unter Verwendung der Position der ersten Ziele 300, 310 und 320 nach einer Versatzauslöschung.
  • 7 ist ein Diagramm, das Beobachtungsergebnisse von weißen Linien und Verkehrsschildern von dem Fahrzeugperipherieüberwachungssensor 10 veranschaulicht.
  • Der erste Fahrzeugperipherieüberwachungssensor 10a (Kamera) beobachtet weiße Linien (äußere Fahrbahnlinie, Spurbegrenzungslinie, etc.) 1200, die auf die Fahrbahn aufgemalt sind, als die ersten Ziele 300, 310 und 320. Andererseits detektiert der zweite Fahrzeugperipherieüberwachungssensor 10b (Radar) ein Verkehrsschild 1210 als das zweite Ziel 400.
  • Die Positionen der weißen Linien und die Position des Verkehrsschilds als Straßenkonstruktionen werden vorab gemessen und in der Zielpositionsbeziehungsinformations-Speichereinheit 120 aufgezeichnet. Die Positionsschätzeinheit 130 berechnet Versätze der ersten Ziele 300, 310 und 320 unter Verwendung der relativen Positionsbeziehung zwischen den ersten Zielen 300, 310 und 320 (weiße Linien 1210) und dem zweiten Ziel 400 (Verkehrsschild 1210), und löscht die Versätze der ersten Ziele 300, 310 und 320 unter Verwendung der beobachteten Positionen und der relativen Positionsbeziehung zwischen den ersten Zielen 300, 310 und 320. Die Korrekturbetragschätzeinheit 140 berechnet einen Achsenabweichungsbetrag des zweiten Fahrzeugperipherieüberwachungssensors 10b und einen dem Achsenabweichungsbetrag zugehörigen Korrekturbetrag unter Verwendung der Position der ersten Ziele 300, 310 und 320 nach einer Versatzauslöschung.
  • 8 ist ein Diagramm, das ein Beobachtungsergebnis von weißen Linien und Schallschutzwänden von dem Fahrzeugperipherieüberwachungssensor 10 veranschaulicht.
  • Der erste Fahrzeugperipherieüberwachungssensor 10a (Kamera) beobachtet weiße Linien (äußere Fahrbahnlinie, Spurbegrenzungslinie, etc.) 1300, die auf die Fahrbahn aufgemalt sind, als die ersten Ziele 300, 310 und 320. Andererseits detektiert der zweite Fahrzeugperipherieüberwachungssensor 10b (Radar) Schallschutzwände 1310 als die zweiten Ziele 400, 410 und 420.
  • Die Positionen der weißen Linien 1300 und die Position der Schallschutzwände 1310 als Straßenkonstruktionen werden vorab gemessen und in der Zielpositionsbeziehungsinformations-Speichereinheit 120 aufgezeichnet. Die Positionsschätzeinheit 130 berechnet Versätze der ersten Ziele 300, 310 und 320 unter Verwendung der relativen Positionsbeziehung zwischen den ersten Zielen 300, 310 und 320 (weiße Linien 1300) und den zweiten Zielen 400, 410 und 420 (Schallschutzwände 1310), und löscht die Versätze der ersten Ziele 300, 310 und 320 unter Verwendung der beobachteten Positionen und der relativen Positionsbeziehung zwischen den ersten Zielen 300, 310 und 320. Die Korrekturbetragschätzeinheit 140 berechnet einen Achsenabweichungsbetrag des zweiten Fahrzeugperipherieüberwachungssensors 10b und einen dem Achsenabweichungsbetrag zugehörigen Korrekturbetrag unter Verwendung der Position der ersten Ziele 300, 310 und 320 nach einer Versatzauslöschung.
  • 9 ist ein Diagramm, das ein Beobachtungsergebnis von weißen Linien und Markierungsknöpfen (Rüttelstreifen, Reflektoren, runde erhabene Markierungen, etc.) von dem Fahrzeugperipherieüberwachungssensor 10 veranschaulicht.
  • Der erste Fahrzeugperipherieüberwachungssensor 10a (Kamera) beobachtet weiße Linien (äußere Fahrbahnlinie, Spurbegrenzungslinie, etc.) 1400, die auf die Fahrbahn aufgemalt sind, als die ersten Ziele 300, 310 und 320. Andererseits detektiert der zweite Fahrzeugperipherieüberwachungssensor 10b (Radar) Markierungsknöpfe 1410 als die zweiten Ziele 400, 410 und 420.
  • Die Positionen der weißen Linien und die Positionen der Markierungsknöpfe als Straßenkonstruktionen werden vorab gemessen und in der Zielpositionsbeziehungsinformations-Speichereinheit 120 aufgezeichnet. Die Positionsschätzeinheit 130 berechnet Versätze der ersten Ziele 300, 310 und 320 unter Verwendung der relativen Positionsbeziehung zwischen den ersten Zielen 300, 310 und 320 (weiße Linien 1400) und den zweiten Zielen 400, 410 und 420 (Markierungsknöpfe 1410), und löscht die Versätze der ersten Ziele 300, 310 und 320 unter Verwendung der beobachteten Positionen und der relativen Positionsbeziehung zwischen den ersten Zielen 300, 310 und 320. Die Korrekturbetragschätzeinheit 140 berechnet einen Achsenabweichungsbetrag des zweiten Fahrzeugperipherieüberwachungssensors 10b und einen dem Achsenabweichungsbetrag zugehörigen Korrekturbetrag unter Verwendung der Position der ersten Ziele 300, 310 und 320 nach einer Versatzauslöschung.
  • Zweite Ausführungsform
  • 10 ist ein Funktionsblockdiagramm, das eine andere Ausführungsform der Sensorvereinigungseinrichtung 1 mit der Sensorausrichtungsfunktion veranschaulicht. Bei der zweiten Ausführungsform werden hauptsächlich Unterschiede zu der ersten Ausführungsform beschrieben, sind die gleichen Komponenten durch die gleichen Bezugszeichen bezeichnet und ist die Beschreibung dieser weggelassen.
  • Wie in 10 veranschaulicht umfasst die Sensorvereinigungseinrichtung 1 der vorliegenden Ausführungsform anstatt der Zielpositionsbeziehungsinformations-Speichereinheit 120 in der Ausgestaltung der ersten Ausführungsform eine Auslieferungsumgebungsinformations-Speichereinheit 120a. Die Auslieferungsumgebungsinformations-Speichereinheit 120a empfängt eine Auslieferungsumgebungsinformation als Eingang von einer Festlegungseinheit 30a für die relative Position eines Ziels und gibt die Information nach Bedarf an die Zielpositionsbeziehungs-Verarbeitungseinheit 110 aus. Die Auslieferungsumgebungsinformations-Speichereinheit 120a umfasst eine Positionsinformation des durch den ersten Fahrzeugperipherieüberwachungssensor 10a beobachteten ersten Ziels 300, eine Positionsinformation des durch den zweiten Fahrzeugperipherieüberwachungssensor 10b beobachteten zweiten Ziels 400, einen Typ des ersten Ziels 300 und einen Typ des zweiten Ziels 400, die vorab zur Ausrichtung in einem Werk oder einer Werkstatt definiert werden. Wenn die relative Positionsbeziehung zwischen dem eigenen Fahrzeug 800 und dem ersten Ziel 300 und/oder dem zweiten Ziel 400 eindeutig ermittelt ist, können die vereinheitlichten relativen Koordination des ersten Ziels 300 und die vereinheitlichten relativen Koordinaten des zweiten Ziels 400 einbezogen werden. Ferner kann die Positionsinformation absolute Koordinaten an einer Karte umfassen.
  • Bei der vorliegenden Ausführungsform wird die Auslieferungsumgebungsinformations-Speichereinheit 120a bereitgestellt und wird die Sensorausrichtung durch Festlegen des Modus auf den Auslieferungsmodus ausgeführt, so dass die Person, die die Ausrichtung durchführt, die Umgebung für die Sensorausrichtung unter Verwendung des vorbestimmten ersten Ziels 300 und zweiten Ziels 400 konstruieren und die Sensorausrichtung durchführen kann.
  • Dritte Ausführungsform
  • 11 ist ein Funktionsblockdiagramm, das eine andere Ausführungsform der Sensorvereinigungseinrichtung 1 mit der Sensorausrichtungsfunktion veranschaulicht. Bei der dritten Ausführungsform werden hauptsächlich Unterschiede zu der ersten Ausführungsform beschrieben, sind die gleichen Komponenten durch die gleichen Bezugszeichen bezeichnet und ist die Beschreibung dieser weggelassen.
  • Wie in 11 veranschaulicht umfasst die Sensorvereinigungseinrichtung 1 der vorliegenden Ausführungsform eine Speichereinheit 120b für eine Umgebungsinformation einer normalen Fahrt anstatt der Zielpositionsbeziehungsinformations-Speichereinheit 120 bei der Ausgestaltung der ersten Ausführungsform. Die Speichereinheit 120b für eine Umgebungsinformation einer normalen Fahrt empfängt eine Umgebungsinformation einer normalen Fahrt von einer Erfassungsinformationsverteilungseinheit 30b als Eingang und gibt die Umgebungsinformation einer normalen Fahrt nach Bedarf an die Zielpositionsbeziehungs-Verarbeitungseinheit 110 aus. Die Speichereinheit 120b für eine Umgebungsinformation einer normalen Fahrt umfasst eine Fahrposition des eigenen Fahrzeugs 800 auf der Karte in der Erfassungsinformationsverteilungseinheit 30b, einen Typ von um das eigene Fahrzeug installierter Straßenkonstruktion und eine relative Position (beispielsweise Anordnungsmuster) der durch Verkehrsregeln definierten Straßenkonstruktion und dergleichen. Das heißt, die Speichereinheit 120b für eine Umgebungsinformation einer normalen Fahrt umfasst die absoluten Koordinaten des durch den ersten Fahrzeugperipherieüberwachungssensor 10a beobachteten ersten Ziels 300, den Typ des ersten Ziels 300, die absoluten Koordinaten des zweiten Ziels 400 und den Typ des zweiten Ziels 400. Die Speichereinheit 120b für eine Umgebungsinformation einer normalen Fahrt kann die relative Positionsbeziehung zwischen dem ersten Ziel 300 und dem zweiten Ziel 400 umfassen.
  • Bei der vorliegenden Ausführungsform wird die Speichereinheit 120b für eine Umgebungsinformation einer normalen Fahrt bereitgestellt und wird die Sensorausrichtung durch Festlegen des Modus auf einen Modus einer normalen Fahrt ausgeführt, so dass die Sensorvereinigungseinrichtung 1 die Sensorausrichtung unter Verwendung der Beobachtungsinformation (das erste Ziel 300, das zweite Ziel 400) des ersten Fahrzeugperipherieüberwachungssensors 10a und des zweiten Fahrzeugperipherieüberwachungssensors 10b während der normalen Fahrt durchführen kann.
  • Vierte Ausführungsform
  • 12 ist ein Funktionsblockdiagramm, das eine andere Ausführungsform der Sensorvereinigungseinrichtung 1 mit der Sensorausrichtungsfunktion veranschaulicht. Bei der vierten Ausführungsform werden hauptsächlich Unterschiede zu der ersten Ausführungsform beschrieben, sind die gleichen Komponenten durch die gleichen Bezugszeichen bezeichnet und ist die Beschreibung dieser weggelassen.
  • Wie es in 12 veranschaulicht ist, umfasst die Sensorvereinigungseinrichtung 1 der vorliegenden Ausführungsform zusätzlich zu der Ausgestaltung der ersten Ausführungsform eine Zeitreihenschätzeinheit 150. Die Zeitreihenschätzeinheit 150 empfängt als Eingang die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit des ersten Ziels 300 nach einer Versatzauslöschung von der Positionsschätzeinheit 130 und verwendet die vereinheitlichten relativen Koordinaten und die absolute Geschwindigkeit des ersten Ziels 300, um die Position des ersten Ziels 300, die sich mit der Zeit ändert, zu verfolgen und zu akkumulieren, wodurch ermittelt wird, dass die akkumulierten Daten ein konstantes Anordnungsmuster umfassen, und wobei das Korrekturverfahren von 3 und 4 angewandt wird. Durch Verwenden der Zeitreihenpositionsdaten des Ziels ist es möglich, einen Sensor auszurichten, der mehrere Frames benötigt, um die Straßenkonstruktion zu erkennen.
  • Gemäß der vierten Ausführungsform kann, da die Ausrichtung unter Verwendung der Vielzahl von Beobachtungspunkten durchgeführt wird, ein Fehler in der Ausrichtung reduziert werden.
  • Bei der oben beschriebenen Ausführungsform können der erste und zweite Fahrzeugperipherieüberwachungssensor 10a und 10b der gleiche Typ von Sensor oder verschiedene Typen von Sensoren sein. Ferner können die Fahrzeugperipherieüberwachungssensoren 10a und 10b ein beliebiger Sensor sein, wie beispielsweise ein Millimeterwellenradar, eine Kamera (Kamera für sichtbares Licht, nahes Infrarot, mittleres Infrarot, fernes Infrarot), ein Light Detection and Ranging (LiDAR), ein Sonar, ein Laufzeitsensor (TOF-Sensor) oder eine Kombination dieser.
  • Ferner können die Ausgestaltungen, Verarbeitungsflüsse und Operationen der Funktionsblöcke, die in jeder Ausführungsform beschrieben sind, beliebig kombiniert werden.
  • Des Weiteren berechnet in der obigen Beschreibung die fahrzeuginterne Einrichtung (ECU) den Sensorkoordinatenumwandlungs-Korrekturwert, wobei jedoch ein Computer, der kommunizierend mit dem Fahrzeug verbunden ist, den Sensorkoordinatenumwandlungs-Korrekturwert berechnen kann.
  • Wie oben beschrieben umfasst die Sensorvereinigungseinrichtung 1 (Sensorausrichtungseinrichtung) der vorliegenden Ausführungsform die Zielpositionsbeziehungs-Verarbeitungseinheit 110, die die Positionsbeziehungsinformation des ersten Ziels 300 und des zweiten Ziels 400 ausgibt, die Sensorbeobachtungsinformations-Verarbeitungseinheit 100, die das Beobachtungsergebnis des ersten Ziels 300 und das Beobachtungsergebnis des zweiten Ziels 400 gemäß dem Koordinatenumwandlungsparameter in ein vorbestimmtes vereinheitlichtes Koordinatensystem umwandelt und die erste Zielinformation, die die Position des ersten Ziels 300 angibt, und die zweite Zielinformation, die die Position des zweiten Ziels 400 angibt, in Zeitsynchronisation mit einem vorbestimmten Timing extrahiert, die Positionsschätzeinheit 130, die die Position des zweiten Ziels 400 unter Verwendung der ersten Zielinformation, der zweiten Zielinformation und der Positionsbeziehungsinformation schätzt, und die Korrekturbetragschätzeinheit 140, die den Abweichungsbetrag des zweiten Sensors unter Verwendung der zweiten Zielinformation und der geschätzten Position des zweiten Ziels berechnet und den Korrekturbetrag schätzt. Da der Koordinatenumwandlungsparameter auf der Grundlage des Korrekturbetrags geändert wird, kann der Korrekturbetrag basierend auf dem horizontalen Achsenabweichungsbetrag (Winkel θ1) des zweiten Fahrzeugperipherieüberwachungssensors 10b unter Verwendung der relativen Positionsbeziehung zwischen den Zielen erhalten werden, und können die Positionen der durch die Vielzahl von Fahrzeugperipherieüberwachungssensoren 10 erlangten Objekten in die vereinheitlichten relativen Koordinaten integriert werden.
  • Ferner kann, da die Zielpositionsbeziehungs-Verarbeitungseinheit 110 die vorbestimmte Positionsbeziehungsinformation in dem Auslieferungsmodus ausgibt, die Achsenabweichung des Sensors unter Verwendung des vorbestimmten Ziels genau korrigiert werden, und kann die Ausrichtung ungeachtet der Umgebung durchgeführt werden. Ferner ist es möglich, die Achsenabweichung des Sensors unter Verwendung eines einfachen Ziels, das auch bei einer Werkstatt verwendet werden kann, zu korrigieren. Ferner ist es möglich, die Achsenabweichung des Sensors unter Verwendung des Ziels mit hoher Erkennungsgenauigkeit genau zu korrigieren.
  • Ferner extrahiert die Positionsschätzeinheit 130 in dem Modus einer normalen Fahrt die erste Zielinformation und die zweite Zielinformation unter Verwendung des Beobachtungsergebnisses des ersten Ziels 300 und des Beobachtungsergebnisses des zweiten Ziels 400 während der Fahrt. Daher ist es möglich, die Achsenabweichung des Sensors während einer normalen Fahrt unabhängig von einer Wartung zu korrigieren.
  • Ferner ist es, da die Zeitreihenschätzeinheit 150, die die Position des ersten Ziels 300, die sich mit der Zeit ändert, unter Verwendung der Position und der absoluten Geschwindigkeit in dem vereinheitlichten Koordinatensystem des ersten Ziels 300 akkumuliert, die akkumulierte Position als konstantes Anordnungsmuster ermittelt und das erste Ziel unter Verwendung des ermittelten Anordnungsmusters erkennt, bereitgestellt wird, möglich, die Achsenabweichung des Sensors unter Verwendung einer Vielzahl von Beobachtungspunkten genau zu korrigieren.
  • Ferner ist die vorliegende Erfindung nicht auf die oben beschriebenen Ausführungsformen begrenzt. Verschiedene Abwandlungen und äquivalente Ausgestaltungen können innerhalb des Schutzumfangs der Ansprüche enthalten sein. Beispielsweise sind die oben beschriebenen Ausführungsformen ausführlich bereitgestellt, um bei einem leichten Verständnis der vorliegenden Erfindung zu helfen. Die vorliegende Erfindung ist nicht darauf beschränkt, alle oben beschriebenen Ausgestaltungen bereitzustellen. Ferner können einige der Ausgestaltungen einer bestimmten Ausführungsform durch die Ausgestaltung der anderen Ausführungsform ersetzt werden. Ferner können die Ausgestaltungen der anderen Ausführungsform zu den Ausgestaltungen einer bestimmten Ausführungsform hinzugefügt werden. Ferner können einige der Ausgestaltungen jeder Ausführungsform in Bezug auf die Ausgestaltung der anderen Ausführungsform hinzugefügt, weggelassen oder ersetzt werden.
  • Ferner können die oben beschriebenen Ausgestaltungen, Funktionen, Verarbeitungseinheiten und Verarbeitungsmittel durch eine Hardwareausgestaltung realisiert werden, indem einige oder alle der Ausgestaltungen unter Verwendung eines integrierten Schaltkreises festgelegt werden, oder können sie durch eine Softwareausgestaltung durch Analysieren und Durchführen eines Programms zum Realisieren der Funktionen durch den Prozessor realisiert werden.
  • Die Information des Funktionen realisierenden Programms, Tabellen und Dateien können in einer Speichereinrichtung, wie beispielsweise einem Speicher, einer Festplatte, einem Solid State Drive (SSD) oder einem Aufzeichnungsmedium, wie beispielsweise einer IC-Karte, einer SD-Karte, einer DVD und einer BD, gespeichert sein.
  • Ferner sind nur Steuerleitungen und Informationsleitungen, die als für eine Erklärung notwendig betrachtet werden, veranschaulicht, wobei jedoch nicht alle Steuerleitungen und die Informationsleitungen, die zum Anbringen erforderlich sind, veranschaulicht sind. In der Praxis können fast alle Ausgestaltungen als miteinander verbunden betrachtet werden.
  • Bezugszeichenliste
  • 1
    Sensorvereinigungseinrichtung
    2
    Fahrsteuereinrichtung
    10a, 10b
    Fahrzeugperipherieüberwachungssensor
    20
    Fahrzeugverhaltensdetektionssensor
    30a
    Festlegungseinheit für die relative Position eines Ziels
    30b
    Erfassungsinformationsverteilungseinheit
    100
    Sensorbeobachtungsinformations-Verarbeitungseinheit
    100a
    Koordinatenumwandlungseinheit
    100b
    Zeitsynchronisationseinheit
    100c
    Zielermittlungseinheit
    110
    Zielpositionsbeziehungsinformations-Verarbeitungseinheit
    120
    Zielpositionsbeziehungsinformations-Speichereinheit
    120a
    Auslieferungsumgebungsinformations-Speichereinheit
    120b
    Speichereinheit für eine Umgebungsinformation einer normalen Fahrt
    130
    Positionsschätzeinheit
    140
    Korrekturbetragschätzeinheit
    140a
    Abweichungsbetragschätzeinheit
    140b
    Korrekturbetragberechnungseinheit
    150
    Zeitreihenschätzeinheit
    200
    Datenintegrationseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2016065759 A [0003, 0004]
    • JP 2004317507 A [0004]

Claims (8)

  1. Sensorausrichtungseinrichtung, in die ein Beobachtungsergebnis eines ersten Ziels durch einen ersten Sensor und ein Beobachtungsergebnis eines zweiten Ziels durch einen zweiten Sensor eingegeben werden, wobei die Sensorausrichtungseinrichtung umfasst: eine Zielpositionsbeziehungs-Verarbeitungseinheit, die ausgestaltet ist, um eine Positionsbeziehungsinformation des ersten Ziels und des zweiten Ziels auszugeben; eine Sensorbeobachtungsinformations-Verarbeitungseinheit, die ausgestaltet ist, um das Beobachtungsergebnis des ersten Ziels und das Beobachtungsergebnis des zweiten Ziels gemäß einem Koordinatenumwandlungsparameter in ein vorbestimmtes vereinheitlichtes Koordinatensystem umzuwandeln, eine Zeitsynchronisation mit einem vorbestimmten Timing durchzuführen und eine erste Zielinformation, die eine Position des ersten Ziels angibt, und eine zweite Zielinformation, die eine Position des zweiten Ziels angibt, zu extrahieren; eine Positionsschätzeinheit, die ausgestaltet ist, um eine Position des zweiten Ziels unter Verwendung der ersten Zielinformation, der zweiten Zielinformation und der Positionsbeziehungsinformation zu schätzen; und eine Korrekturbetragschätzeinheit, die ausgestaltet ist, um einen Abweichungsbetrag des zweiten Sensors unter Verwendung der zweiten Zielinformation und einer geschätzten Position des zweiten Ziels zu berechnen und einen Korrekturbetrag zu schätzen, wobei der Koordinatenumwandlungsparameter basierend auf dem Korrekturbetrag geändert wird.
  2. Sensorausrichtungseinrichtung nach Anspruch 1, wobei das erste Ziel und das zweite Ziel Komponenten einer Straßenkonstruktion sind.
  3. Sensorausrichtungseinrichtung nach Anspruch 1, wobei das erste Ziel und das zweite Ziel unterschiedliche Objekte sind.
  4. Sensorausrichtungseinrichtung nach Anspruch 1, wobei die Zielpositionsbeziehungs-Verarbeitungseinheit in einem Auslieferungsmodus eine vorbestimmte Positionsbeziehungsinformation ausgibt.
  5. Sensorausrichtungseinrichtung nach Anspruch 1, wobei die Positionsschätzeinheit während der Fahrt in einem Modus einer normalen Fahrt die erste Zielinformation und die zweite Zielinformation unter Verwendung eines Beobachtungsergebnisses des ersten Ziels und eines Beobachtungsergebnisses des zweiten Ziels extrahiert.
  6. Sensorausrichtungseinrichtung nach Anspruch 1, umfassend eine Zeitreihenschätzeinheit, die ausgestaltet ist, um unter Verwendung einer Position und einer absoluten Geschwindigkeit des ersten Ziels in einem vereinheitlichten Koordinatensystem eine Position des ersten Ziels, die sich mit der Zeit ändert, zu akkumulieren, die akkumulierte Position als konstantes Anordnungsmuster zu ermitteln und das erste Ziel unter Verwendung des ermittelten Anordnungsmusters zu erkennen.
  7. Fahrsteuersystem, das ein Fahren eines Fahrzeugs steuert, wobei das Fahrsteuersystem umfasst: eine Sensorvereinigungseinrichtung, die ausgestaltet ist, um Beobachtungsergebnisse von zwei oder mehr Objektsensoren zu integrieren und auszugeben; und eine Fahrsteuereinrichtung, die ausgestaltet ist, um ein Fahren eines Fahrzeugs unter Verwendung eines Ausgangs von der Sensorvereinigungseinrichtung zu steuern, wobei die Sensorvereinigungseinrichtung ein Beobachtungsergebnis eines ersten Ziels durch einen ersten Sensor und ein Beobachtungsergebnis eines zweiten Ziels durch einen zweiten Sensor als Eingänge empfängt, wobei die Sensorvereinigungseinrichtung umfasst: eine Zielpositionsbeziehungs-Verarbeitungseinheit, die ausgestaltet ist, um eine Positionsbeziehungsinformation des ersten Ziels und des zweiten Ziels auszugeben, eine Sensorbeobachtungsinformations-Verarbeitungseinheit, die ausgestaltet ist, um das Beobachtungsergebnis des ersten Ziels und das Beobachtungsergebnis des zweiten Ziels gemäß einem Koordinatenumwandlungsparameter in ein vorbestimmtes vereinheitlichtes Koordinatensystem umzuwandeln, eine Zeitsynchronisation mit einem vorbestimmten Timing durchzuführen und eine erste Zielinformation, die eine Position des ersten Ziels angibt, und eine zweite Zielinformation, die eine Position des zweiten Ziels angibt, zu extrahieren, eine Positionsschätzeinheit, die ausgestaltet ist, um eine Position des zweiten Ziels unter Verwendung der ersten Zielinformation, der zweiten Zielinformation und der Positionsbeziehungsinformation zu schätzen, und eine Korrekturbetragschätzeinheit, die ausgestaltet ist, um einen Abweichungsbetrag des zweiten Sensors unter Verwendung der zweiten Zielinformation und einer geschätzten Position des zweiten Ziels zu berechnen und einen Korrekturbetrag zu schätzen, wobei der Koordinatenumwandlungsparameter basierend auf dem Korrekturbetrag geändert wird.
  8. Schätzverfahren eines Korrekturbetrags von Sensordaten, das durch eine Sensorausrichtungseinrichtung ausgeführt wird, die einen Korrekturparameter eines Beobachtungsergebnisses eines Sensors unter Verwendung von Beobachtungsergebnissen von zwei oder mehr Sensoren berechnet, wobei das Schätzverfahren umfasst, dass: ein Beobachtungsergebnis eines ersten Ziels durch einen ersten Sensor und ein Beobachtungsergebnis eines zweiten Ziels durch einen zweiten Sensor eingegeben werden; eine Positionsbeziehungsinformation des ersten Ziels und des zweiten Ziels ausgegeben werden; das Beobachtungsergebnis des ersten Ziels und das Beobachtungsergebnis des zweiten Ziels gemäß einem Koordinatenumwandlungsparameter in ein vorbestimmtes vereinheitlichtes Koordinatensystem umgewandelt werden, eine Zeitsynchronisation mit einem vorbestimmten Timing durchgeführt wird und eine erste Zielinformation, die eine Position des ersten Ziels angibt, und eine zweite Zielinformation, die eine Position des zweiten Ziels angibt, extrahiert werden; eine Position des zweiten Ziels unter Verwendung der ersten Zielinformation, der zweiten Zielinformation und der Positionsbeziehungsinformation geschätzt wird; ein Abweichungsbetrag des zweiten Sensors unter Verwendung der zweiten Zielinformation und einer geschätzten Position des zweiten Ziels berechnet wird und ein Korrekturbetrag geschätzt wird; und der Koordinatenumwandlungsparameter basierend auf dem Korrekturbetrag geändert wird.
DE112020005320.2T 2020-01-10 2020-12-08 Sensorausrichtungseinrichtung, fahrsteuersystem und korrekturbetragschätzverfahren Pending DE112020005320T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-002880 2020-01-10
JP2020002880 2020-01-10
PCT/JP2020/045574 WO2021140811A1 (ja) 2020-01-10 2020-12-08 センサエイミング装置、運転制御システム、及び補正量の推定方法

Publications (1)

Publication Number Publication Date
DE112020005320T5 true DE112020005320T5 (de) 2022-11-10

Family

ID=76788572

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020005320.2T Pending DE112020005320T5 (de) 2020-01-10 2020-12-08 Sensorausrichtungseinrichtung, fahrsteuersystem und korrekturbetragschätzverfahren

Country Status (5)

Country Link
US (1) US20230044311A1 (de)
JP (1) JP7356517B2 (de)
CN (1) CN114829967A (de)
DE (1) DE112020005320T5 (de)
WO (1) WO2021140811A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020003137T5 (de) * 2019-08-02 2022-04-07 Hitachi Astemo, Ltd. Zielvorrichtung, fahrsteuersystem und verfahren zum berechnen einer korrekturgrösse von sensordaten
KR20220108544A (ko) * 2021-01-27 2022-08-03 주식회사 에이치엘클레무브 레이더 제어 장치 및 방법
JP2022150929A (ja) * 2021-03-26 2022-10-07 本田技研工業株式会社 軸ずれ推定装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317507A (ja) 2003-04-04 2004-11-11 Omron Corp 監視装置の軸調整方法
JP2016065759A (ja) 2014-09-24 2016-04-28 株式会社デンソー 軸ずれ量推定装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4698087B2 (ja) * 2001-08-15 2011-06-08 富士通テン株式会社 レーダの水平方向軸ずれ発生検出装置、軸ずれ量決定装置、および軸ずれ補正装置
JP6356586B2 (ja) * 2014-11-28 2018-07-11 株式会社デンソー 車両の走行制御装置
JP6996353B2 (ja) * 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
KR102647928B1 (ko) * 2018-11-16 2024-03-15 현대모비스 주식회사 객체 검출 센서의 장착 오차 판단 장치 및 방법
JP7163829B2 (ja) * 2019-03-05 2022-11-01 トヨタ自動車株式会社 車両搭載用のライダ軸ずれ検出装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317507A (ja) 2003-04-04 2004-11-11 Omron Corp 監視装置の軸調整方法
JP2016065759A (ja) 2014-09-24 2016-04-28 株式会社デンソー 軸ずれ量推定装置

Also Published As

Publication number Publication date
WO2021140811A1 (ja) 2021-07-15
CN114829967A (zh) 2022-07-29
JP7356517B2 (ja) 2023-10-04
JPWO2021140811A1 (de) 2021-07-15
US20230044311A1 (en) 2023-02-09

Similar Documents

Publication Publication Date Title
EP3584663B1 (de) Verfahren zur automatischen querführung eines folgefahrzeugs in einem fahrzeug-platoon
DE112020005320T5 (de) Sensorausrichtungseinrichtung, fahrsteuersystem und korrekturbetragschätzverfahren
EP3746346B1 (de) Schienenfahrzeug und verfahren zum vermessen einer gleisstrecke
DE3686213T2 (de) Navigationseinrichtung.
EP2800982B1 (de) Verfahren und vorrichtung zur radunabhängigen geschwindigkeitsmessung bei einem fahrzeug
DE102009014105B4 (de) Erkennungssystem für ein Fahrzeug
DE102010030213B4 (de) Einparkhilfesystem für Querparklücken
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
EP1690730B1 (de) Fahrerassistenzsystem mit redundanter Entscheidungseinheit
DE102017217961A1 (de) Einrichtung zum steuern eines fahrzeugs an einer kreuzung
DE102017105305A1 (de) Verfahren zur automatischen bestimmung einer sensorstellung
DE102016011970A1 (de) Fahrzeugsicherheitssystem
DE102016102283A1 (de) Kartendatenbearbeitungsvorrichtung für ein Fahrzeug
DE102019100034A1 (de) Autonome lenksteuerung
WO2008128814A1 (de) Fahrerassistenzsystem und verfahren zur objektplausibilisierung
EP1159638A1 (de) Verfahren und vorrichtung zur dejustageerkennung bei einem kraftfahrzeug-radarsystem bzw. einem kraftfahrzeug-sensorsystem
DE112015004817T5 (de) Hinderniswarnvorrichtung
DE102017222017A1 (de) Verfahren und System zum Ermitteln und Bereitstellen eines Bodenprofils
DE102015225900B3 (de) Verfahren und Vorrichtung zur kamerabasierten Verkehrszeichenerkennung in einem Kraftfahrzeug
DE102020203756A1 (de) Autobahnausfahrt-erfassung und linienspiegelung zur fahrzeugtrajektorien-bestimmung
WO2017125369A1 (de) Verfahren zum erkennen von fahrspuren auf einer fahrbahn anhand einer häufigkeitsverteilung von abstandswerten, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
DE102020007772A1 (de) Verfahren zur In-Betrieb-Kalibrierung eines Lidars und Fahrzeug
WO2021139974A1 (de) Verfahren zur zusammenführung mehrerer datensätze für die erzeugung eines aktuellen spurmodells einer fahrbahn und vorrichtung zur datenverarbeitung
DE102017205973A1 (de) Verfahren zum Ermitteln eines in einem Gierratensignal eines Gierratensensors eines Kraftfahrzeugs enthaltenen Versatzes sowie Steuervorrichtung und Kraftfahrzeug
DE19746524B4 (de) Kompensationseinrichtung zur Kompensation der Einbautoleranzen eines Abstandssensors an einem Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed