DE102015210630A1 - System und Verfahren zum Handhaben eines Fahr-Gefahrenindexes für ein Fahrzeug - Google Patents

System und Verfahren zum Handhaben eines Fahr-Gefahrenindexes für ein Fahrzeug Download PDF

Info

Publication number
DE102015210630A1
DE102015210630A1 DE102015210630.6A DE102015210630A DE102015210630A1 DE 102015210630 A1 DE102015210630 A1 DE 102015210630A1 DE 102015210630 A DE102015210630 A DE 102015210630A DE 102015210630 A1 DE102015210630 A1 DE 102015210630A1
Authority
DE
Germany
Prior art keywords
vehicle
driving
driver
load
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015210630.6A
Other languages
English (en)
Inventor
Seung Heon BAEK
Jun Han Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Mobis Co Ltd
Original Assignee
Hyundai Mobis Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Mobis Co Ltd filed Critical Hyundai Mobis Co Ltd
Publication of DE102015210630A1 publication Critical patent/DE102015210630A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es werden ein System und ein Verfahren zum Handhaben eines Fahr-Gefahrenindexes für ein Fahrzeug vorgeschlagen. Das System enthält einen Fahr-Trajektorien-Generator für das Fahrzeug eines Fahrers, der konfiguriert ist zum Generieren einer Fahr-Trajektorie des Fahrzeugs des Fahrers auf der Basis von Fahr-Information des Fahrzeugs des Fahrers, die von einem internen Sensor her eingegeben wird, der eine Fahrsituation des Fahrzeugs des Fahrers sensiert, einen Peripherie-Fahrzeug-Trajektorien-Generator, der konfiguriert ist zum Generieren einer Trajektorie eines peripheren Fahrzeugs auf der Basis von Umgebungsinformation, die von einem externen Sensor her eingegeben wird, der die Fahrsituation des Fahrzeugs des Fahrers sensiert, eine Trajektorien-Last-Berechnungsvorrichtung, die konfiguriert ist zum Berechnen einer Trajektorien-Last, welche ein Vergleichsergebnis repräsentiert, das durch Vergleichen eines vorbestimmten Schwellenwerts mit einer Trajektorien-Distanz erhalten wird, bei der es sich um die Differenz zwischen der Peripherie-Fahrzeug-Trajektorie und der Fahr-Trajektorie des Fahrzeugs des Fahrers handelt, und einen Gefahrenindex-Manager, der konfiguriert ist zum Generieren eines Fahr-Gefahrenindexes entsprechend der berechneten Trajektorien-Last.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht gemäß 35 U.S.C. §119 die Priorität der Koreanischen Patentanmeldung Nr. 10-2014-0072280 , eingereicht am 13. Juni 2014, deren Offenbarung hiermit durch Verweis in ihrer Gesamtheit in die vorliegende Anmeldung einbezogen wird.
  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein System zum Handhaben eines Fahr-Gefahrenindexes für Fahrzeuge, wobei das System einen Fahr-Gefahrenindex handhabt, der auf Basis vom Fahrzeug her detektierter Information erzeugt wird.
  • HINTERGRUND
  • Generell ist ein autonomes Fahrsteuersystem in Fahrzeugen installiert, um den Schutz des Fahrers oder eines Beifahrers, die Fahrassistenz und den Fahrkomfort zu verbessern. Das autonome Fahrsteuersystem erkennt eine Fahrspur mittels einer Kamera und steuert basierend auf dem Ergebnis des Erkennungsvorgangs das Lenken des Fahrzeugs.
  • Hinsichtlich autonomer Fahrsteuersysteme ist in Dokumenten zum Stand der Technik (z. B. in der Koreanischen Patentanmeldung Nr. 10-2012-0022305 ) eine autonome Fahrtechnologie offenbart, bei welcher eine Fahr-Charakteristik eines Fahrers in Bezug auf eine Weg-Suche und eine Fahroperation berücksichtigt wird.
  • Ein in Dokumenten zum Stand der Technik (z. B. in der Koreanischen Patentanmeldung Nr. 10-2012-0022305 ) offenbartes autonomes Fahrzeug weist auf: eine Bildfotografiereinheit, die Bild-Information über eine in der Umgebung des Fahrzeugs befindliche Straße erfasst; einen Empfänger, der Weg-Information empfängt, die von einem in der Umgebung des Fahrzeugs befindlichen peripheren Fahrzeug her empfangen wird; einen Speicher, der ein vergangenes Fahrmuster des Fahrzeugs speichert; und eine Steuervorrichtung, die auf der Basis von Bildinformation über die Straße, von dem peripheren Fahrzeug her übertragener Weg-Information und des vergangenen Fahrmusters des Fahrzeugs ein Fahrmuster des Fahrzeugs bestimmt. Das autonome Fahrzeug erlernt die Charakteristik eines Fahrers und steuert das autonome Fahren des Fahrzeugs.
  • In Dokumenten zum Stand der Technik (z. B. in der Koreanischen Patentanmeldung Nr. 10-2012-0022305 ) sammelt das autonome Fahrzeug vergangene Fahrmuster, um eine Fahrgewohnheit (ein früheres Fahrmuster) eines Fahrers zu untersuchen. Wenn in diesem Fall aufgrund einer unvorhergesehenen Situation ein abnormes Sammeln vergangener Fahrdaten erfolgt ist, die sich von den aktuellen Fahrdaten unterscheiden, wird der Fahrer durch den autonomen Fahrbetrieb eines Fahrzeugs, der auf den in abnormer Weise gesammelten vergangenen Fahrdaten basiert, mit einer stärkeren Gegenreaktion konfrontiert als beim generellen autonomen Fahren.
  • Somit besteht hinsichtlich des autonomen Fahrens eines Fahrzeugs ein Bedarf an der Entwicklung eines Systems, das die Fahrgewohnheiten eines Fahrers korrekt reflektiert.
  • ÜBERBLICK
  • Dementsprechend werden mit der vorliegenden Erfindung ein System und ein Verfahren zum Handhaben eines Fahr-Gefahrenindexes für Fahrzeuge bereitgestellt, bei denen die Fahrgewohnheiten eines Fahrers präzise reflektiert werden.
  • Gemäß einem generellen Aspekt weist ein System zum Handhaben eines Fahr-Gefahrenindexes für Fahrzeuge auf: einen Generator zum Generieren einer Fahr-Trajektorie des Fahrzeugs eines Fahrers, wobei der Generator konfiguriert ist zum Erzeugen der Fahr-Trajektorie des Fahrzeugs des Fahrers auf der Basis von Fahr-Information des Fahrzeugs des Fahrers, die von einem internen Sensor her eingegeben wird, der eine Fahrsituation des Fahrzeugs des Fahrers sensiert; einen Peripherie-Fahrzeug-Trajektorien-Generator, der konfiguriert ist zum Generieren einer Trajektorie eines peripheren Fahrzeugs auf der Basis von Umgebungsinformation, die von einem externen Sensor her eingegeben wird, der eine Fahrsituation des Fahrzeugs des Fahrers sensiert; eine Trajektorien-Last-Berechnungsvorrichtung, die konfiguriert ist zum Berechnen einer Trajektorien-Last, welche ein Vergleichsergebnis repräsentiert, das durch Vergleichen eines vorbestimmten Schwellenwerts mit einer Trajektorien-Distanz erhalten wird, bei der es sich um die Differenz zwischen der Peripherie-Fahrzeug-Trajektorie und der Fahrzeug-Fahr-Trajektorie des Fahrers handelt; und einen Gefahrenindex-Manager, der konfiguriert ist zum Generieren eines Fahr-Gefahrenindexes entsprechend der berechneten Trajektorien-Last.
  • Gemäß einem weiteren generellen Aspekt weist ein Verfahren zum Handhaben eines Fahr-Gefahrenindexes für Fahrzeuge folgende Schritte auf: Generieren einer Fahr-Trajektorie des Fahrzeugs eines Fahrers auf der Basis von Fahr-Information des Fahrzeugs des Fahrers, die von einem internen Sensor her eingegeben wird, der eine Fahrsituation des Fahrzeugs des Fahrers sensiert; Generieren einer Trajektorie eines peripheren Fahrzeugs auf der Basis von Umgebungsinformation, die von einem externen Sensor her eingegeben wird, der eine Fahrsituation des Fahrzeugs des Fahrers sensiert; Berechnen einer Trajektorien-Last, die ein Vergleichsergebnis repräsentiert, das durch Vergleichen eines vorbestimmten Schwellenwerts mit einer Trajektorien-Distanz erhalten wird, bei der es sich um die Differenz zwischen der Peripherie-Fahrzeug-Trajektorie und der Fahr-Trajektorie des Fahrzeugs des Fahrers handelt; und Generieren eines Fahr-Gefahrenindexes entsprechend der berechneten Trajektorien-Last.
  • Weitere Merkmale und Aspekte werden aus der folgenden detaillierten Beschreibung, den Zeichnungen und den Ansprüchen ersichtlich.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Blockschaltbild eines Systems zum Handhaben eines Fahr-Gefahrenindexes für Fahrzeuge gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 zeigt ein Blockschaltbild der detaillierten Konfiguration einer Umgebungs-Erkennungsvorrichtung gemäß 1;
  • 3 zeigt ein Schaubild zur schematischen Darstellung dreier gefährlicher Abschnitte, die durch eine Peripherie-Fahrzeug-Last-Berechnungsvorrichtung gemäß 2 auf der Basis einer Zeit bis zur Kollision (TTC) aufgeteilt sind;
  • 4 zeigt ein Schaubild zur Darstellung einer Konfiguration eines Sensors zum Detektieren peripherer Fahrzeuge, die in jedem der gefährlichen Abschnitte gemäß 3 angeordnet sind;
  • 5 zeigt ein Schaubild zur Darstellung eines Beispiels des Detektierens peripherer Fahrzeuge mittels des Sensors gemäß 4;
  • 6 zeigt ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Handhaben eines Fahr-Gefahrenindexes für Fahrzeuge gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 7 zeigt ein Blockschaltbild zur Darstellung einer weiteren Ausführungsform der einer Umgebungs-Erkennungsvorrichtung gemäß 2;
  • 8 zeigt ein Blockschaltbild zur Darstellung der detaillierten Konfiguration eines Detektionsabschnitts-Generators gemäß 7;
  • 9 zeigt ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Optimieren eines Detektionsabschnitts gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 10 zeigt ein Blockschaltbild zur Darstellung der detaillierten Konfiguration eines Fahrer-Status-Sensierungssystems gemäß 1;
  • 11A und 11B zeigen ein Schaubild zur Darstellung einer Vorrichtung für erfasste Informationen gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 12A und 12B zeigen ein Schaubild zur Veranschaulichung eines Verfahrens zum Prüfen des Schließens der Augen eines Fahrers gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 13A bis 13F zeigen Diagramme zur Veranschaulichung einer Ermüdungs-Last eines Fahrers in einer Fahr-Unterbrechungs-Last gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 14 zeigt ein Flussdiagramm zur Veranschaulichung einer Operation zum Prüfen des Schließens der Augen eines Fahrers gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 15A bis 15C zeigen Schaubilder zur Veranschaulichung einer Beobachtungs-Vernachlässigungs-Last eines Fahrers in der Fahr-Unterbrechungs-Last gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 16 zeigt ein Schaubild zur Veranschaulichung einer Ausgabe eines Bildschirms gemäß einer Ausführungsform der vorliegenden Erfindung; und
  • 17 zeigt ein Flussdiagramm zur Veranschaulichung eines Fahrer-Status-Sensierungsverfahrens gemäß einer Ausführungsform der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Im Folgenden werden Ausführungsbeispiele der vorliegenden Erfindung im Zusammenhang mit den beigefügten Zeichnungen detailliert beschrieben. Hinsichtlich der Vergabe von Bezugszeichen für die Elemente in jeder Figur ist anzumerken, dass die gleichen Bezugszeichen, die bereits in anderen Figuren zum Bezeichnen gleicher Elemente verwendet wurden, weiterhin für diese Elemente verwendet werden, wo immer dies möglich ist. Ferner werden hier keine detaillierten Beschreibungen in Bezug auf weithin bekannte Funktionen oder Konfigurationen gegeben, um nicht unnötig von den Gegenständen der vorliegenden Erfindung abzulenken.
  • 1 zeigt ein Blockschaltbild eines Systems 100 zum Handhaben eines Fahr-Gefahrenindexes für Fahrzeuge gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Gemäß 1 ist das System 100 zum Handhaben eines Fahr-Gefahrenindexes in der Lage, statt eine Fahrgewohnheit eines Fahrers auf der Basis eines zuvor erlernten vergangenen Fahrmusters zu analysieren, eine Fahrgewohnheit präzise auf der Basis von Information zu analysieren, die mittels verschiedener Sensoren in Echtzeit erfasst wird.
  • Das System 100 zum Handhaben eines Fahr-Gefahrenindexes gemäß einer Ausführungsform der vorliegenden Erfindung kann die mittels der verschiedenen Sensoren in Echtzeit erfasste Information verwenden und analysiert somit eine Fahrgewohnheit eines Fahrers präziser als ein Fahrgewohnheits-Analyseverfahren des relevanten Standes der Technik, das eine Fahrgewohnheit auf der Basis eines erlernten früheren Fahr-Musters analysiert.
  • Das System 100 zum Handhaben eines Fahr-Gefahrenindexes kann einen internen Sensor 110, einen externen Sensor 120, eine Umgebungs-Erkennungsvorrichtung 130, ein Fahrsituations-Sensierungs-Interface 140, ein Fahrer-Status-Sensierungssystem 160 und eine Ausgabeeinheit 150 aufweisen.
  • Der interne Sensor 110 kann eine Fahrsituation des Fahrzeugs eines Fahrers sensieren, um die Fahrzeug-Fahrinformation des Fahrers zu erfassen. Zu der Fahrzeug-Fahrinformation des Fahrers können die Fahrzeuggeschwindigkeits-Information 11-1, die Gierraten-Information 11-3, die Lenkwinkel-Information 11-5, die Beschleunigungs-Information 11-7 und die Radgeschwindigkeits-Information 11-9 zählen.
  • Zur Erfassung der Fahrzeug-Fahrinformation des Fahrers kann der interne Sensor 110 einen Fahrzeuggeschwindigkeits-Sensor 110-1, der die Fahrzeuggeschwindigkeit 11-1 erfasst, einen Gierraten-Sensor 110-3, der die Gierraten-Information 11-3 erfasst, einen Lenkwinkel-Sensor 110-5, der die Lenkwinkel-Information 11-5 erfasst, und einen Radgeschwindigkeits-Sensor 110-9 aufweisen, der die Radgeschwindigkeits-Information 11-9 erfasst.
  • Der externe Sensor 120 kann eine Umgebungssituation des Fahrzeugs des Fahrers sensieren, um Umgebungs-Information zu erfassen. Zu der Umgebungs-Information können Vorder-/Hinter-Radar-Information 12-1, Vorder-/Hinter-Bild-Information 12-3, Seiten-Ultraschallinformation 12-5, Rundum-Sicht-Überwachungs-(AVM-)Bildinformation 12-7 und Navigations-Information 12-9 zählen.
  • Zur Erfassung der Umgebungs-Information kann der externe Sensor 120 einen Vorder-/Hinter-Radar 120-1, der die Vorder-/Hinter-Radar-Information 12-1 erfasst, eine Vorder-/Hinter-Kamera 120-3, die die Vorder-/Hinter-Bild-Information 12-3 erfasst, einen Seiten-Ultraschall-Generator 120-5, der die Seiten-Ultraschallinformation 12-5 erfasst, eine AVM-Kamera 120-7, die die AVM-Bildinformation 12-7 erfasst, eine Navigationsvorrichtung (NAV) 120-9, die die Navigations-Information 12-9 erfasst, ein Fahrzeug-zu-Infrastruktur-Kommunikationssystem und ein Fahrzeug-zu-Fahrzeug-Kommunikationssystem aufweisen. Ein Fahrzeug-zu-Infrastruktur-Kommunikationssystem und ein Fahrzeug-zu-Fahrzeug-Kommunikationssystem können Information enthalten, bei der es sich z. B. um ein Verkehrsregelungsmerkmal (z. B. Stopplichter, Stoppzeichen), aktuelle wetterbezogene Information, Information zu vorübergehenden Anomalien und den Orten vorübergehender Anomalien (z. B. Bau-Zonen, zeitweilige Geschwindigkeitsbegrenzungen), unvorhergesehen Situationen (z. B. Unfallstellen, Straßenblockaden usw.), Positionen anderer Fahrzeuge, Routen anderer Fahrzeuge (z. B. Startpunkt, Ziel, erwartete Trajektorie), Fahrspur-Status und ein Einscher-Zeichen (z. B. Abbiegersignal) handelt. Bei dem Fahrspur-Status (Information) kann es sich um eine einspurige Landstraße, eine Autobahn mit Mittelstreifen, einen Boulevard, eine mehrspurige Straße, eine Einbahnstraße, eine Straße mit zwei Fahrrichtungen oder eine Stadtstraße handeln. Sämtliche Variationen der oben angeführten Lehren fallen unter den Umfang dieser Patentanmeldung.
  • Die Umgebungs-Erkennungsvorrichtung 130 kann eine Trajektorien-Last berechnen, indem sie die von dem internen Sensor 110 zugeführte Fahrzeug-Fahrinformation des Fahrers und die von dem externen Sensor 120 zugeführte Umgebungs-Information nutzt, und kann basierend auf dem Ergebnis der Berechnung einen Fahr-Gefahrenindex handhaben. Dies wird im Zusammenhang mit 2 detailliert beschrieben.
  • Das Fahrsituations-Sensierungs-Interface 140 kann das Interfacing mit der Ausgabeeinheit 150 durchführen und dem Fahrer die Fahrer-Status-Information, die von dem Fahrer-Status-Sensierungssystem 160 her zugeführt wird, und den Fahr-Gefahrenindex, der von der Umgebungs-Erkennungsvorrichtung 130 her zugeführt wird, über die Ausgabeeinheit 150 übermitteln.
  • Die Ausgabeeinheit 150 kann den Fahr-Gefahrenindex, der von der Fahr-Status-Information reflektiert wird, in Form akustischer oder visueller Information ausgeben, um dem Fahrer einen Fahr-Gefahrenindex mitzuteilen. Zu diesem Zweck kann die Ausgabeeinheit 150 einen Lautsprecher 150-1, eine Audio-/Video-Navigationsvorrichtung (AVN) 150-3 und ein Head-up-Display 150-5 aufweisen.
  • Ferner kann die Ausgabeeinheit 150 ein Motor-Steuersystem 150-7, ein Automatik-Steuersystem 150-9 und ein Lenk-Steuersystem 150-11 zum Einstellen der Zeit aufweisen, zu der die Seitensteuerung des Fahrzeugs startet.
  • Das Fahrer-Status-Sensierungssystem 160 kann einen Fahrzustand wie z. B. Fahren in schläfrigem Zustand etc. detektieren. Das Fahrer-Status-Sensierungssystem 160 wird später im Zusammenhang mit 10 bis 17 beschrieben.
  • 2 zeigt ein Blockschaltbild der detaillierten Konfiguration einer Umgebungs-Erkennungsvorrichtung 130 gemäß 1.
  • Gemäß 2 kann wie oben beschrieben die Umgebungs-Erkennungsvorrichtung 130 die Trajektorien-Last durch Nutzung der von dem internen Sensor 110 zugeführten Fahrzeug-Fahrinformation des Fahrers und der von dem externen Sensor 120 zugeführten Umgebungs-Information berechnen und auf der Basis der berechneten Trajektorien-Last den Fahr-Gefahrenindex (oder einen Peripherie-Risiko-Index) berechnen.
  • Um den Fahr-Gefahrenindex noch präziser zu handhaben, kann die Umgebungs-Erkennungsvorrichtung 130 den Fahr-Gefahrenindex berechnen, indem zusätzlich zu der Trajektorien-Last noch eine Peripherie-Fahrzeug-Last und eine Straßen-Last zusätzlich berücksichtigt werden.
  • Die Umgebungs-Erkennungsvorrichtung 130 kann einen Fahrer-Fahrzeug-Fahr-Trajektorien-Generator 130-1, einen Peripherie-Fahrzeug-Trajektorien-Generator 130-3, eine Trajektorien-Last-Berechnungsvorrichtung 130-5, eine Peripherie-Fahrzeug-Berechnungsvorrichtung 130-7, eine Straßen-Last Berechnungsvorrichtung 130-9 und einen Fahr-Gefahrenindex-Manager 130-11 aufweisen.
  • Der Fahrer-Fahrzeug-Fahr-Trajektorien-Generator 130-1 kann eine Fahrer-Fahrzeug-Fahr-Trajektorie unter Verwendung von Fahrzeuggeschwindigkeits-Information, Lenkwinkel-Information, Verlangsamungs-/Beschleunigungs-Information, und Gierraten-Information erfassen, die von dem internen Sensor 110 zugeführt wird.
  • Der Peripherie-Fahrzeug-Trajektorien-Generator 130-3 kann eine Peripherie-Fahrzeug-Fahr-Trajektorie 13-3 unter Nutzung der Umgebungs-Information erfassen, zu der die Vorder-/Hinter-Radar-Information 12-1, die Vorder-/Hinter-Bild-Information 12-3, die Seiten-Ultraschallinformation 12-5 und die AVM-Bildinformation 12-7 zählen, die von dem externen Sensor 120 zugeführt werden.
  • Die Vorder-/Hinter-Radar-Information 12-1 weist eine geringe Präzision beim Bestimmen eines Objekts auf, ermöglicht jedoch den Erhalt präziser Abstands-Information (Längsrichtung). Andererseits weist, da die Bild-Information 12-3 und 12-7 zum Erfassen eines monokularen Bilds verwendet wird, die Bild-Information 12-3 und 12-7 eine geringe Präzision bei der Abstands-Bestimmung (Längsrichtung) auf, wobei die Bild-Information 12-3 und 12-7 jedoch andererseits ein präzises Bestimmen eines Objekts ermöglicht und zum Erhalt von Seiten-Information nutzbar ist.
  • In einer Ziel-Winkel-Modell-Gleichung kann die Längsabstand-Information mittels des Vorder-/Hinter-Radars 120-1 erfasst werden, und die Seiten-Abstands-Information kann mittels der Vorder-/Hinter-Kamera 120-3, der AVM-Kamera 120-7 und des Seiten-Ultraschall-Generators 120-5 erfasst werden.
  • Die folgende Gleichung (1) kann als Ziel-Fahrzeug-Modul-Gleichung verwendet werden, mittels derer der Peripherie-Fahrzeug-Trajektorien-Generator 130-3 die Peripherie-Fahrzeug-Trajektorie berechnet.
    Figure DE102015210630A1_0002
    wobei x, Vx, y, und Vy, Status-Variablen eines Ziel-Fahrzeugs bezeichnen, und x und y eine Position des Ziel-Fahrzeugs bezeichnen und mittels einer Bildkamera gemessen werden. Vx and Vy bezeichnen eine Geschwindigkeit des Ziel-Fahrzeugs. A bezeichnet eine Fahrzeug-Modell-Gleichung, H bezeichnet eine Messwert-Model-Gleichung, und die Status-Variablen bezeichnen einen Abstand und eine Geschwindigkeit in einer x-Achsen-Richtung und einen Abstand und eine Geschwindigkeit in einer y-Achsen-Richtung. Ein System-Rauschen und ein Messwert-Rauschen bezeichnen eine weiße Gauß-Glocke.
  • Die Trajektorien-Last-Berechnungsvorrichtung 130-5 kann eine Trajektorien-Last ”WTrj” berechnen. Die Trajektorien-Last ”WTrj” kann ein Vergleichsergebnis sein, das durch Vergleichen eines vorbestimmten Schwellenwerts mit einem Trajektorie-Abstands-Wert erhalten wird, die eine Differenz zwischen der Peripherie-Fahrzeug-Fahr-Trajektorie 13-3 und der Fahrer-Fahrzeug-Fahr-Trajektorie 13-1 ist.
  • Die Fahrer-Fahrzeug-Fahr-Trajektorie 13-1 und die Peripherie-Fahrzeug-Fahr-Trajektorie 13-3 können vorhergesagt werden, und bei einer Situation, in der eine Kollisionsrisiko besteht, kann es sich um eine Situation handeln, die dem Fahrer hohe Aufmerksamkeit abverlangt. Die Trajektorien-Last-Berechnungsvorrichtung 130-5 kann die Situation als Trajektorien-Last ”WTrj” digitalisieren.
  • Die Trajektorien-Last ”WTrj” kann berechnet und ausgedrückt werden in der folgenden Gleichung (2): WTrj(I) = /TTnj(i) – DTnj(i)/ falls WTrj(i) > Schwellenwert, 0 WTrj(i) < Schwellenwert, 1 (2) wobei DTrj die Fahrer-Fahrzeug-Fahr-Trajektorie bezeichnet und TTrj eine Peripherie-Fahrzeug-Trajektorie bezeichnet. Ferner bezeichnet i (1, 2, ..., n) ein detektiertes peripheres Fahrzeug.
  • Gemäß Gleichung (1) können Trajektorien detektierter peripherer Fahrzeuge mit einer Trajektorie des Fahrzeugs des Fahrers verglichen werden, und wenn ein Trajektorien-Abstand kleiner als ein Schwellenwert ist, kann die Trajektorien-Last ”WTrj” auf 1 gesetzt werden. Ferner kann, wenn der Trajektorien-Abstand größer als der Schwellenwert ist, die Trajektorien-Last ”WTrj” auf 0 gesetzt werden.
  • Die Peripherie-Fahrzeug-Berechnungsvorrichtung 130-7 kann die Anzahl von Vorder-/Hinter-/Seiten-Peripheriefahrzeugen analysieren und auf der Basis der Umgebungs-Information analysieren, ob die Peripheriefahrzeuge die Fahrspur wechseln, und sie kann auf der Basis des Analyseergebnisses eine Peripheriefahrzeug-Last ”Ws” berechnen. Die Anzahl der Peripheriefahrzeuge und eine Trajektorien-Veränderung jedes der Peripheriefahrzeuge können als Last wirken, die Aufmerksamkeit seitens des Fahrers erfordert.
  • Um die Peripheriefahrzeug-Last zu berechnen, können drei Gefahrenabschnitte ➀, ➁ und ➂ basierend auf der Zeit bis zu einer Kollision (TTC) berechnet werden. Die drei Gefahrenabschnitte ➀, ➁ und ➂ sind in 3 gezeigt. Hier kann die TTC als die Zeit definiert werden, die es dauert, bis ein entsprechendes Fahrzeug mit einem Ziel-Fahrzeug kollidiert, wenn die Aufholgeschwindigkeit eines Fahrzeugs konstant ist. Die TTC kann auf der Basis der Fahrzeuggeschwindigkeit-Information 11-1 und der Lenkwinkel-Information 11-5 berechnet werden
  • Beispielsweise können gemäß 4 und 5 die drei Gefahrenabschnitte ➀, ➁ und ➂ eingestellt werden, indem eine Zeit berechnet wird, welche erhalten wird durch einen relativen Geschwindigkeitswert eines detektierten Fahrzeugs mittels eines TTC-Werts für jedes der Peripheriefahrzeuge (20, 30, 40 und 50 in 5), die ermittelt werden aus den Detektionsabschnitten 43 und 47, welche von dem Vorder-/Hinter-Radar 120-1 detektiert werden, Detektionsabschnitten, welche von der Vorder-/Hinter-Kamera 120-3 detektiert werden, und einem Detektionsabschnitt 45, welcher von dem Seiten-Ultraschall-Generator 120-5 detektiert wird.
  • Wenn die drei Gefahrenabschnitte ➀, ➁ und ➂ eingestellt worden sind, kann die Peripherie-Fahrzeug-Berechnungsvorrichtung 130-7 die Anzahl der in den Abschnitten detektierten Peripheriefahrzeuge analysieren und analysieren, ob die Peripheriefahrzeuge die Fahrspuren wechseln, und sie kann auf der Basis des Analyseergebnisses eine Peripheriefahrzeug-Last ”Ws” berechnen.
  • Wenn die Anzahl der in dem Abschnitt ➀ detektierten Fahrzeuge zunimmt und die Häufigkeit zunimmt, mit der die detektierten Fahrzeuge die Fahrspuren wechseln, kann die Peripheriefahrzeug-Last ”Ws” zunehmen. Wenn andererseits kein detektiertes Peripheriefahrzeug existiert oder, obwohl ein detektiertes Peripheriefahrzeug existiert, das Peripheriefahrzeug in dem Abschnitt ➂ detektiert wird oder eine Trajektorien-Veränderung des in Abschnitt ➂ detektierten Peripheriefahrzeugs nicht gravierend ist, kann die Peripheriefahrzeug-Last ”Ws” abnehmen.
  • Die Peripheriefahrzeug-Last ”Ws” kann durch die folgende Gleichung ausgedrückt werden:
    Figure DE102015210630A1_0003
    wobei α einen Gewichtungsfaktor bezeichnet, β einen Gewichtungsfaktor bezeichnet, S eine Position (den Abschnitt ➀, ➁ oder ➂ des detektierten Peripheriefahrzeugs bezeichnet und L angibt, ob das detektierte Peripheriefahrzeug die Fahrspur wechselt. Wenn das detektierte Peripheriefahrzeug die Fahrspur gewechselt hat, kann L auf 1 gesetzt werden, und wenn die Fahrspur nicht gewechselt worden ist, kann L auf 0 gesetzt werden. Mit i (1 < i < n, wobei n eine natürliche Zahl ist) ist ein detektiertes Peripheriefahrzeug bezeichnet.
  • Die Straßen-Last Berechnungsvorrichtung 130-9 kann eine Straßen-Last unter Nutzung einer Straßen-Form, eines Straßenoberflächen-Status und eines Verkehrs-Status berechnen, die in der Umgebungs-Information enthalten sind. Beispielsweise kann eine Kurz-Distanz-Straßen-Last unter Verwendung von Bild-Information berechnet werden, die von einer Ultraschall-Vorrichtung, einem Radar und/oder einem Lidar unter den externen Sensoren erhalten wird, und eine Lang-Distanz-Straßen-Last kann unter Nutzung von Fahrzeug-zu-Fahrzeug- und Fahrzeug-zu-Infrastruktur-Sensoren unter den externen Sensoren berechnet werden.
  • Die Aufmerksamkeit des Fahrers ist in einer Kurve stärker gefordert als auf einer geradlinigen Straße und auf einer Kreuzung mehr als im normalen Straßenverlauf, und wenn sich die Front-Verkehrssituation verschlechtert, wird dem Fahrer Aufmerksamkeit abverlangt. Somit ist es erforderlich, die Straßen-Last zu berechnen.
  • Die Straßen-Last kann auf der Basis der Navigations-Information 12-9 berechnet werden, die von der Navigationsvorrichtung 120-9 zugeführt wird, und sie enthält Straßen-Status-Information und Straßenoberflächen-Status-Information, die von der Vorder-/Hinter-Kamera 120-3 erfasst wird. Die Straßen-Last kann entsprechend der folgenden Gleichung (4) berechnet werden: WR = α × A + β × B + γ × C (4) wobei A einen Wert bezeichnet, der einen Straßen-Status repräsentiert. Beispielsweise kann, wenn ein Krümmungswert einer Front-Straße zunimmt, A einen großen Wert haben, und wenn eine Verkehrsampel umschaltet, ein Fußgänger erscheint, eine Geschwindigkeitsbegrenzung angezeigt wird oder eine Zone auftritt, bei der es sich um eine Kinderschutzzone handelt, kann A einen großen Wert haben. B bezeichnet einen Straßenoberflächen-Status-Wert, und in B können eine asphaltierte Straße oder eine nichtasphaltierte Straße reflektiert sein. C bezeichnet den Verkehr auf einer Front-Straße, und wenn der Verkehr zunimmt, kann C einen großen Wert haben. A, B und C können sämtlich auf einen Bereich von 0 bis 5 normiert werden.
  • Der Fahr-Gefahrenindex-Manager 130-11 kann den Fahr-Gefahrenindex (den Peripherie-Risiko-Index) handhaben, der durch Summierung der mehreren Lasten ”WTrj”, ”WS” and ”WR” erhalten wird, die in jeweiligen Schritten berechnet werden.
  • Der Fahr-Gefahrenindex-Manager 130-11 kann die Trajektorien-Last ”WTrj”, die Peripheriefahrzeug-Last ”WS” und die Straßen-Last ”WR” summieren, um einen Summier-Ergebniswert als Fahr-Gefahrenindex zu berechnen.
  • Wenn der berechnete Fahr-Gefahrenindex höher als ein vorbestimmter Schwellenwert ist, kann der Fahr-Gefahrenindex-Manager 130-11 den berechneten Fahr-Gefahrenindex über das Fahrsituations-Sensierungs-Interface 140 den Fahrzeug-Steuersystemen 150-7, 150-9 und 150-11 zuführen.
  • Die Fahrzeug-Steuersysteme 150-7, 150-9 und 150-11, die den über dem vorbestimmten Schwellenwert liegenden berechneten Fahr-Gefahrenindex empfangen haben, können eine Motor-Operation, eine Brems-Operation und eine Lenk-Operation berechnen, um eine Fahrfunktion des Fahrzeugs einzuschränken.
  • Der Fahr-Gefahrenindex kann in Form der folgenden Gleichung (5) ausgedrückt werden: Fahr-Gefahrenindex = WTrj + WS + WR (5)
  • 6 zeigt ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Handhaben eines Fahr-Gefahrenindexes für Fahrzeuge gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Gemäß 6 kann in einem Schritt S610 eine Operation zum Generieren der Fahr-Trajektorie des Fahrzeugs des Fahrers durchgeführt werden, und in Schritt S612 kann eine Operation zum Vorhersagen einer Position des Fahrzeugs des Fahrers unter Verwendung der erzeugten Fahr-Trajektorie des Fahrzeugs des Fahrers durchgeführt werden. Die Fahr-Trajektorie des Fahrzeugs des Fahrers kann auf der Basis von Fahrzeuggeschwindigkeits-Information, Lenkwinkel-Information, Beschleunigungs-/Verlangsamungs-Information und Gierraten-Information generiert werden.
  • Anschließend kann in Schritt S614 eine Operation zum Generieren einer Peripheriefahrzeug-Fahr-Trajektorie durchgeführt werden, und in Schritt S616 kann eine Operation zum Vorhersagen einer Position eines Peripheriefahrzeugs durchgeführt werden. Die Peripheriefahrzeug-Fahr-Trajektorie kann generiert werden auf der Basis von Längs-Abstands-Information, die von einem Radar her erhalten wird, Seiten-Abstands-Information, die von einer Kamera her erhalten wird, und Seiten-Abstands-Information, die von einem Ultraschall-Generator her erhalten wird. Hier kann es sich bei Längs-Abstands-Information um Information über den Längs-Abstand zu dem Peripheriefahrzeug in Bezug auf das Fahrzeug des Fahrers handeln, und bei der Längs-Abstands-Information kann es sich um Information über den Längs-Abstand zu dem Peripheriefahrzeug in Bezug auf das Fahrzeug des Fahrers handeln.
  • Anschließend kann in Schritt S618 eine Operation zum Berechnen einer Trajektorien-Last durchgeführt werden. Die Trajektorien-Last kann auf der Basis der Fahr-Trajektorie des Fahrzeugs des Fahrers und der Fahr-Trajektorie des Peripheriefahrzeugs berechnet werden. Beispielsweise können Fahr-Trajektorien detektierter Peripheriefahrzeuge mit der Fahr-Trajektorie des Fahrzeugs des Fahrers verglichen werden, und wenn ein Trajektorien-Abstand, der eine Differenz zwischen diesen Trajektorien ist, kleiner als ein Schwellenwert ist, kann die Trajektorien-Last als 1 berechnet werden. Wenn andererseits der Trajektorien-Abstand größer als der Schwellenwert ist, kann die Trajektorien-Last als 0 berechnet werden.
  • Anschließend kann in Schritt S620 eine Operation zum Berechnen einer Peripheriefahrzeug-Last durchgeführt werden. Die Peripheriefahrzeug-Last kann berechnet werden unter Berücksichtigung der Anzahl der Fahrzeuge, die in jeder von mehreren Gefahrenabschnitten angeordnet sind, welche basierend auf einer TTC aufgeteilt sind, und basierend darauf, ob das Fahrzeug die Fahrspur wechselt. Die in den mehreren Gefahrenabschnitten befindlichen Peripheriefahrzeuge können mittels eines Radars, einer Kamera und eines Ultraschallgenerators detektiert werden, und die mehreren Gefahrenabschnitte können durch Berechnen einer Zeit erhalten werden, welche durch Dividieren eines Relativgeschwindigkeitswerts durch einen Relativabstand (der ein TTC-Wert ist) zu einem detektierten Fahrzeug ermittelt wird.
  • Anschließend kann in Schritt S622 eine Operation zum Berechnen einer Straßen-Last durchgeführt werden. Die Straßen-Last kann auf der Basis von Navigations-Information, Straßenoberflächen-Status-Information, Verkehrsinformation etc. berechnet werden.
  • Anschließend kann in Schritt S624 eine Operation zum Berechnen eines Fahr-Gefahrenindexes durchgeführt werden. Der Fahr-Gefahrenindex kann durch Summieren der Trajektorien-Last, der Peripheriefahrzeug-Last und der Straßen-Last berechnet werden.
  • Anschließend kann in Schritt S626 eine Operation zum Vergleichen des berechneten Fahr-Gefahrenindexes mit einem Schwellenwert durchgeführt werden. Wenn der Fahr-Gefahrenindex gleich dem oder größer als der Schwellenwert ist, kann das System 100 in Schritt S628 den Fahrer stufenweise basierend auf einem Niveau des Schwellenwerts vor einer gefährlichen Fahrsituation warnen. Wenn hier der Fahr-Gefahrenindex unterhalb des Schwellenwerts liegt, können die Schritte S610 bis S624 erneut durchgeführt werden.
  • In Schritt S630 kann eine Operation durchgeführt werden, in der dem Fahrer der Fahr-Gefahrenindex, der die gefährliche Fahrsituation anzeigt, über einen Lautsprecher, ein HUD und eine AVN, die in dem Fahrzeug installiert sind, mitgeteilt wird.
  • 7 zeigt ein Blockschaltbild zur Darstellung einer weiteren Ausführungsform der Umgebungs-Erkennungsvorrichtung gemäß 2.
  • Gemäß 7 kann eine Umgebungs-Erkennungsvorrichtung 130 gemäß einer weiteren Ausführungsform der vorliegenden Erfindung einen Detektionsabschnitt-Generator 132 zum Detektieren eines optimierten Abschnittsbereichs (im Folgenden als Detektionsabschnitt bezeichnet) und zum Erkennen einer Umgebung in dem optimierten Detektionsabschnitt aufweisen. Die übrigen Elemente mit Ausnahme des Detektionsabschnitt-Generators 132 sind die gleichen wie die Elemente, die in der Umgebungs-Erkennungsvorrichtung 130 gemäß 2 enthalten sind, und somit gelten die oben anhand von 2 im Zusammenhang mit der Umgebungs-Erkennungsvorrichtung 130 beschriebenen Einzelheiten auch für die übrigen Elemente.
  • Der Detektionsabschnitt-Generator 132 kann einen Detektionsabschnitt, der ein Ziel-Objekt enthält, dahingehend optimieren, dass unter den in der Umgebung des Fahrzeugs befindlichen Ziel-Objekten ein tatsächliches Hindernis präzise identifiziert werden kann.
  • 8 zeigt ein Blockschaltbild zur Darstellung der detaillierten Konfiguration des Detektionsabschnitts-Generators 132 gemäß 7.
  • Gemäß 8 kann der Detektionsabschnitts-Generator 132 zum Optimieren eines Detektionsabschnitts gemäß einer Ausführungsform der vorliegenden Erfindung einen Fern-Sensor 132-1, einen Ziel-Verfolger 132-3, einen Bahn-Manager 132-5 und einen Speicher 132-9 aufweisen.
  • Der Fern-Sensor 132-1 kann eine Position eines in der Umgebung des Fahrzeugs befindlichen Objekts detektieren, um ein Detektionssignal auszugeben. Dabei kann der Fern-Sensor 132-1 einen Lidar-Sensor, einen Radar-Sensor, einen Kamera-Sensor oder mehrere dieser Sensoren aufweisen.
  • Der Ziel-Verfolger 132-3 kann auf der Basis des Detektionssignals ein Ziel identifizieren und eine Bahn erzeugen, die eine Kovarianz eines Fehlers und eines Positionsschätzwerts aufweist, der dem identifizierten Hindernis entspricht, wodurch die Position verfolgt wird.
  • Generell kann ein Kalman-Filter verwendet werden, um den Fehler eines Sensors zu beseitigen und Position eines sich bewegenden Objekts zu sensieren.
  • Der Kalman-Filter kann eine Technik verwenden, die auf der Basis eines Schätzwerts einer Position des Objekts zu einem vorherigen Zeitpunkt und eines Messwerts einer Position des Objekts eine Operation des Berechnens eines Schätzwerts einer Position eines Objekts wiederholt und somit einem beim Messen der Position des Objekts auftretenden Fehler entgegenwirkt, so dass eine präzise Position des Objekts gemessen wird. Dabei kann zu einem aktuellen Zeitpunkt ein Schätzwert, der nur auf einem Messwert von einem vorherigen Zeitpunkt basiert, auf der Basis eines Schätzwerts einer Position eines Objekts zu einem vorherigen Zeitpunkt berechnet werden.
  • Anschließend kann ein Schätzwert zu einem aktuellen Zeitpunkt, der nur auf einem Messwert von einem vorherigen Zeitpunkt basiert, auf der Basis einer Kovarianz zu dem aktuellen Zeitpunkt, die nur auf der Basis des Messwerts von dem vorherigen Zeitpunkt berechnet wird, und eines Messwerts der Position des Objekts zu dem aktuellen Zeitpunkt korrigiert werden, und es kann ein Schätzwert des Objekt zu dem aktuellen Zeitpunkt errechnet werden.
  • Der Ziel-Verfolger 132-3 kann eine Anzahl von Bahnen und einen Detektionsabschnitt und eine Anfangsposition eines Hindernisses, das jeder der Bahnen entspricht, auf der Basis der Position des von dem Detektionssignal angegebenen Objekts setzen. Dabei können der Detektionsabschnitt und die Anfangsposition des Hindernisses durch den Kalman-Filter gemäß der folgenden Gleichung (6) gesetzt werden: (k|k – 1) = F(k – 1) x ^ (k – 1|k – 1) z ^(k|k – 1) = H(k) x ^ (k|k – 1) (6) wobei x ^(k|k – 1) einen Schätzwert eines Status-Werts des Objekts zu einem Zeitpunkt ”k” bezeichnet, der auf der Information zu einem Zeitpunkt ”k – 1” basiert, x ^(k – 1|k – 1) einen Schätzwert eines Status-Werts des Objekts zu einem Zeitpunkt ”k – 1” bezeichnet, der auf der Information zu einem Zeitpunkt ”k – 1” basiert, und z ^(k|k – 1) einen Schätzwert einer Position des Objekts zu einem Zeitpunkt ”k” bezeichnet, der auf der Information zu einem Zeitpunkt ”k – 1” basiert.
  • Hier kann jede Bahn den Kalman-Filter aufweisen, um ein spezifisches Objekt, das von dem Fern-Sensor 132-1 sensiert wird, zu verfolgen. Dies bedeutet, dass jede Bahn eine Kovarianz eines Fehlers zum Korrigieren einer Position auf der Basis eines Messwerts und eines Schätzwerts einer Position eines verfolgten Objekts enthalten kann, und ein Schätzwert, ein Messwert und eine Kovarianz, die pro Zeit errechnet werden, können als Historien in dem Speicher 132-9 gespeichert werden.
  • Eine Konfiguration des in jeder Bahn enthaltenen Kalman-Filters kann durch die folgende Gleichung (7) ausgedrückt werden:
    Figure DE102015210630A1_0004
    wobei x(k) einen Status-Wert des Objekts zum Zeitpunkt ”k” bezeichnet, F(k – 1) ein Status-Veränderungs-Modell bezeichnet, das eine Veränderung repräsentiert, wenn sich ein Zeitpunkt von dem Zeitpunkt ”k – 1” zu dem Zeitpunkt ”k” verändert, z(k) eine Position des Objekts zum Zeitpunkt ”k” bezeichnet, H(k) ein Beobachtungsmodell bezeichnet, das eine Veränderung von einem Status des Objekts zu der Position des Objekts repräsentiert, v(k – 1) ein Verarbeitungsrauschen zum Zeitpunkt ”k” bezeichnet, und w(k) ein Mess-Rauschen zum Zeitpunkt ”k” bezeichnet. Ferner bezeichnet P(k|k) eine Kovarianz eines Fehlers des Kalman-Filters zum Zeitpunkt ”k”, die auf der Basis der Information zum Zeitpunkt ”k” berechnet wird, und P(k|k – 1) bezeichnet eine Kovarianz eines Fehlers des Kalman-Filters zum Zeitpunkt ”k”, die auf der Basis der Information zum Zeitpunkt ”k – 1” berechnet wird. Q(k – 1) bezeichnet eine Vorhersage-Kovarianz zum Zeitpunkt ”k – 1”.
  • Der Ziel-Verfolger 132-3 kann auf der Basis von Fehlern eines Messwerts, eines Schätzwerts der Position eines Objekts und einer Kovarianz jedes der Fehler feststellen, ob die von dem Detektionssignal angezeigte Position des Objekts in dem einer Bahn entsprechenden Detektionsabschnitt enthalten ist.
  • Dabei kann der Ziel-Verfolger 132-3 auf der Basis eines Status-Werts des in einer aktuellen Bahn enthaltenen Kalman-Filters einen Bereich des Detektionsabschnitts einstellen und basierend auf den im Detektionsabschnitt auftretenden Messwerten einen Status-Wert des Kalman-Filters aktualisieren. Der Ziel-Verfolger 132-3 kann auf der Basis des Messwerts und des Schätzwerts der Position des Objekts einen Restwert berechnen, eine Rest-Kovarianz auf der Basis des Beobachtungsmodells und einer Kovarianz eines in dem Kalman-Filter enthaltenen Schätzfehlers berechnen und basierend auf dem Restwert und der Rest-Kovarianz feststellen, ob das Ziel in den Detektionsabschnitt eintritt.
  • Der Detektionsabschnitt kann hier als ein Abschnitt eingestellt werden, der in der Gauß'schen Wahrscheinlichkeitsverteilung einen spezifischen Wahrscheinlichkeitswert oder einen geringeren Wert repräsentiert, der die Rest-Kovarianz als Varianz aufweist, und der Wahrscheinlichkeitswert kann als eine Gate-Wahrscheinlichkeit betrachtet werden. Somit kann der Detektionsabschnitt durch Berechnen der Rest-Kovarianz und Setzen eines Gate-Wahrscheinlichkeitswerts berechnet werden, und die Rest-Kovarianz und der Gate-Wahrscheinlichkeitswert können mittels des Kalman-Filters mit der Zeit optimiert werden, wodurch der Detektionsabschnitt über die Zeit hinweg optimiert wird.
  • Ein Verfahren zum Berechnen des Restwerts und der Rest-Kovarianz und ein Zustand, in dem das Objekt in dem Detektionsabschnitt angeordnet ist, können durch die folgende Gleichung (8) ausgedrückt werden: v(k, i) = z(k, i) – z ^(k|k – 1) S(k) = H(k)P(k|k – 1)H(k)T + R(k) v(k, i)TS(k)–1v(k, i) < r (8) wobei v(k, i) einen Restwert eines Objekts ”i” zum Zeitpunkt ”k” bezeichnet und z(k, i) einen Messwert an einer Position des Objekts ”i” bezeichnet. Ferner bezeichnet P(k|k – 1) eine Kovarianz eines Schätzfehlers des Kalman-Filters, R(k) bezeichnet ein Messrauschen zum Zeitpunkt ”k”, S(k) bezeichnet die Rest-Kovarianz zum Zeitpunkt ”k”, und r bezeichnet einen Bereich eines Detektionsabschnitts.
  • Der Bahn-Manager 132-5 kann basierend auf einem Detektionssignal, das in der Bahn enthalten ist, die einem Objekt entspricht, welches in einem Detektionsabschnitt lokalisiert wird, einen in einer Bahn enthaltenen Positions-Schätzwert aktualisieren.
  • Dabei kann zum Detektieren des Positionsschätzwerts der Bahn-Manager 132-5 auf der Basis einer Rest-Kovarianz und einer Kovarianz eines Schätzfehlers einen Kalman-Verstärkungsfaktor berechnen, und er kann den Positions-Schätzwert berechnen unter Verwendung von Information zu einem aktuellen Zeitpunkt auf der Basis eines Schätzwerts einer Position, der basierend auf dem Kalman-Verstärkungsfaktor, einem Positions-Messwert des Objekts und Information eines vorherigen Zeitpunkts geschätzt wird. Die Aktualisierung des Positions-Schätzwerts kann durch die folgende Gleichung (9) ausgedrückt werden:
    Figure DE102015210630A1_0005
    wobei K(k) den Kalman-Verstärkungsfaktor bezeichnet.
  • Wie oben beschrieben kann der Bahn-Manager 132-5 auf der Basis des Messwerts den Positions-Messwert mit der Zeit aktualisieren, wodurch ein präziser Positions-Messwert berechnet wird.
  • Wenn ein Abstand zwischen einem Objekt-Positions-Schätzwert, der in einer ersten Bahn enthalten ist, und einem Objekt-Positions-Schätzwert, der in einer zweiten Bahn enthalten ist, kleiner als ein vorbestimmter Referenzwert ist, kann der Bahn-Manager 132-5 die erste Bahn und die zweite Bahn auf der Basis einer in dem Speicher 132-9 gespeicherten Historie initialisieren.
  • Der Speicher 132-9 kann eine Historie speichern, die durch Aktualisieren einer Bahn erhalten wird. Dabei kann die in dem Speicher 132-9 gespeicherte Historie einen Positions-Schätzwert, einen Positions-Messwert und einen Kovarianzwert eines mit der Zeit auftretenden Schätzfehlers des Kalman-Filters, der in der Bahn enthalten ist, speichern.
  • Wenn ein Positions-Schätzwert wie oben beschrieben aktualisiert wird, können je nach dem entsprechenden Fall Objekte, die durch zwei Bahnen angezeigt sind, miteinander kollidieren. Wenn ein durch ein Objekt angezeigter Positions-Schätzwert auf einen Wert unterhalb eines vorgespeicherten Referenzwert reduziert wird, kann der Bahn-Manager 132-5 feststellen, dass die von den beiden Bahn angezeigten Objekte kollidieren, und kann basierend auf den Daten, die in den Historien zweier kollidierender Bahnen enthalten sind, die Bahn initialisieren.
  • Ferner kann, wenn sämtliche Objekt-Positions-Schätzwerte, die in einer Bahn enthalten sind, nicht in einem der Bahn entsprechenden Detektionsabschnitt enthalten sind, der Bahn-Manager 132-5 basierend auf einer in dem Speicher 132-9 gespeicherten Historie der Bahn die Bahn initialisieren. Dies bedeutet, dass, wenn ein von einer Bahn verfolgtes Objekt von dem Detektionsabschnitt abweicht oder das von der Bahn verfolgte Objekt als Rauschen oder Fehler angesehen wird und somit verschwindet, die Bahn nicht in der Lage sein kann, das Objekt zu verfolgen, und somit der Bahn-Manager 132-5 die Bahn initialisieren kann und ein neues Objekt verfolgen kann.
  • Wie oben beschrieben kann eine Bahn ein sich bewegendes Hindernis durch Verwendung des Kalman-Filters verfolgen. Wenn eine ein Objekt verfolgende Bahn nicht in der Lage ist, das Objekt zu verfolgen oder wenn zwei Bahnen miteinander kollidieren, kann eine Bahn initialisiert werden, und ein neues Objekt kann verfolgt werden. Dementsprechend wird eine Objekt-Identifikations-Leistung eines Peripherie-Status-Detektionssystems verbessert.
  • Wie oben beschrieben können der Ziel-Verfolger 132-3 und der Bahn-Manager 132-5 ein Hindernis verfolgen, um eine Bahn zu generieren oder zu aktualisieren, und in der generierten oder aktualisierten Bahn enthaltene Daten können zu der Fahrzeug-Steuervorrichtung 132-7 übertragen werden und können zum Steuern eines Fahrzeugs verwendet werden, so dass das Fahrzeug ein Hindernis vermeidet oder eine Warnung ausgegeben wird.
  • 9 zeigt ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Optimieren eines Detektionsabschnitts gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Gemäß 9 kann in Schritt S910 der Ziel-Verfolger 132-3 auf der Basis eines Detektionssignals, das der Fern-Sensor 132-1 aus einer Position eines Objekts erzeugt hat und ausgibt, eine Bahn erzeugen, die eine Kovarianz eines Fehlers und einen Positions-Schätzwert enthält, der einem identifizierten Fahrzeug entspricht.
  • Dabei kann wie oben beschrieben der Fern-Sensor 132-1 einen Lidar-Sensor, einen Radar-Sensor oder mehrere dieser Sensoren aufweisen.
  • Ferner kann eine von dem Ziel-Verfolger 132-3 generierte Bahn einen Kalman-Filter enthalten, der einen Positions-Schätzwert und eine Kovarianz eines Fehlers enthält. Dabei ist eine Kovarianz des in der Bahn enthaltenen Kalman-Filters in der durch die Gleichungen (1) und (2) beschriebenen Weise ausgelegt.
  • Anschließend kann in Schritt S920 der Ziel-Verfolger 132-3 einen Detektionsabschnitt berechnen, bei dem es sich um den Bereich handelt, in dem ein Hindernis für die Bahn detektiert worden ist.
  • Dabei kann auf der Basis einer Position des Objekts, die durch das Detektionssignal angegeben wird, eine Größe eines Detektionsabschnitts auf einen Anfangswert gesetzt werden. Ferner kann der Detektionsabschnitt als ein Abschnitt gesetzt werden, der in der Gauß'schen Wahrscheinlichkeitsverteilung einen Gate-Wahrscheinlichkeitswert oder einen geringeren Wert repräsentiert, der eine Rest-Kovarianz als Varianz hat.
  • Anschließend kann in Schritt S930 der Ziel-Verfolger 132-3 ein gültiges Detektionssignal, bei dem die Position des von dem Detektionssignal angezeigten Objekts in dem Detektionsabschnitt enthalten ist, aus dem Detektionssignal wählen.
  • Wie oben beschrieben kann das Detektionssignal einen Messwert der Position des Objekts enthalten, das von einem Peripherie-Suchsystem eines Fahrzeugs verfolgt wird, und der Ziel-Verfolger 132-3 kann einen gültigen Messwert des in dem Detektionsabschnitt enthaltenen Messwerts wählen, um den Kalman-Filter zu aktualisieren, und den aktualisierten Kalman-Filters zum Verfolgen eines Objekts verwenden.
  • Dabei kann der Ziel-Verfolger 132-3 basierend auf Fehlern eines Messwerts und einem Schätzwert der Position eines Objekts und einer Kovarianz jedes der Fehler feststellen, ob die Position des von dem Detektionssignal angezeigten Objekts in dem der Bahn entsprechenden Detektionsabschnitt enthalten ist.
  • Der Ziel-Verfolger 132-3 kann auf der Basis eines Status-Werts eines in einer aktuellen Bahn enthaltenen Kalman-Filters einen Bereich des Detektionsabschnitts setzen und unter Verwendung von Messwerten, die in dem Detektionsabschnitt enthalten sind, einen Status-Wert des Kalman-Filters aktualisieren. Der Ziel-Verfolger 132-3 kann hier einen Restwert auf der Basis des Messwerts und des Schätzwerts der Position des Objekts berechnen, eine Rest-Kovarianz auf der Basis des Beobachtungsmodells und einer Kovarianz eines in dem Kalman-Filter enthaltenen Schätzfehlers berechnen und auf der Basis des Restwerts und der Rest-Kovarianz feststellen, ob das Objekt in den Detektionsabschnitt eintritt. Ein Verfahren zum Berechnen des Restwerts und der Rest-Kovarianz und eines Zustands, in dem das Objekt in dem Detektionsabschnitt angeordnet ist, ist in Gleichung (8) angeführt. Die Rest-Kovarianz und ein Gate-Wahrscheinlichkeitswert, können durch den Kalman-Filter mit der Zeit optimiert werden, und somit kann der Detektionsabschnitt mit der Zeit optimiert werden.
  • Anschließend kann in Schritt S940, wenn ein Abstand zwischen einem in einer ersten Bahn enthaltenen Objekt-Positions-Schätzwert und einem in einer zweiten Bahn enthaltenen Objekt-Positions-Schätzwert kleiner ist als ein vorbestimmter Referenzwert, der Bahn-Manager 132-5 auf der Basis einer in dem Speicher 132-9 gespeicherten Historie die erste Bahn und die zweite Bahn initialisieren.
  • Die in dem Speicher 132-9 gespeicherte Historie kann einen Positions-Schätzwert, einen Positions-Messwert und einen Kovarianzwert eines über der Zeit auftretenden Schätzfehlers des in der Bahn enthaltenen Kalman-Filters aufweisen.
  • Wenn ein Positions-Schätzwert in der oben beschriebenen Weise aktualisiert wird, können je nach dem betreffenden Fall Objekte, die durch zwei Bahnen angezeigt sind, miteinander kollidieren. Wenn ein von einem Objekt angegebener Positions-Schätzwert auf einen Wert unterhalb eines vorgespeicherten Referenzwerts reduziert wird, kann der Bahn-Manager 132-5 feststellen, dass die von zwei Bahnen angezeigten Objekte miteinander kollidieren, und er kann auf der Basis von Daten, die in den Historien der beiden kollidierenden Bahnen enthalten sind, die Bahn initialisieren.
  • Anschließend kann in Schritt S950 der Bahn-Manager 132-5 das gewählte Detektionssignal und einen Positions-Schätzwert aktualisieren, der in einer Bahn enthalten ist, die einem Objekt entspricht, dessen Position in dem Detektionsabschnitt angeordnet ist.
  • Dabei kann zum Aktualisieren des Positions-Schätzwerts der Bahn-Manager 132-5 basierend auf einer Rest-Kovarianz und einer Kovarianz eines Schätzfehlers einen Kalman-Verstärkungsfaktor generieren und den Positions-Schätzwert unter Nutzung von Information über den aktuellen Zeitpunkt berechnen, und zwar auf der Basis eines Schätzwerts einer Position, die auf Basis des Kalman-Verstärkungsfaktors geschätzt wird, eines Positions-Messwerts eines Objekts und Information über einen vorherigen Zeitpunkt. Die Aktualisierung des Positions-Schätzwerts ist in Gleichung (9) ausgedrückt.
  • Anschließend, wenn sämtliche in einer Bahn enthaltenen Objekt-Positions-Schätzwerts nicht in einem der Bahn entsprechenden Detektionsabschnitt enthalten sind, kann der Bahn-Manager 132-5 auf der Basis einer in dem Speicher 132-9 gespeicherten Historie der Bahn die Bahn initialisieren und einen Vorgang beenden.
  • Dies bedeutet, dass, wenn ein von einer Bahn verfolgtes Objekt von dem Detektionsabschnitt abweicht oder das von der Bahn verfolgte Objekt als Rauschen oder Fehler angesehen wird und somit verschwindet, die Bahn nicht in der Lage sein kann, das Objekt zu verfolgen, und somit der Bahn-Manager 132-5 die Bahn initialisieren kann und ein neues Objekt verfolgen kann.
  • Wie oben beschrieben kann eine Bahn ein sich bewegendes Hindernis durch Verwendung des Kalman-Filters verfolgen. Wenn eine ein Objekt verfolgende Bahn nicht in der Lage ist, das Objekt zu verfolgen oder wenn zwei Bahnen miteinander kollidieren, kann eine Bahn initialisiert werden, und ein neues Objekt kann verfolgt werden. Dementsprechend wird eine Objekt-Identifikations-Leistung eines Peripherie-Status-Detektionssystems verbessert.
  • In der Bahn enthaltene Daten, die durch das vorstehend beschriebene Verfahren generiert oder aktualisiert werden, können zu der Fahrzeug-Steuervorrichtung 132-7 übertragen werden und zum Steuern eines Fahrzeugs verwendet werden, so dass das Fahrzeug ein Hindernis vermeidet oder eine Warnung ausgegeben wird.
  • Wie vorstehend beschrieben erfolgt bei der Fahrzeugsteuerungs-Vorrichtung und dem Fahrzeugsteuerungs-Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung ein dynamisches Aktualisieren eines gültigen Gates, das einen interessierenden Abschnitt (SOI) repräsentiert, der von dem Peripherie-Status-Detektionssystem eines Fahrzeugs verfolgt wird, um ein Hindernis zu sensieren, und somit wird ein in der Umgebung des Fahrzeugs befindliches Hindernis präzise verfolgt. Somit wird bei der Fahrzeugsteuerungs-Vorrichtung und dem Fahrzeugsteuerungs-Verfahren ein Abstand zu einem Hindernis vergrößert, dessen Position durch Verwendung lediglich eines Lidar-Sensors oder eines Radar-Sensors präzise verfolgt wird, so dass ein Unfall vermieden wird.
  • 10 zeigt ein Blockschaltbild zur Darstellung der detaillierten Konfiguration des Fahrer-Status-Sensierungssystems 160 gemäß 1.
  • Gemäß 10 kann das Fahrer-Status-Sensierungssystem 160 eine Erfassungseinheit 161, eine Steuereinheit 163 und eine Ausgabeeinheit 165 aufweisen.
  • Die Erfassungseinheit 161 kann ein Element zum Erfassen von Fahr-Manipulations-Information eines Fahrzeugs und Achtlosigkeits-Status-Information eines Fahrers sein. Dabei kann die Erfassungseinheit 161 eine Fahr-Manipulations-Sensierungseinheit 161A und eine Achtlosigkeits-Status-Sensierungseinheit 161B aufweisen. Die Erfassungseinheit 161 kann die Fahr-Manipulations-Information mittels der Fahr-Manipulations-Sensierungseinheit 161A erfassen und die Achtlosigkeits-Status-Information mittels der Achtlosigkeits-Status-Sensierungseinheit 161B erfassen.
  • Die Fahr-Manipulations-Sensierungseinheit 161A kann ein Element zum Erkennen der Manipulation einer Steuereinheit sein, deren Betrieb für das Fahren des Fahrzeugs erforderlich ist. Beispielsweise kann die Fahr-Manipulations-Sensierungseinheit 161A eine elektronische Steuereinheit (ECU) des Fahrzeugs oder ein separates Modul sein, das in der ECU enthalten ist.
  • Die Fahr-Manipulations-Sensierungseinheit 161A kann mehrere Manipulations-Sensierungseinheiten wie z. B. eine Gaspedal-Manipulations-Sensierungseinheit d1, eine Bremspedal-Manipulations-Sensierungseinheit d2, eine Multifunktions-Manipulations-Sensierungseinheit d3 und eine Steuergriff-Manipulations-Sensierungseinheit d4 aufweisen.
  • Gemäß 11A können die mehreren in der Fahr-Manipulations-Sensierungseinheit 161A enthaltenen Manipulations-Sensierungseinheiten Manipulationen zum Fahren des Fahrzeugs sensieren und z. B. mindestens eine Manipulation aus Gaspedal-(ACC pad-)Manipulation, Bremspedal-Manipulation, Multifunktions-Schalter-Manipulation und Steuergriff-Manipulation sensieren.
  • Ferner kann die Fahr-Manipulations-Sensierungseinheit 161A die Fahr-Manipulations-Information erfassen, zu der ferner die Kupplungspedal-Manipulation oder Getriebe-Manipulation eines Fahrzeugs mit Handschaltung zählt. In diesem Fall kann die Fahr-Manipulations-Sensierungseinheit 161A die Geschwindigkeit des Fahrzeugs prüfen, und wenn die Geschwindigkeit des Fahrzeugs gleich einer bestimmten Geschwindigkeit (z. B. 10 km/h) oder höher als diese ist, kann die Fahr-Manipulations-Sensierungseinheit 161A Fahr-Manipulations-Information erfassen.
  • Beispielsweise kann die Fahr-Manipulations-Sensierungseinheit 161A die Anzahl ”nA” von Operationen eines Gaspedals sensieren, das vom Fahrer während einer jeden bestimmten Zeitspanne innerhalb einer vorbestimmten Zeitdauer manipuliert wird. Zum Beispiel kann die Fahr-Manipulations-Sensierungseinheit 161A fortlaufend prüfen, ob das Gaspedal bei jeder Sekundendauer von 50 ms innerhalb einer Sekundendauer von 200 ms betätigt wird (ON).
  • Ebenso kann die Fahr-Manipulations-Sensierungseinheit 161A die Anzahlen ”nB” und ”nC” von Betätigungen des Bremspedals und des Kupplungspedals sensieren, die während einer jeden bestimmten Zeitdauer manipuliert werden.
  • Als weiteres Beispiel kann die Fahr-Manipulations-Sensierungseinheit 161A die Anzahl ”nM” von Betätigungen jedes Multifunktionsschalters sensieren, der von dem Fahrer während einer bestimmten Zeitdauer manipuliert wird. Hier kann es sich bei jedem Multifunktionsschalter um einen Schalter zum Betätigen eines Fahrzeug-Scheibenwischers oder einer Fahrzeug-Lampe wie z. B. eines Abbiegesignal-Blinkers handeln. Beispielsweise kann die Fahr-Manipulations-Sensierungseinheit 161A die Anzahl von Betätigungen eines Multifunktionsschalters zählen, der während einer Sekundendauer von 200 ms manipuliert wird.
  • Als weiteres Beispiel kann die Fahr-Manipulations-Sensierungseinheit 161A eine Winkelgeschwindigkeit eines Lenkrads sensieren, das vom Fahrer während einer bestimmten Zeitdauer manipuliert wird. In diesem Fall kann die Fahr-Manipulations-Sensierungseinheit 161A einen Winkelveränderungsbetrag des Lenkrads messen, um die Winkelgeschwindigkeit zu berechnen, ohne die Winkelgeschwindigkeit separat zu messen. Beispielsweise kann die Fahr-Manipulations-Sensierungseinheit 161A den Winkelveränderungsbetrag des Lenkrads messen, um die Winkelgeschwindigkeit bei jeder Sekundendauer von 50 ms innerhalb einer Sekundendauer von 200 ms zu berechnen.
  • Die Achtlosigkeits-Status-Sensierungseinheit 161B kann ein Element sein, um eine Bewegung des Fahrers und eine Manipulation einer Steuereinheit zu sensieren, die zusätzlich betätigt wird, wenn das Fahrzeug fährt. Die Achtlosigkeits-Status-Sensierungseinheit 161B kann mehrere Sensierungseinheiten wie z. B. eine Audiosignal-Eingabe-Sensierungseinheit T1, eine Klimatisierungssignal-Eingabe-Sensierungseinheit T2, eine Navigationssignal-Eingabe-Sensierungseinheit T3 etc. enthalten.
  • Ferner kann die Achtlosigkeits-Status-Sensierungseinheit 161B eine Schläfrigkeitsindex-Messeinheit P, eine Blickrichtungs-Messeinheit E und eine Sprachsensierungseinheit V enthalten, um eine Bewegung (einen visuellen Faktor oder einen verbalen Faktor) des Fahrers zu sensieren. Die mehreren Sensierungseinheiten und die mehreren Messeinheiten, die gemäß 10 in der Achtlosigkeits-Status-Sensierungseinheit 161B enthalten sind, können an einer bestimmten Position des Fahrzeugs vorgesehen sein und können Achtlosigkeits-Status-Information erfassen, und zwar auf der Basis von Information über mindestens einen Aspekt aus einer Manipulation einer Peripherievorrichtung, dem Gesichtsausdruck des Fahrers und der Stimme des Fahrers.
  • Beispielsweise kann die Achtlosigkeits-Status-Sensierungseinheit 161B die Anzahl ”nT” von Manipulationen von Peripherievorrichtungen sensieren, die vom Fahrer getätigt werden, während das Fahrzeug fährt. Hier kann es sich bei den Peripherievorrichtungen möglicherweise nicht um Vorrichtungen handeln, die – wie z. B. eine AVN oder eine Fahrzeug-Klimatisierungsanlage – für den vom Fahrer getätigten Fahrvorgang nötig sind, sondern es können Steuereinheiten sein, die für Zwecke der Bequemlichkeit des Fahrers oder eines Fahrzeug-Innenraums manipuliert werden. Beispielsweise kann, um Achtlosigkeits-Status-Information zu gewinnen, die Achtlosigkeits-Status-Sensierungseinheit 161B die Anzahl von Eingabevorgängen sensieren, die über Betätigungsschalter von Peripherievorrichtungen vorgenommen werden, welche vom Fahrer während einer bestimmten Zeitdauer manipuliert werden, während das Fahrzeug mit einer bestimmten Geschwindigkeit (z. B. 10 km/h) oder schneller fährt.
  • Als weiteres Beispiel kann die Achtlosigkeits-Status-Sensierungseinheit 161B die Stimme des Fahrers über ein Mikrophon sensieren, das an einer bestimmten Position in dem Fahrzeug angeordnet ist. Beispielsweise kann die Achtlosigkeits-Status-Sensierungseinheit 161B eine Sprechäußerungs-Erzeugungszeit und einen Impuls-Pegel (eine Stimmlage) von Sprech-Daten prüfen, die während einer bestimmten Zeit von dem Mikrophon her empfangen werden. Beispielsweise kann die Achtlosigkeits-Status-Sensierungseinheit 161B eine Zeit detektieren, während derer Sprechdaten, die einen Impuls-Pegel haben, der gleich einem Impuls-Schwellenwert oder höher als dieser ist, innerhalb einer bestimmten Zeitdauer (z. B. 200 ms) empfangen werden, um unter Verwendung des in einem Speicher gespeicherten Impuls-Schwellenwerts Achtlosigkeits-Status-Information zu gewinnen.
  • Als weiteres Beispiel kann die Achtlosigkeits-Status-Sensierungseinheit 161B ein Gesichtsbild des Fahrers von einer Kamera empfangen, die an einer bestimmten Position am Fahrzeug angeordnet ist, um Augen-Schließ-Information und Beobachtungs-Vernachlässigungs-Information des Fahrers zu erfassen. Dabei kann gemäß 11B die Kamera eine lichtemittierende Diode (LED) für Nah-Infrarot-Licht aufweisen, um zur Tages- und Nachtzeit ein Bild aufzuzeichnen.
  • Beispielsweise kann die Achtlosigkeits-Status-Sensierungseinheit 161B separat ein Augenbereichs-Bild des Fahrers aus einem Gesichtsbild des Fahrers extrahieren. In diesem Fall kann das Augenbereichs-Bild durch Bildverarbeitung aus dem Gesichtsbild des Fahrers extrahiert werden. Dies bedeutet, dass die Achtlosigkeits-Status-Sensierungseinheit 161B Achtlosigkeits-Status-Information, wie z. B. Schließen der Augen oder Beobachtungsvernachlässigung des Fahrers, auf der Basis des von der Kamera aufgenommenen Gesichtsbilds des Fahrers und des im Gesichtsbild enthaltenen Augenbereichs-Bilds erfassen kann.
  • Die Achtlosigkeits-Status-Sensierungseinheit 161B kann die Augen-Schließ-Information des Fahrers auf der Basis des aus dem Gesichtsbild des Fahrers extrahierten Augenbereichs-Bild erhalten.
  • Gemäß den 12A und 12B kann die Achtlosigkeits-Status-Sensierungseinheit 161B einen Augenlidbereich aus dem Augenbereichs-Bild sensieren, und wenn eine Summe von ∠A und ∠B, bei denen es sich um Winkel von Augenlidern handelt, gleich oder kleiner als ∠C ist, was ein vorbestimmter Winkel-Schwellenwert ist (∠A + ∠B ≤ ∠C), kann die Achtlosigkeits-Status-Sensierungseinheit 161B feststellen, dass der Fahrer die Augen schließt.
  • Die Achtlosigkeits-Status-Sensierungseinheit 161B kann die Winkel der Augen während einer vorbestimmten Zeitdauer prüfen, um die Häufigkeit zu erfassen, mit der der Fahrer die Augen schließt, und einen bestimmten Zeitwert und die Häufigkeit des Schließens der Augen des Fahrers berechnen, wodurch eine Schläfrigkeits-Zeit (ein Schläfrigkeits-Index) des Fahrers erhalten wird. Beispielsweise kann die Achtlosigkeits-Status-Sensierungseinheit 161B die Häufigkeit des Augen-Schließens messen (zählen), indem sie eine Sekunde in Abschnitte von 250 ms unterteilt, und wenn ein Zählwert 3 beträgt, kann eine Zeit (ein Schläfrigkeits-Index), während derer der Fahrer die Augen schließt, als 750 ms erkannt werden.
  • Ferner kann die Achtlosigkeits-Status-Sensierungseinheit 161B die Beobachtungs-Vernachlässigung des Fahrers auf der Basis des Gesichtsbilds des Fahrers und des im Gesichtsbild enthaltenen Augenbereichs-Bilds erfassen.
  • Gemäß 15A bis 15C kann in einem Beobachtungs-Vernachlässigungs-Bereich Beobachtungs-Vernachlässigungs-Information erfasst werden, indem geprüft wird (Blickrichtung), ob ein Sichtbereich des Fahrers innerhalb einer visuellen Distanz ”η” liegt, in dem keine Last existiert, wenn das Fahrzeug fährt, und zwar basierend auf einem Winkel eines Fahrzeugrads (d. h. einem Winkelveränderungsbetrag (ΘA oder ΘB in 15A) eines Rads in einer Mitte des Fahrzeugs) anstelle eines Winkels eines Lenkrads. Der Sichtbereich kann durch das Durchführen einer Operation geprüft werden, bei der ein Winkel eines Gesichts (α in 15B) aus dem von der Kamera her empfangenen Gesichtsbilds des Fahrers berechnet wird und dann eine Position (Pupillenposition) einer Pupille (β in 15C) in dem Augenbereichsbild gemessen wird.
  • Im Einzelnen kann in einem Fall, in dem sich ein Schalthebel auf D-Schaltung oder N-Schaltung befindet und dabei ein Winkel des Lenkrads innerhalb eines bestimmten Winkelbereichs liegt, in einer Situation, in welcher der Sichtbereich des Fahrers während einer bestimmten Zeit nicht in einen visuellen Bereich (a, b) mit Fahr-Nicht-Last eintritt, die Achtlosigkeits-Status-Sensierungseinheit 161B eine Beobachtungs-Vernachlässigung feststellen, eine entsprechende Zeit überprüfen und die Beobachtungs-Vernachlässigungs-Information erfassen. Beispielsweise kann in einem Fall, in dem ein Winkel eines Lenkrads weniger als ±15 Grad beträgt und dabei eine Geschwindigkeit des Fahrzeugs 10 km/h oder mehr beträgt und der Schalthebel sich auf D-Schaltung oder N-Schaltung befindet, in einer Situation, in welcher der Sichtbereich des Fahrers während 1,5 Sekunden oder mehr nicht in einen visuellen Bereich (a, b) mit Fahr-Nicht-Last eintritt, die Achtlosigkeits-Status-Sensierungseinheit 161B eine Aufmerksamkeits-Vernachlässigung in Bezug auf den vor dem Fahrzeug gelegenen Bereich feststellen.
  • Die Steuereinheit 163 kann ein Element sein, das eine Gesamt-Operation des Fahrer-Status-Detektionssystems 160 steuert, und sie kann als elektronische Einheit ausgebildet sein. Beispielsweise kann die Steuereinheit 163 als Fahr-Betriebslast-Berechnungseinheit (DWC) bezeichnet werden.
  • Im Einzelnen kann die Steuereinheit 163 auf der Basis der Fahr-Manipulations-Information und der Achtlosigkeits-Status-Information, die aus der Erfassungseinheit 161 erhalten werden, eine Fahr-Manipulations-Last und eine Fahr-Unterbrechungs-Last berechnen.
  • Ferner kann die Steuereinheit 163 die Fahr-Manipulations-Last mit der Fahr-Unterbrechungs-Last vergleichen, um festzustellen, ob ein Fahr-Status des Fahrers ein Sicherheits-Fahrstatus ist, und wenn festgestellt wird, dass der Fahr-Status des Fahrers nicht der Sicherheits-Fahrstatus ist, kann die Steuereinheit 163 die Ausgabeeinheit 165 dahingehend steuern, dass eine Warn-Information ausgegeben wird.
  • Zunächst kann die Steuereinheit 163 die Fahr-Manipulations-Last und die Fahr-Unterbrechungs-Last auf der Basis der Fahr-Manipulations-Information und der Achtlosigkeits-Status-Information berechnen, die aus der Erfassungseinheit 161 erhalten werden.
  • Beispielsweise kann die Steuereinheit 163 die Fahr-Manipulations-Last ”Wd” auf der Basis der Fahr-Manipulations-Information berechnen, die von der Fahr-Manipulations-Sensierungseinheit 161A der Erfassungseinheit 161 her erhalten wird.
  • Im Einzelnen kann die Steuereinheit 163 die Fahr-Manipulations-Information von der Fahr-Manipulations-Sensierungseinheit 161A her erfassen, einen gegenstandsbasierten Gewichtungswert der Fahr-Manipulations-Information aus dem Speicher lesen und die Fahr-Manipulations-Last berechnen.
  • Der Gewichtungswert kann hier ein Wert sein, der für jeden Gegenstand der Fahr-Manipulations-Information durch verschiedene Experimente extrahiert und vorbestimmt wird. Alternativ kann der Gewichtungswert ein Wert sein, der durch einen Arbeiter beliebig für jeden Gegenstand vorbestimmt wird. Der Speicher kann auch eine Speichervorrichtung zum Speichern von Daten sein und kann z. B. ein nichtflüchtiger Speicher sein.
  • Ferner kann die Steuereinheit 163 auf der Basis eines Gegenstands, der in der Fahr-Manipulations-Information enthalten ist, und eines dem Gegenstand entsprechenden Gewichtswerts für jede Gegenstand eine Last berechnen. Beispielsweise kann, wenn Fahr-Manipulations-Information in Form von Gaspedal-Manipulation, Bremspedal-Manipulation, Multifunktions-Schalter-Manipulation und Steuergriff-Manipulation von der Erfassungseinheit 161 her empfangen worden ist, die Steuereinheit 163 aus dem Speicher einen Gewichtungswert ”DA” der Gaspedal-Manipulation, einen Gewichtungswert ”DB” der Bremspedal-Manipulation, einen Gewichtungswert ”DM” der Multifunktions-Schalter-Manipulation und einen Gewichtungswert ”Θ” der Steuergriff-Manipulation lesen.
  • Beispielsweise kann, wenn die Zeit-Information und die Häufigkeits-Information jedes Gegenstands von der Erfassungseinheit 161 her in Einheiten von 50 ms pro Sekundendauer von 200 ms erfasst worden sind, die von der Steuereinheit 163 für eine Sekundendauer von 200 ms berechnete Fahr-Manipulationslast ”Wd” durch die folgende Gleichung (10) ausgedrückt werden: Wd = DA × nA × 50 ms + DB × nB × 50 ms + DC × nC × 50 ms + DM × nM + θ × n0 × 50 ms (10)
  • Jeder in der Fahr-Manipulations-Information enthaltene Gegenstand kann je nach Einzelfall addiert oder subtrahiert werden. Beispielsweise kann, wenn je nach dem Typ des Fahrzeugs Kupplungspedal-Manipulation und Getriebe-Manipulation in der Fahr-Manipulations-Information enthalten sind, die Steuereinheit 163 die Fahr-Manipulations-Last ferner unter Berücksichtigung eines Gewichtungswerts der Kupplungspedal-Manipulation und eines Gewichtungswerts der Getriebe-Manipulation berechnen.
  • Als weiteres Beispiel kann die Steuereinheit 163 die Fahr-Unterbrechungs-Last ”Wi” auf der Basis der von der Achtlosigkeits-Status-Sensierungseinheit 161B der Erfassungseinheit 161 her erhaltenen Achtlosigkeits-Status-Information berechnen. Im Einzelnen kann die Steuereinheit 163 Lasten der Gegenstände berechnen, die in der von der Achtlosigkeits-Status-Sensierungseinheit 161B her erfassten Achtlosigkeits-Status-Information enthalten sind, und die berechneten Lasten der Gegenstände summieren, um die Fahr-Unterbrechungs-Last zu berechnen.
  • Die Steuereinheit 163 kann eine Peripherievorrichtungs-Manipulations-Last ”T(n)” auf der Basis der Anzahl von Manipulationen von Peripherievorrichtungen berechnen, die von der Achtlosigkeits-Status-Sensierungseinheit 161B der Erfassungseinheit 161 her erhalten werden.
  • Beispielsweise kann die Steuereinheit 163 die Peripherievorrichtungs-Manipulations-Last ferner unter Berücksichtigung eines Gewichtungswerts einer Peripherievorrichtungs-Manipulation berechnen, der in dem Speicher gespeichert ist. Beispielsweise kann, wenn die Anzahl von Eingabevorgängen einer Peripherievorrichtungs-Manipulation, die von dem Fahrer für eine Sekundendauer von 20 ms vorgenommen werden, aus der Erfassungseinheit 161 erfasst wird, die Steuereinheit 163 eine arithmetische Operation an der Anzahl von Eingabevorgängen der Peripherievorrichtungs-Manipulation und einem Gewichtungswert durchführen, um die Peripherievorrichtungs-Manipulations-Last ”T(n)” zu berechnen.
  • Ferner kann die Steuereinheit 163 eine Sprech-Last ”V(n)” auf der Basis von Sprech-Daten des Fahrers berechnen, die von der Achtlosigkeits-Status-Sensierungseinheit 1616 der Erfassungseinheit 161 her erhalten werden. Im Einzelnen kann die Steuereinheit 163 die Sprech-Last auf der Basis eines in dem Speicher gespeicherten Impuls-Schwellenwerts der Sprech-Daten berechnen. Beispielsweise kann die Steuereinheit 163 eine Zeit berechnen, zu der in den Sprech-Daten des Fahrers, die von der Achtlosigkeits-Status-Sensierungseinheit 1616 der Erfassungseinheit 161 her innerhalb einer bestimmten Zeit (z. B. 200 ms) empfangen werden, Sprech-Daten mit dem Impuls-Schwellenwert oder einem höheren Wert empfangen werden, wodurch eine Sprech-Last ”V(t)” berechnet wird.
  • Ferner kann die Steuereinheit 163 eine Schläfrigkeits-Last ”P(t)” und eine Fahr-Beobachtungs-Vernachlässigungs-Last ”E(t)” auf der Basis der Augen-Schließ-Information und der Beobachtungs-Vernachlässigungs-Information berechnen, die in der aus der Achtlosigkeits-Status-Sensierungseinheit 1616 der Erfassungseinheit 161 erhaltenen Achtlosigkeits-Status-Information enthalten sind.
  • Entsprechend den Diagrammen gemäß den 13A bis 13F kann, wenn sich der Fahrer in einem trägen Zustand befindet, eine Veränderungsbreite in dem Diagramm in sehr stabiler Weise eng sein, jedoch kann ein PERCLOS-Wert während eines Trägheits-Status des Fahrers eine sehr massive Veränderung erfahren und in seinem gesamten numerischen Wert höher als der Trägheits-Status sein. Der PERCLOS-Wert kann hier durch die folgende Gleichung (11) ausgedrückt werden: PERCLOS (%) Akkumulation der Augen-Schließzeit / bestimmte Messzeit für die Akkumulation × 100 (11)
  • Basierend auf dem Diagramm gemäß 13A bis 13F kann, wenn die Steuereinheit 163 festgestellt hat, dass der PERCLOS-Wert eine bestimmte Prozentzahl (30%) oder eine höhere Prozentzahl erreicht hat, nämlich wenn die Achtlosigkeits-Status-Sensierungseinheit 161B festgestellt hat, dass der Fahrer die Augen während einer bestimmten Zeit (z. B. 75 Sekunden) relativ zu einer bestimmten Zeitdauer (z. B. 250 Sekunden) geschlossen hatte, die Steuereinheit 163 die Ausgabeeinheit 165 dahingehend steuern, dass diese einen Fahrzeug-Warnton ausgibt. Dies hat den Zweck, dass, wenn im Anschluss an die Feststellung, dass der Fahrer die Augen während einer bestimmten Zeit oder länger geschlossen hat, das Fahren des Fahrers als schläfriges Fahren eingeschätzt wird, unmittelbar ein Warnton an den Fahrer auszugegeben wird, da Fahren im schläfrigen Zustand den höchsten Gefahrenfaktor beim Fahren eines Fahrzeugs darstellt.
  • Im Folgenden wird eine Operation, in der die Steuereinheit 163 das Schließen der Augen des Fahrers prüft, anhand des Flussdiagramms gemäß 14 beschrieben.
  • Im Einzelnen kann in Schritt S1410 die Steuereinheit 163 feststellen, ob eine Fahrzeuggeschwindigkeit ”V” eine bestimmte Geschwindigkeit (z. B. V ≥ 10 km/h) oder eine höhere Geschwindigkeit ist. Wenn festgestellt wird, dass die Fahrzeuggeschwindigkeit ”V” die bestimmte Geschwindigkeit oder eine höhere Geschwindigkeit ist, kann die Steuereinheit 163 unter Verwendung der Achtlosigkeits-Status-Sensierungseinheit 161B die Anzahl ”y” des Augen-Schließens anhand eines Winkels eines Augenlids pro bestimmter Zeit ”x” (z. B. 250 ms oder 0,25 s) innerhalb einer bestimmten Mess-Zeitdauer ”N” prüfen, um eine Augen-Schließ-Zeit (eine Schläfrigkeits-Zeit) des Fahrers zu berechnen.
  • In Schritt S1420 kann die Steuereinheit 163 feststellen, ob der Winkel des Augenlids ∠A + ∠B ≤ ∠C erfüllt. Wenn der Winkel des Augenlids ∠A + ∠B ≤ ∠C erfüllt, kann die Steuereinheit 163 das Schließen der Augen des Fahrers feststellen, indem sie in Schritt S1430 die Anzahl des Augen-Schließens zählt (y++).
  • Die Steuereinheit 163 kann die Anzahl ”y” des Augen-Schließens pro bestimmter Zeit ”x” zählen (x+ = 0.25, y++), und wenn in Schritt S1440 die Anzahl des Augen-Schließens für eine Sekunde drei beträgt (x = 1, y = 3), kann in Schritt S1450 die Steuereinheit 163 einen Duldungs-Faktor-Wert ”P” zählen (P++) und die Operation wiederholen, während (N++) jedes Mal um eine Sekunde erhöht wird.
  • Beispielsweise kann, wenn in Schritt S1460 der Duldungs-Faktor-Wert ”P” innerhalb einer Mess-Zeit von 250 Sekunden 100 oder mehr beträgt, die Steuereinheit 163 die Ausgabeeinheit 165 dahingehend steuern, dass diese in Schritt S1470 ein Warn-Ereignis erzeugt. Zu dieser Zeit kann die Steuereinheit 163 den Duldungs-Faktor-Wert ”P” zu 99 ändern, den Messwert ”N” um eine Sekunde reduzieren (P-99, N– = 1), die oben beschriebenen Schritte wiederholen und eine Augen-Schließ-Zeit (eine Schläfrigkeitszeit) des Fahrers berechnen. Zudem kann die Steuereinheit 163 einen Fall prüfen, in dem der PERCLOS-Wert 30% während einer bestimmten Zeit oder mehr beträgt, und dadurch die Schläfrigkeits-Last ”P(t)” berechnen.
  • Ferner kann die Steuereinheit 163 die Beobachtungs-Vernachlässigungs-Last ”E(t)” auf der Basis der von der Achtlosigkeits-Status-Sensierungseinheit 161B her erhaltenen Vernachlässigungs-Information berechnen.
  • Gemäß 15A kann, wenn ein Sichtbereich von der visuellen Distanz ”η” abweicht, in der beim Fahren keine Last existiert, ein Faktor-Wert des Last-Faktors ”P” entsprechend einem Abweichungsbereich verändert werden.
  • Wenn ein Abweichungsbereich (a', b') vorbestimmt ist, kann die Steuereinheit für jeden Bereich, der einem aktuellen Sichtbereich des Fahrers entspricht, einen Faktor-Wert eines Last-Faktors aus dem Speicher lesen und dadurch die Beobachtungs-Vernachlässigungs-Last ”E(t)” berechnen.
  • Die Steuereinheit 163 kann an der berechneten Peripherievorrichtungs-Manipulations-Last ”T(n)”, der Sprech-Last ”V(t)”, der Schläfrigkeits-Last ”P(t)” und der Beobachtungs-Vernachlässigungs-Last ”E(t)” eine arithmetische Operation vornehmen, um die Fahr-Unterbrechungs-Last ”Wi” zu berechnen.
  • Ferner kann je nach dem Status des Fahrzeugs und dem Fall mindestens eine der basierend auf der Beobachtungs-Status-Information erfassten Lasten möglicherweise nicht für das Berechnen der Fahr-Unterbrechungs-Last herangezogen werden.
  • Die Steuereinheit 163 kann die Fahr-Manipulationslast ”Wd” mit der Fahr-Unterbrechungs-Last ”Wi” vergleichen, um einen Sicherheits-Fahr-Status des Fahrers zu bestimmen.
  • Im Einzelnen kann, wenn ein Wert der Fahr-Unterbrechungs-Last ”Wi”, der von der Fahr-Manipulationslast ”Wd” subtrahiert wird, gleich einer vorbestimmten Ersatz-Last ”Wi” oder kleiner als diese ist, die Steuereinheit 163 feststellen, dass sich der Fahrer nicht in einem Sicherheits-Fahr-Status befindet. Die vorbestimmte Ersatz-Last ”Wl” kann hier ein Wert sein, der durch ein Experiment, das auf einem Zustand eines erfahrenen Fahrers basiert, aus einer Fahr-Manipulationslast und einer Fahr-Information (einschließlich eines Gang-Änderungs-Status, einer Fahrzeug-Beschleunigung, eines Lenkvorgangs und/oder dgl.) extrahiert wird und in dem Speicher gespeichert wird, und kann in Abhängigkeit von einem Fahrzustand variiert werden (Wd ∝ Wl). Dies bedeutet, dass ein durch die folgende Gleichung (12) ausgedrückter Zustand erfüllt werden kann, um einen Fahr-Status des Fahrers als Sicherheits-Fahr-Status zu bestimmen:
    Figure DE102015210630A1_0006
    wobei t einen Zeit-Wert bezeichnet und n ein Häufigkeits-Wert ist.
  • Die Ausgabeeinheit 165 kann ein Element zum Ausgeben eines Bilds und eines Warntons sein und kann eine Flüssigkristallanzeige (LCD) und einen Lautsprecher aufweisen. Beispielsweise kann gemäß 16(b) die Ausgabeeinheit 165 das Bild und den Warnton durch einen Cluster ausgeben. Alternativ kann die Ausgabeeinheit 165 das Bild mittels einer Audio-Anzeigevorrichtung anzeigen. Ferner kann gemäß 16(a) die Ausgabeeinheit 165 ein Sicherheits-Fahr-Status-Bestimmungs-Ergebnis und dessen Ergebniswert, die seitens der Steuereinheit 163 erhalten werden, auf dem Bildschirm in Stabdiagramm-Form anzeigen. In diesem Fall kann das Stabdiagramm in verschiedenen Farben angezeigt werden.
  • Beispielsweise kann die Steuereinheit 163 die Ausgabeeinheit 165 derart steuern, dass diese Information über eine aktuelle Last, die auf einer Differenz zwischen der Fahr-Manipulationslast und der Fahr-Unterbrechungs-Last basiert, in Form eines Stabdiagramms auf einem Bildschirm ausgibt.
  • Im Einzelnen kann ein Ergebniswert ”C”, der erhalten wird, indem eine Differenz zwischen der Fahr-Manipulationslast ”Wd” und der Fahr-Unterbrechungs-Last ”Wi”, die von der Steuereinheit 163 errechnet wird, durch die Ersatz-Last ”Wl” dividiert wird, als Prozent-Einheit des Stabdiagramms gezeigt werden.
  • Beispielsweise wird ein Fall, in dem das Fahren des Fahrzeugs Schwierigkeiten bereitet, auf 75% eingestellt, und wenn der Ergebniswert ”C” auf 75% oder höher liegt, kann die Steuereinheit 163 die Ausgabeeinheit 165 derart steuern, dass diese das Stabdiagramm in Rot anzeigt. Ferner kann die Steuereinheit 163 durch Steuern der Ausgabeeinheit 165 dahingehend, dass das Stabdiagramm flimmert, den Fahrer vor einer beim Fahren des Fahrzeugs auftretenden Gefahr warnen.
  • In diesem Fall kann die Steuereinheit 163 die Ausgabeeinheit 165 zum Ausgeben des Warntons steuern, so dass eine Warnung an den Fahrer ergeht.
  • Wenn der Ergebniswert ”C” weniger als 75% beträgt, kann das Stabdiagramm in grün angezeigt werden und somit den Fahrer darüber informieren, dass ein Sicherheits-Status vorliegt.
  • Ferner kann, wenn der Ergebniswert ”C”, der mittels Dividierens einer Differenz zwischen der Fahr-Manipulationslast ”Wd” und der Fahr-Unterbrechungs-Last ”Wi” durch die Ersatz-Last ”Wl” erhalten wird, gleich einem bestimmten Niveau (z. B. 85%) ist oder über diesem liegt, die Steuereinheit 163 zwangsweise die Energiezufuhr zu einer AVN abschalten, die keine Schwierigkeiten hat, das sichere Fahren des Fahrzeugs zu handhaben.
  • Ferner kann die Steuereinheit 163 die Lautstärke des von der Ausgabeeinheit 165 ausgegebenen Warntons derart erhöhen, dass sie der Energie des Ergebniswerts ”C” proportional ist, so dass der Fahrer eine eindringliche Warnung vor einer Fahr-Gefahrensituation erhält.
  • Wie oben beschrieben kann mittels der vorliegenden Erfindung eine Fahr-Last, die beim Fahren eines Fahrzeugs auftritt, mit einer Fahr-Unterbrechungs-Last verglichen werden, die das Fahren des Fahrzeugs unterbricht, wie z. B. einer Peripherievorrichtung, Schläfrigkeit des Fahrers und/oder dgl., und somit kann der Sicherheits-Fahr-Status des Fahrers geprüft werden. Mittels der vorliegenden Erfindung kann eine Warnung an den Fahrer ausgegeben werden, wenn eine Last zum Unterbrechen des Fahrens des Fahrzeugs hoch ist, und je nach Fall kann mittels der vorliegenden Erfindung der Betrieb eines Elements (z. B. einer Peripherievorrichtung), das nicht wesentlich für das Fahren des Fahrzeugs ist, zwangsweise gestoppt werden, um die das Fahren des Fahrzeugs unterbrechende Fahr-Unterbrechungs-Last zu reduzieren, so dass der Fahrer befähigt wird, das Fahrzeug sicher zu fahren.
  • 17 zeigt ein Flussdiagramm zur Veranschaulichung eines Fahrer-Status-Sensierungsverfahrens gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Zunächst kann in Schritt S1710 das Fahrer-Status-Sensierungssystem 160 Fahr-Manipulations-Information und Achtlosigkeits-Status-Information eines Fahrers erfassen.
  • Im Einzelnen kann das Fahrer-Status-Sensierungssystem 160 Fahr-Manipulationen von Fahr-Steuereinheiten, die wesentlich für das Fahren des Fahrzeugs sind, sensieren, um Fahr-Manipulations-Information zu erhalten.
  • Beispielsweise kann das Fahrer-Status-Detektionssystem 160 Fahr-Manipulations-Information durch Sensieren mindestens einen Elements aus Gaspedal-(ACC pad-)Manipulation, Bremspedal-Manipulation, Multifunktions-Schalter-Manipulation und Steuergriff-Manipulation erhalten. In diesem Fall kann das Fahrer-Status-Sensierungssystem 160 die Geschwindigkeit des Fahrzeugs prüfen, und wenn die Geschwindigkeit des Fahrzeugs gleich einer bestimmten Geschwindigkeit (z. B. 10 km/h) oder höher als diese ist, kann das Fahrer-Status-Sensierungssystem 160 die Fahr-Manipulations-Information erfassen.
  • Beispielsweise kann das Fahrer-Status-Sensierungssystem 160 die Anzahl ”nA” von Operationen eines Gaspedals sensieren, das vom Fahrer während einer jeden bestimmten Zeitspanne innerhalb einer vorbestimmten Zeitdauer manipuliert wird. Ebenso kann das Fahrer-Status-Sensierungssystem 160 die Anzahlen ”nB” und ”nC” von Betätigungen des Bremspedals und des Kupplungspedals sensieren, die während einer jeden bestimmten Zeitdauer manipuliert werden.
  • Als weiteres Beispiel kann das das Fahrer-Status-Sensierungssystem 160 die Anzahl ”nM” von Betätigungen jedes Multifunktionsschalters sensieren, der von dem Fahrer während einer bestimmten Zeitdauer manipuliert wird. Hier kann es sich bei jedem Multifunktionsschalter um einen Schalter zum Betätigen eines Fahrzeug-Scheibenwischers oder einer Fahrzeug-Lampe wie z. B. eines Abbiegesignal-Blinkers handeln.
  • Als weiteres Beispiel kann das Fahrer-Status-Sensierungssystem 160 eine Winkelgeschwindigkeit eines Lenkrads sensieren, das vom Fahrer während einer bestimmten Zeitdauer manipuliert wird. In diesem Fall kann das Fahrer-Status-Sensierungssystem 160 einen Winkelveränderungsbetrag des Lenkrads messen, um die Winkelgeschwindigkeit zu berechnen, ohne die Winkelgeschwindigkeit separat zu messen.
  • Ferner kann das Fahrer-Status-Sensierungssystem 160 Achtlosigkeits-Status-Information erfassen, und zwar auf der Basis einer Peripherievorrichtung, die separat von dem Fahrer gesteuert wird, während das Fahrzeug fährt, auf der Basis der Stimme des Fahrers und auf der Basis von Gesichts-Information.
  • Beispielsweise kann das Fahrer-Status-Sensierungssystem 160 die Anzahl ”nT” von Manipulationen von Peripherievorrichtungen sensieren, die vom Fahrer getätigt werden, während das Fahrzeug fährt. Hier kann es sich bei den Peripherievorrichtungen möglicherweise nicht um Vorrichtungen handeln, die – wie z. B. eine AVN oder eine Fahrzeug-Klimatisierungsanlage – für den vom Fahrer getätigten Fahrvorgang essentiell sind, sondern es können Steuereinheiten sein, die für Zwecke der Bequemlichkeit des Fahrers oder eines Fahrzeug-Innenraums manipuliert werden.
  • Als weiteres Beispiel kann das Fahrer-Status-Sensierungssystem 160 die Stimme des Fahrers über ein Mikrophon sensieren, das an einer bestimmten Position in dem Fahrzeug angeordnet ist. Beispielsweise kann das Fahrer-Status-Sensierungssystem 160 eine Sprechäußerungs-Erzeugungszeit und einen Impuls-Pegel (eine Stimmlage) von Sprech-Daten prüfen, die während einer bestimmten Zeit von dem Mikrophon her empfangen werden.
  • Als weiteres Beispiel kann das Fahrer-Status-Sensierungssystem 160 ein Gesichtsbild des Fahrers von einer Kamera empfangen, die an einer bestimmten Position am Fahrzeug angeordnet ist, um Augen-Schließ-Information und Beobachtungs-Vernachlässigungs-Information des Fahrers zu erfassen. Dabei kann gemäß 11B die Kamera eine lichtemittierende Diode (LED) für Nah-Infrarot-Licht aufweisen, um zur Tages- und Nachtzeit ein Bild aufzuzeichnen.
  • Beispielsweise kann das Fahrer-Status-Sensierungssystem 160 separat ein Augenbereichs-Bild des Fahrers aus einem Gesichtsbild des Fahrers extrahieren. In diesem Fall kann das Augenbereichs-Bild durch Bildverarbeitung aus dem Gesichtsbild des Fahrers extrahiert werden. Dies bedeutet, dass das Fahrer-Status-Sensierungssystem 160 Achtlosigkeits-Status-Information, wie z. B. Schließen der Augen oder Beobachtungs-Vernachlässigung des Fahrers, auf der Basis des von der Kamera aufgenommenen Gesichtsbilds des Fahrers und des im Gesichtsbild enthaltenen Augenbereichs-Bilds gewinnen kann.
  • Das Fahrer-Status-Sensierungssystem 160 kann die Augen-Schließ-Information des Fahrers auf der Basis des aus dem Gesichtsbild des Fahrers extrahierten Augenbereichs-Bild erfassen. Gemäß den 12A und 126 kann das Fahrer-Status-Sensierungssystem 160 einen Augenlidbereich aus dem Augenbereichs-Bild sensieren, und wenn eine Summe von ∠A und ∠B, bei denen es sich um Winkel von Augenlidern handelt, gleich oder kleiner als ∠C ist, was ein vorbestimmter Winkel-Schwellenwert ist (∠A + ∠B ≤ ∠C), kann die Achtlosigkeits-Status-Sensierungseinheit 161B feststellen, dass der Fahrer die Augen schließt.
  • Das Fahrer-Status-Sensierungssystem 160 kann die Winkel der Augen während einer vorbestimmten Zeitdauer prüfen, um die Anzahl zu sensieren, die der Fahrer die Augen schließt, und einen bestimmten Zeitwert und die Anzahl des Schließens der Augen des Fahrers berechnen, wodurch eine Schläfrigkeits-Zeit (ein Schläfrigkeits-Index) des Fahrers erhalten wird.
  • Ferner kann das Fahrer-Status-Sensierungssystem 160 die Beobachtungs-Vernachlässigung des Fahrers auf der Basis des Gesichtsbilds des Fahrers und des im Gesichtsbild enthaltenen Augenbereichs-Bilds erfassen.
  • Gemäß 15A bis 15C kann in einem Beobachtungs-Vernachlässigungs-Bereich Beobachtungs-Vernachlässigungs-Information erfasst werden, indem geprüft wird (Blickrichtung), ob ein Sichtbereich des Fahrers innerhalb einer visuellen Distanz ”η” liegt, in dem keine Last existiert, wenn das Fahrzeug fährt, und zwar basierend auf einem Winkel eines Fahrzeugrads (d. h. einem Winkelveränderungsbetrag (ΘA oder Θ6 in 15A) eines Rads in einer Mitte des Fahrzeugs) anstelle eines Winkels eines Lenkrads. Der Sichtbereich kann durch das Durchführen einer Operation geprüft werden, bei der ein Winkel eines Gesichts (α in 15B) aus dem von der Kamera her empfangenen Gesichtsbilds des Fahrers berechnet wird und dann eine Position (Pupillenposition) einer Pupille (β in 15C) in dem Augenbereichsbild gemessen wird.
  • Im Einzelnen kann in einem Fall, in dem sich ein Schalthebel auf D-Schaltung oder N-Schaltung befindet und dabei ein Winkel des Lenkrads innerhalb eines bestimmten Winkelbereichs liegt, in einer Situation, in welcher der Sichtbereich des Fahrers während einer bestimmten Zeit nicht in einen visuellen Bereich (a, b) mit Fahr-Nicht-Last eintritt, das Fahrer-Status-Sensierungssystem 160 eine Beobachtungs-Vernachlässigung feststellen, eine entsprechende Zeit überprüfen und die Beobachtungs-Vernachlässigungs-Information erfassen.
  • Zunächst kann in Schritt 1720 das Fahrer-Status-Sensierungssystem 160 die Fahr-Manipulationslast und die Fahr-Unterbrechungs-Last auf der Basis der Fahr-Manipulations-Information und der Achtlosigkeits-Status-Information berechnen, die in Schritt S1710 erfasst wurde.
  • Beispielsweise kann das Fahrer-Status-Sensierungssystem 160 die Fahr-Manipulations-Last ”Wd” auf der Basis der Fahr-Manipulations-Information berechnen. Im Einzelnen kann das Fahrer-Status-Sensierungssystem 160 die Fahr-Manipulations-Information erfassen, einen gegenstandsbasierten Gewichtungswert der Fahr-Manipulations-Information aus dem Speicher lesen und die Fahr-Manipulations-Last berechnen.
  • Der Gewichtungswert kann hier ein Wert sein, der für jeden Gegenstand der Fahr-Manipulations-Information durch verschiedene Experimente extrahiert und vorbestimmt wird. Alternativ kann der Gewichtungswert ein Wert sein, der durch einen Arbeiter beliebig für jeden Gegenstand vorbestimmt wird.
  • Ferner kann das Fahrer-Status-Sensierungssystem 160 auf der Basis eines Gegenstands, der in der Fahr-Manipulations-Information enthalten ist, und eines dem Gegenstand entsprechenden Gewichtswerts für jede Gegenstand eine Last berechnen. Beispielsweise kann, wenn Fahr-Manipulations-Information in Form von Gaspedal-Manipulation, Bremspedal-Manipulation, Multifunktions-Schalter-Manipulation und Steuergriff-Manipulation empfangen worden ist, das Fahrer-Status-Sensierungssystem 160 aus dem Speicher einen Gewichtungswert ”DA” der Gaspedal-Manipulation, einen Gewichtungswert ”DB” der Bremspedal-Manipulation, einen Gewichtungswert ”DM” der Multifunktions-Schalter-Manipulation und einen Gewichtungswert ”Θ” Steuergriff-Manipulation lesen. Beispielsweise kann, wenn die Zeit-Information und die Häufigkeits-Information jedes Gegenstands in Einheiten von 50 ms innerhalb einer Sekundendauer von 200 ms erfasst worden sind, die Fahr-Manipulationslast ”Wd” für eine Sekundendauer von 200 ms durch die Gleichung (10) ausgedrückt werden.
  • Als weiteres Beispiel kann das Fahrer-Status-Sensierungssystem 160 die Fahr-Unterbrechungs-Last ”Wi” auf der Basis der Achtlosigkeits-Status-Information berechnen. Im Einzelnen kann Fahrer-Status-Sensierungssystem 160 Lasten der Gegenstände berechnen, die in der Achtlosigkeits-Status-Information enthalten sind, und die berechneten Lasten der Gegenstände summieren, um die Fahr-Unterbrechungs-Last zu berechnen.
  • Das Fahrer-Status-Sensierungssystem 160 kann eine Peripherievorrichtungs-Manipulations-Last ”T(n)” auf der Basis der Anzahl von Manipulationen von Peripherievorrichtungen berechnen. Beispielsweise kann das Fahrer-Status-Sensierungssystem 160 die Peripherievorrichtungs-Manipulations-Last ferner unter Berücksichtigung eines Gewichtungswerts einer Peripherievorrichtungs-Manipulation berechnen, der in dem Speicher gespeichert ist. Beispielsweise kann, wenn die Anzahl von Eingabevorgängen einer Peripherievorrichtungs-Manipulation, die von dem Fahrer für eine Sekundendauer von 20 ms vorgenommen werden, erfasst wird, das Fahrer-Status-Sensierungssystem 160 eine arithmetische Operation an der Anzahl von Eingabevorgängen der Peripherievorrichtungs-Manipulation und einem Gewichtungswert durchführen, um die Peripherievorrichtungs-Manipulations-Last ”T(n)” zu berechnen.
  • Ferner kann das Fahrer-Status-Sensierungssystem 160 eine Sprech-Last ”V(n)” auf der Basis erfasster Sprech-Daten des Fahrers berechnen. Im Einzelnen kann das Fahrer-Status-Sensierungssystem 160 die Sprech-Last auf der Basis eines in dem Speicher gespeicherten Impuls-Schwellenwerts der Sprech-Daten berechnen. Beispielsweise kann das Fahrer-Status-Sensierungssystem 160 eine Zeit berechnen, zu der in den Sprech-Daten des Fahrers, die innerhalb einer bestimmten Zeit (z. B. 200 ms) empfangen werden, Sprech-Daten mit dem Impuls-Schwellenwert oder einem höheren Wert empfangen werden, wodurch eine Sprech-Last ”V(t)” berechnet wird.
  • Ferner kann das Fahrer-Status-Sensierungssystem 160 eine Schläfrigkeits-Last ”P(t)” und eine Fahr-Beobachtungs-Vernachlässigungs-Last ”E(t)” auf der Basis der Augen-Schließ-Information und der Beobachtungs-Vernachlässigungs-Information berechnen, die in der Achtlosigkeits-Status-Information enthalten sind.
  • In diesem Fall kann das Fahrer-Status-Sensierungssystem 160 eine entsprechend dem Flussdiagramm gemäß 14 ausgelegte Operation zum Prüfen eines Schließens der Augen des Fahrers durchführen. Das Fahrer-Status-Sensierungssystem 160 kann die Anzahl ”y” des Augen-Schließens anhand eines Winkels eines Augenlids pro bestimmter Zeit ”x” innerhalb einer bestimmten Mess-Zeitdauer ”N” prüfen, um eine Augen-Schließ-Zeit (eine Schläfrigkeits-Zeit) des Fahrers zu berechnen. Ferner kann das Fahrer-Status-Sensierungssystem 160 einen Wert, der durch Zählen von (P) in einem Fall erhalten wird, in dem der PERCLOS-Wert während einer bestimmten Zeit auf oder über 30% liegt, zu einem Last-Faktor konvertieren, um die Schläfrigkeits-Last ”P(t)” zu berechnen.
  • Ferner kann das Fahrer-Status-Sensierungssystem 160 die Beobachtungs-Vernachlässigungs-Last ”E(t)” auf der Basis der in der Achtlosigkeits-Status-Information enthaltenen Beobachtungs-Vernachlässigungs-Information berechnen. Gemäß 15A bis 15C kann, wenn der Sichtbereich von der visuellen Distanz ”η” abweicht, in der beim Fahren keine Last existiert, ein Faktor-Wert des Last-Faktors ”P” entsprechend einem Abweichungsbereich verändert werden. Gemäß 15A kann, wenn ein Abweichungsbereich (a', b') vorbestimmt ist, das Fahrer-Status-Sensierungssystem 160 für jeden Bereich, der einem aktuellen Sichtbereich des Fahrers entspricht, einen Faktor-Wert eines Last-Faktors aus dem Speicher lesen und dadurch die Beobachtungs-Vernachlässigungs-Last ”E(t)” berechnen.
  • Das Fahrer-Status-Sensierungssystem 160 kann an der berechneten Peripherievorrichtungs-Manipulations-Last ”T(n)”, der Sprech-Last ”V(t)”, der Schläfrigkeits-Last ”P(t)” und der Beobachtungs-Vernachlässigungs-Last ”E(t)” eine arithmetische Operation vornehmen, um die Fahr-Unterbrechungs-Last ”Wi” zu berechnen.
  • In Schritt S1730 kann das Fahrer-Status-Sensierungssystem 160 eine vorbestimmte Ersatz-Last ”Wl” mit einer Differenz zwischen der Fahr-Manipulationslast ”Wd” und der Fahr-Unterbrechungs-Last ”Wi” vergleichen.
  • Im Einzelnen kann, wenn ein Wert der Fahr-Unterbrechungs-Last ”Wi”, der von der Fahr-Manipulationslast ”Wd” subtrahiert wird, gleich einer vorbestimmten Ersatz-Last ”Wl” oder kleiner als diese ist, das Fahrer-Status-Sensierungssystem 160 feststellen, dass sich der Fahrer nicht in einem Sicherheits-Fahr-Status befindet. Die vorbestimmte Ersatz-Last ”Wl” kann hier ein Wert sein, der durch ein Experiment, das auf einem Zustand eines erfahrenen Fahrers basiert, aus einer Fahr-Manipulationslast und einer Fahr-Information (einschließlich eines Gang-Änderungs-Status, einer Fahrzeug-Beschleunigung, eines Lenkvorgangs und/oder dgl.) extrahiert wird und in dem Speicher gespeichert wird, und kann in Abhängigkeit von einem Fahrzustand variiert werden (Wd ∝ Wl). In diesem Fall kann das Fahrer-Status-Sensierungssystem 160 einen Ergebniswert ”C” berechnen, der erhalten wird, indem die Differenz zwischen der Fahr-Manipulationslast ”Wd” und der Fahr-Unterbrechungs-Last ”Wi” durch die vorbestimmte Ersatz-Last ”Wl” dividiert wird.
  • Beispielsweise kann ein Fall, in dem das Fahren des Fahrzeugs Schwierigkeiten bereitet, auf einen Prozent-Schwellenwert eingestellt werden, und wenn der in Schritt S1730 errechnete Ergebniswert ”C” gleich dem Prozent-Schwellenwert ist oder mehr beträgt, kann in Schritt S1740 das Fahrer-Status-Sensierungssystem 160 eine Warnung an den Fahrer ausgeben.
  • In dem Fall, in dem 75% oder ein höherer Prozentsatz als eine Situation eingestellt sind, in der das Fahren des Fahrzeugs schwierig ist, kann das Fahrer-Status-Sensierungssystem 160 einen roten Diagrammverlauf anzeigen, in der eine aktuelle Last in Rot gezeigt ist. Ferner kann das Fahrer-Status-Sensierungssystem 160 den Fahrer auf eine gefährliche Fahrsituation des Fahrers hinweisen, indem es den roten Diagrammverlauf flimmern lässt. In diesem Fall kann das Status-Sensierungssystem 160 einen Warnton ausgeben, so dass eine Warnung an den Fahrer ergeht.
  • Wenn beispielsweise der in Schritt S1730 berechnete Ergebniswert ”C” weniger als 75% beträgt, kann in Schritt S1730 das Status-Sensierungssystem 160 den roten Diagrammverlauf anzeigen, wobei jedoch die aktuelle Last in grün gezeigt ist, und somit dem Fahrer einen sicheren Status mitteilen.
  • Wie oben beschrieben kann mittels der vorliegenden Erfindung eine Fahr-Last, die beim Fahren eines Fahrzeugs auftritt, mit einer Fahr-Unterbrechungs-Last verglichen werden, die das Fahren des Fahrzeugs unterbricht, wie z. B. einer Peripherievorrichtung, Schläfrigkeit des Fahrers und/oder dgl., und somit kann der Sicherheits-Fahr-Status des Fahrers geprüft werden. Mittels der vorliegenden Erfindung kann eine Warnung an den Fahrer ausgegeben werden, wenn eine Last zum Unterbrechen des Fahrens des Fahrzeugs hoch ist, und je nach Fall kann mittels der vorliegenden Erfindung der Betrieb eines Elements (z. B. einer Peripherievorrichtung), das nicht wesentlich für das Fahren des Fahrzeugs ist, zwangsweise gestoppt werden, um die das Fahren des Fahrzeugs unterbrechende Fahr-Unterbrechungs-Last zu reduzieren, so dass der Fahrer befähigt wird, das Fahrzeug sicher zu fahren.
  • Ferner wird, wenn an der Fahr-Gewohnheit der Fall ersichtlich wird, dass ein Fahrzeug von mehreren verschiedenen Fahrern gefahren wird, ein Lernvorgang durchgeführt, ohne zu berücksichtigen, dass verschiedenen Fahrern verschiedene angelernte Fahrmuster und Fahrsituationen zugehören, so dass ein Fahrer-Muster-Erkennungseffekt verhindert wird.
  • Ferner wird mittels der vorliegenden Erfindung das Problem gelöst, dass Fahrspuren in der Seitensteuerung nicht erkannt werden, wenn eine Hintergrundbeleuchtung auftritt und ein Fahrzeug in einen Tunnel eintritt, so dass ein verfügbarer Bereich für die Seitensteuerungsvorrichtung vergrößert wird.
  • Ferner kann die vorliegende Erfindung in Verbindung mit einer Selbstfahr-Fahrzeugsteuerungsvorrichtung verwendet werden, die noch entwickelt wird.
  • Wie oben beschrieben wird gemäß Ausführungsformen der vorliegenden Erfindung durch präzises Prüfen einer Fahrgewohnheit eines Fahrers eine Start-Zeitgebung für die Seitensteuerung eines Fahrzeugs, die beim autonomen Fahren eingesetzt wird, angepasst, so dass ein vom Fahrer empfundenes Lenk-Unsicherheitsgefühl beseitigt wird.
  • Vorstehend wurden einige Ausführungsbeispiele beschrieben. Dennoch wird darauf hingewiesen, dass verschiedene Modifikationen vorgenommen werden können. Beispielsweise können geeignete Ergebnisse auch erzielt werden, falls die beschriebenen Techniken in einer unterschiedlichen Reihenfolge durchgeführt werden und/oder falls Bestandteile in einem beschriebenen System oder einer beschriebenen Architektur, Vorrichtung oder Schaltung in unterschiedlicher Weise kombiniert werden und/oder durch andere Bestandteile oder deren Äquivalente ersetzt oder ergänzt werden. Somit sind liegen auch weitere Implementierungen innerhalb des Schutzumfangs der Ansprüche.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 10-2014-0072280 [0001]
    • KR 10-2012-0022305 [0004, 0005, 0006]

Claims (12)

  1. System zum Handhaben eines Fahr-Gefahrenindexes für ein Fahrzeug, wobei das System aufweist: einen Fahr-Trajektorien-Generator für das Fahrzeug eines Fahrers, der konfiguriert ist zum Generieren einer Fahr-Trajektorie des Fahrzeugs des Fahrers auf der Basis von Fahr-Information des Fahrzeugs des Fahrers, die von einem internen Sensor her eingegeben wird, welcher eine Fahrsituation des Fahrzeugs des Fahrers sensiert; einen Peripherie-Fahrzeug-Trajektorien-Generator, der konfiguriert ist zum Generieren einer Trajektorie eines peripheren Fahrzeugs auf der Basis von Umgebungsinformation, die von einem externen Sensor her eingegeben wird, welcher die Fahrsituation des Fahrzeugs des Fahrers sensiert; eine Trajektorien-Last-Berechnungsvorrichtung, die konfiguriert ist zum Berechnen einer Trajektorien-Last, welche ein Vergleichsergebnis repräsentiert, das durch Vergleichen eines vorbestimmten Schwellenwerts mit einer Trajektorien-Distanz erhalten wird, bei der es sich um die Differenz zwischen der Peripherie-Fahrzeug-Trajektorie und der Fahr-Trajektorie des Fahrzeugs des Fahrers handelt; und einen Gefahrenindex-Manager, der konfiguriert ist zum Generieren eines Fahr-Gefahrenindexes entsprechend der berechneten Trajektorien-Last.
  2. System nach Anspruch 1, ferner mit einer Peripheriefahrzeug-Last-Berechnungsvorrichtung, die konfiguriert ist zum Berechnen einer Peripherie-Fahrzeug-Last auf der Basis der in der Umgebungs-Information enthaltenen Anzahl peripherer Fahrzeuge und darauf, ob die peripheren Fahrzeuge einen Fahrspurwechsel vornehmen.
  3. System nach Anspruch 2, bei dem die Peripheriefahrzeug-Last-Berechnungsvorrichtung basierend auf einer Zeit bis zu einer Kollision (TTC) eine Aufteilung in mehrere hinsichtlich des Fahrzeugs des Fahrers Gefahrenabschnitte vornimmt und auf der Basis der in jedem der mehreren aufgeteilten Gefahrenabschnitten enthaltenen Anzahl peripherer Fahrzeuge und darauf, ob die peripheren Fahrzeuge einen Fahrspurwechsel vornehmen, die Peripherie-Fahrzeug-Last berechnet.
  4. System nach Anspruch 2, bei dem der Gefahrenindex-Manager den Fahr-Gefahrenindex entsprechend einem Wert berechnet, der auf der Basis der Trajektorien-Last und der Peripheriefahrzeug-Last erhalten wird.
  5. System nach Anspruch 1, ferner mit einer Straßen-Last Berechnungsvorrichtung, die konfiguriert ist zum Berechnen einer Straßen-Last auf der Basis mindestens eines Aspekts aus Straßen-Form, Straßenoberflächen-Status und Verkehrs-Status, die in der Umgebungs-Information enthalten sind.
  6. System nach Anspruch 5, bei dem der Gefahrenindex-Manager den Fahr-Gefahrenindex entsprechend einem Wert berechnet, der auf der Basis der Trajektorien-Last und der Straßen-Last erhalten wird.
  7. System nach Anspruch 1, ferner mit: einer Peripheriefahrzeug-Last-Berechnungsvorrichtung, die konfiguriert ist zum Berechnen einer Peripheriefahrzeug-Last auf der Basis der in der Umgebungs-Information enthaltenen Anzahl peripherer Fahrzeuge und darauf, ob die peripheren Fahrzeuge einen Fahrspurwechsel vornehmen; und einer Straßen-Last Berechnungsvorrichtung, die konfiguriert ist zum Berechnen einer Straßen-Last auf der Basis mindestens eines Aspekts aus Straßen-Form, Straßenoberflächen-Status und Verkehrs-Status, die in der Umgebungs-Information enthalten sind, wobei der Gefahrenindex-Manager den Fahr-Gefahrenindex entsprechend einem Wert berechnet, der auf der Basis der Trajektorien-Last, der Peripheriefahrzeug-Last und der Straßen-Last erhalten wird.
  8. Verfahren zum Handhaben eines Fahr-Gefahrenindexes für Fahrzeuge, wobei das Verfahren umfasst: Generieren einer Fahr-Trajektorie des Fahrzeugs eines Fahrers auf der Basis von Fahr-Information des Fahrzeugs des Fahrers, die von einem internen Sensor her eingegeben wird, der eine Fahrsituation des Fahrzeugs des Fahrers sensiert; Generieren einer Trajektorie eines peripheren Fahrzeugs auf der Basis von Umgebungsinformation, die von einem externen Sensor her eingegeben wird, der eine Fahrsituation des Fahrzeugs des Fahrers sensiert; Berechnen einer Trajektorien-Last, die ein Vergleichsergebnis repräsentiert, das durch Vergleichen eines vorbestimmten Schwellenwerts mit einer Trajektorien-Distanz erhalten wird, die eine Differenz zwischen der Peripherie-Fahrzeug-Trajektorie und der Fahr-Trajektorie des Fahrzeugs des Fahrers ist; und Generieren eines Fahr-Gefahrenindexes entsprechend der berechneten Trajektorien-Last.
  9. Verfahren nach Anspruch 8, ferner mit dem Berechnen einer Peripherie-Fahrzeug-Last auf der Basis der in der Umgebungs-Information enthaltenen Anzahl peripherer Fahrzeuge und darauf, ob die peripheren Fahrzeuge einen Fahrspurwechsel vornehmen.
  10. Verfahren nach Anspruch 9, bei dem das Berechnen der Peripherie-Fahrzeug-Last umfasst: Durchführen einer Aufteilung in mehrere hinsichtlich des Fahrzeugs des Fahrers Gefahrenabschnitte auf der Basis von auf einer Zeit bis zu einer Kollision (TTC); und Berechnen der Peripherie-Fahrzeug-Last auf der Basis der in jedem der mehreren aufgeteilten Gefahrenabschnitten enthaltenen Anzahl peripherer Fahrzeuge und darauf, ob die peripheren Fahrzeuge einen Fahrspurwechsel vornehmen.
  11. Verfahren nach Anspruch 8, ferner mit dem Berechnen einer Straßen-Last auf der Basis mindestens eines Aspekts aus Straßen-Form, Straßenoberflächen-Status und Verkehrs-Status, die in der Umgebungs-Information enthalten sind.
  12. Verfahren nach Anspruch 11, bei dem das Generieren des Fahr-Gefahrenindexes das Generieren des Fahr-Gefahrenindexes entsprechend einem Wert umfasst, der auf der Basis der Trajektorien-Last und der Straßen-Last erhalten wird.
DE102015210630.6A 2014-06-13 2015-06-10 System und Verfahren zum Handhaben eines Fahr-Gefahrenindexes für ein Fahrzeug Pending DE102015210630A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0072280 2014-06-13
KR1020140072280A KR102051142B1 (ko) 2014-06-13 2014-06-13 차량용 운전자 위험 지수 관리 시스템 및 그 방법

Publications (1)

Publication Number Publication Date
DE102015210630A1 true DE102015210630A1 (de) 2015-12-17

Family

ID=54707030

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015210630.6A Pending DE102015210630A1 (de) 2014-06-13 2015-06-10 System und Verfahren zum Handhaben eines Fahr-Gefahrenindexes für ein Fahrzeug

Country Status (4)

Country Link
US (1) US9623874B2 (de)
KR (1) KR102051142B1 (de)
CN (1) CN105197011B (de)
DE (1) DE102015210630A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110239431A (zh) * 2018-03-07 2019-09-17 株式会社万都 用于控制碰撞警报的设备及方法
CN110723153A (zh) * 2019-10-31 2020-01-24 武汉理工大学 一种基于环境信息与车辆运动的个性化驾驶习惯学习系统
CN113382361A (zh) * 2020-03-09 2021-09-10 上海擎感智能科技有限公司 基于路线切分的试驾监控方法、系统、介质及设备

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014014662A1 (de) * 2014-09-19 2016-03-24 Mekra Lang North America, Llc Anzeigeeinrichtung für Fahrzeuge, insbesondere Nutzfahrzeuge
CN104952249A (zh) * 2015-06-10 2015-09-30 浙江吉利汽车研究院有限公司 基于车联网的驾驶行为纠正方法及装置
JP5910903B1 (ja) 2015-07-31 2016-04-27 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
EP3357780B1 (de) 2015-09-30 2022-10-26 Sony Group Corporation Antriebssteuerungsvorrichtung, antriebssteuerungsverfahren und programm
EP3357778B1 (de) 2015-09-30 2022-10-26 Sony Group Corporation Antriebssteuerungsvorrichtung, antriebssteuerungsverfahren und programm
JP6316265B2 (ja) * 2015-12-01 2018-04-25 本田技研工業株式会社 車線変更制御装置
JP6468204B2 (ja) * 2016-01-15 2019-02-13 スズキ株式会社 小型車両の進路変更時における予防安全装置
CN106094823A (zh) * 2016-06-29 2016-11-09 北京奇虎科技有限公司 汽车危险驾驶行为的处理方法及系统
KR102536865B1 (ko) 2016-07-22 2023-05-25 엘지전자 주식회사 전자 장치 및 그 제어 방법
DE102016215421A1 (de) * 2016-08-17 2018-02-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines automatisierten Kraftfahrzeugs
DE112016007351T5 (de) * 2016-10-18 2019-07-04 Honda Motor Co., Ltd. Fahrzeugsteuervorrichtung
CN106476810A (zh) * 2016-11-04 2017-03-08 大连文森特软件科技有限公司 基于ar增强现实和大数据的驾驶辅助系统
CN106335512B (zh) * 2016-11-04 2019-05-24 快创科技(大连)有限公司 基于ar增强现实和车辆违章记录查询的驾驶辅助系统
CN106503676A (zh) * 2016-11-04 2017-03-15 大连文森特软件科技有限公司 基于ar增强现实和驾驶细节采集的驾驶辅助系统
CN106494409A (zh) * 2016-11-04 2017-03-15 大连文森特软件科技有限公司 基于ar增强现实和大数据的车辆控制的驾驶辅助系统
KR101846734B1 (ko) * 2016-11-09 2018-05-18 현대자동차주식회사 운전 상태 판단 장치 및 방법
KR102663017B1 (ko) 2016-11-24 2024-05-07 현대자동차주식회사 차량 및 그 제어방법
KR20180070401A (ko) 2016-12-16 2018-06-26 현대자동차주식회사 자율주행차량의 운전 제어권 이양을 판단하는 시스템 및 방법
KR20180104235A (ko) * 2017-03-10 2018-09-20 만도헬라일렉트로닉스(주) 운전자 상태 모니터링 방법 및 장치
US10446031B2 (en) * 2017-03-14 2019-10-15 Hyundai Mobis Co., Ltd. Apparatus and method of safety support for vehicle
US11164459B2 (en) 2017-03-14 2021-11-02 Hyundai Mobis Co., Ltd. Apparatus and method of safety support for vehicle
US10392012B2 (en) * 2017-04-24 2019-08-27 Adam Benjamin Tannenbaum System and method of use for vehicular driving safety
DE102017212373A1 (de) * 2017-07-19 2019-01-24 Volkswagen Aktiengesellschaft Verfahren zur Bestimmung einer Trajektorie für eine autonom fahrendes Kraftfahrzeug, Steuereinrichtung und Kraftfahrzeug
CN109278747B (zh) * 2017-07-21 2021-05-07 鸿富锦精密电子(天津)有限公司 车辆监控系统及方法
KR102371616B1 (ko) * 2017-11-07 2022-03-07 현대자동차주식회사 차량의 센서 데이터 연계 장치 및 방법
KR102463722B1 (ko) * 2018-02-20 2022-11-07 현대자동차주식회사 차량의 속도 설정 장치 및 방법
JP7020215B2 (ja) * 2018-03-19 2022-02-16 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JP6844568B2 (ja) * 2018-03-27 2021-03-17 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
US11994860B2 (en) * 2018-06-15 2024-05-28 Allstate Insurance Company Processing system for evaluating autonomous vehicle control systems through continuous learning
EP3837137A4 (de) * 2018-06-26 2022-07-13 Itay Katz Kontexttreiberüberwachungssystem
KR102445202B1 (ko) * 2018-07-09 2022-09-20 현대모비스 주식회사 경보 시점 조정 장치 및 방법
US10800409B2 (en) * 2018-09-04 2020-10-13 Caterpillar Paving Products Inc. Systems and methods for operating a mobile machine using detected sounds
JP7076348B2 (ja) * 2018-09-20 2022-05-27 日立Astemo株式会社 電子制御装置
KR102587094B1 (ko) * 2018-12-04 2023-10-11 현대자동차주식회사 운전자의 주행 성향 판단 장치 및 방법
KR102668628B1 (ko) * 2019-04-11 2024-05-24 현대모비스 주식회사 차량의 충돌 회피 제어 방법 및 그 장치
KR102658055B1 (ko) * 2019-05-14 2024-04-17 현대모비스 주식회사 조향 회피 경로를 고려한 적응형 aeb 시스템 및 그 제어 방법
US11420653B2 (en) * 2019-05-20 2022-08-23 Hyundai Mobis Co., Ltd. Autonomous driving apparatus and method
KR20200133858A (ko) * 2019-05-20 2020-12-01 현대모비스 주식회사 자율 주행 장치 및 방법
CN110208805A (zh) * 2019-06-13 2019-09-06 南京亚兴为信息技术有限公司 一种有轨电车障碍物探测方法
US11643010B2 (en) 2019-07-25 2023-05-09 International Business Machines Corporation Vehicle driver and autonomous system collaboration
US11276307B2 (en) 2019-09-24 2022-03-15 International Business Machines Corporation Optimized vehicle parking
JP7238729B2 (ja) * 2019-10-24 2023-03-14 トヨタ自動車株式会社 冠水検知装置、冠水検知システム、及び冠水検知プログラム
WO2021125459A1 (ko) * 2019-12-19 2021-06-24 한양대학교 산학협력단 시뮬레이션을 위한 주변 차량의 주행 궤적 생성 방법
CN111416958A (zh) * 2020-03-17 2020-07-14 安徽智训机器人技术有限公司 工业机器人操作视频获取方法和系统
JP7276261B2 (ja) * 2020-06-22 2023-05-18 トヨタ自動車株式会社 冠水検知装置、冠水表示システム、冠水検知方法およびプログラム
CN112158197B (zh) * 2020-08-21 2021-08-27 恒大新能源汽车投资控股集团有限公司 一种车辆盲区障碍物规避方法、装置及系统
CN112519790A (zh) * 2020-12-12 2021-03-19 江西昌河汽车有限责任公司 一种汽车驾驶习惯智能分析系统及其控制方法
CN112572330A (zh) * 2020-12-30 2021-03-30 天翼物联科技有限公司 一种风险驾驶行为识别系统、方法、装置及存储介质
CN113428164B (zh) * 2021-07-21 2023-01-03 上汽通用五菱汽车股份有限公司 驾驶习惯学习方法、装置及计算机可读存储介质
CN113787997B (zh) * 2021-09-09 2022-12-06 森思泰克河北科技有限公司 紧急制动控制方法、电子设备及存储介质
US20230136374A1 (en) * 2021-10-28 2023-05-04 Toyota Motor Engineering & Manufacturing North America, Inc. Monitoring a traffic condition of stopped or slow moving vehicles
EP4190660A1 (de) * 2021-12-06 2023-06-07 Walter Steven Rosenbaum Verfahren und system zum bestimmen einer betriebserfordernis
KR20240103928A (ko) 2022-12-27 2024-07-04 주식회사 티엔티 반응형 홀로그램 애니메이션을 이용한 차량 주행 감지 시스템 및 그 방법
CN118155424B (zh) * 2024-05-09 2024-07-02 贵州大学 基于数据交互实现高速公路的道路安全管理方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120022305A (ko) 2010-09-02 2012-03-12 주식회사 만도 자율 주행 차량
KR20140072280A (ko) 2012-11-29 2014-06-13 남서울대학교 산학협력단 개인휴대단말기 기반의 응급상황 탐지/전송 장치 및 방법

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2715528B2 (ja) * 1989-03-17 1998-02-18 トヨタ自動車株式会社 車両用安全制御装置
SE516317C2 (sv) 1994-06-07 2001-12-17 Saabtech Electronics Ab Förfarande för att bestämma körfältet för ett framförvarande fordon
JP2000142321A (ja) * 1998-11-09 2000-05-23 Fujitsu Ten Ltd 乗員保護支援装置
DE19983911B4 (de) * 1999-01-27 2018-09-06 Compumedics Sleep Pty. Ltd. Wachsamkeitsüberwachungssystem
JP2001256598A (ja) * 2000-03-08 2001-09-21 Honda Motor Co Ltd 危険箇所報知システム
DE10036276A1 (de) * 2000-07-26 2002-02-07 Daimler Chrysler Ag Automatisches Brems- und Lenksystem für ein Fahrzeug
US6577947B1 (en) * 2002-03-01 2003-06-10 Rockwell Collins, Inc. Method and apparatus for identification of hazards along an intended travel route
US7421334B2 (en) * 2003-04-07 2008-09-02 Zoom Information Systems Centralized facility and intelligent on-board vehicle platform for collecting, analyzing and distributing information relating to transportation infrastructure and conditions
KR20050121571A (ko) 2004-06-22 2005-12-27 현대모비스 주식회사 운전자 강제 도로 조건 인식 타입 차량 위치 정보장치
JP2006024106A (ja) * 2004-07-09 2006-01-26 Honda Motor Co Ltd 車両の接触回避制御装置
US7630807B2 (en) * 2004-07-15 2009-12-08 Hitachi, Ltd. Vehicle control system
DE102004038734A1 (de) * 2004-08-10 2006-02-23 Robert Bosch Gmbh Verfahren und Vorrichtung zur Auslösung einer Notbremsung
WO2006130146A1 (en) * 2005-06-01 2006-12-07 Innosurance, Inc. Motor vehicle operating data collection and analysis
WO2007031578A1 (de) * 2005-09-15 2007-03-22 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung zum lenken eines kraftfahrzeugs
WO2007077867A1 (ja) * 2005-12-28 2007-07-12 National University Corporation Nagoya University 運転行動推定装置、運転支援装置、車両評価システム、ドライバモデル作成装置、及び運転行動判定装置
US8515659B2 (en) * 2007-03-29 2013-08-20 Toyota Jidosha Kabushiki Kaisha Collision possibility acquiring device, and collision possibility acquiring method
US7839292B2 (en) * 2007-04-11 2010-11-23 Nec Laboratories America, Inc. Real-time driving danger level prediction
JP4924207B2 (ja) * 2007-05-29 2012-04-25 トヨタ自動車株式会社 自車両危険度取得装置
JP4623057B2 (ja) * 2007-06-05 2011-02-02 トヨタ自動車株式会社 自車両の移動領域取得装置
ES2324931B1 (es) * 2008-02-18 2010-05-24 Enrique Crambo, S.A. Sistema y metodo de monitorizacion del estado y conduccion de un vehiculo.
KR100946723B1 (ko) * 2008-04-12 2010-03-12 재단법인서울대학교산학협력재단 차량의 조향 방법 및 그 장치
JP2010067235A (ja) * 2008-09-12 2010-03-25 Fujitsu Ten Ltd 運転支援装置および運転支援プログラム
EP2169500B1 (de) * 2008-09-25 2012-04-04 Volvo Car Corporation Verfahren zur Beurteilung des Fahrzeugverlaufs in einer Straßenumgebung und Verlaufsbeurteilungssystem
WO2010140215A1 (ja) * 2009-06-02 2010-12-09 トヨタ自動車株式会社 車両用周辺監視装置
JP4957752B2 (ja) * 2009-06-12 2012-06-20 トヨタ自動車株式会社 進路評価装置
KR101203714B1 (ko) 2009-10-07 2012-11-21 한국전자통신연구원 주행 안전 제공 시스템 및 방법
KR101340779B1 (ko) 2010-03-17 2013-12-11 주식회사 만도 기준 추종 위치 설정 방법 및 차선 유지 제어 시스템
CN103069466B (zh) * 2010-06-18 2015-07-15 本田技研工业株式会社 用于预测驾驶员的变线意图的系统
CN102741884B (zh) * 2010-07-27 2016-06-08 松下知识产权经营株式会社 移动体检测装置及移动体检测方法
JP2013539572A (ja) * 2010-07-29 2013-10-24 フォード グローバル テクノロジーズ、リミテッド ライアビリティ カンパニー 運転者インタフェースタスクを管理する方法、及び、車両
US20150224998A1 (en) * 2010-07-29 2015-08-13 Ford Global Technologies, Llc Systems and Methods For Scheduling Driver Interface Tasks Based On Driver Workload
JP5189157B2 (ja) * 2010-11-30 2013-04-24 株式会社豊田中央研究所 可動物の目標状態決定装置及びプログラム
EP3255613B1 (de) * 2010-12-15 2022-09-21 Auto Telematics Ltd Verfahren und vorrichtung zur protokollierung des fahrzeugverhaltens
US20140309849A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Driver facts behavior information storage system
US20140309839A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle Registration to Enter Automated Control of Vehicular Traffic
US20140019167A1 (en) * 2012-07-16 2014-01-16 Shuli Cheng Method and Apparatus for Determining Insurance Risk Based on Monitoring Driver's Eyes and Head
US9129519B2 (en) * 2012-07-30 2015-09-08 Massachussetts Institute Of Technology System and method for providing driver behavior classification at intersections and validation on large naturalistic data sets
EP2885150B1 (de) * 2012-08-20 2019-01-02 Veoneer Sweden AB Lidschlagverarbeitung zur erkennung von schläfrigkeit
KR101617349B1 (ko) 2012-08-28 2016-05-03 (주)나노포인트 운전 습관 분석 진단 시스템 및 방법
WO2014057309A1 (en) * 2012-10-10 2014-04-17 Freescale Semiconductor, Inc. Method and apparatus for determining a risk level in manually operated systems
US9569984B2 (en) * 2012-12-11 2017-02-14 Abalta Technologies, Inc. Recording, monitoring, and analyzing driver behavior
US10347127B2 (en) * 2013-02-21 2019-07-09 Waymo Llc Driving mode adjustment
US9045041B2 (en) * 2013-02-27 2015-06-02 Here Global B.V. Driver behavior from probe data for augmenting a data model
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
US20150025917A1 (en) * 2013-07-15 2015-01-22 Advanced Insurance Products & Services, Inc. System and method for determining an underwriting risk, risk score, or price of insurance using cognitive information
US9053516B2 (en) * 2013-07-15 2015-06-09 Jeffrey Stempora Risk assessment using portable devices
EP2826687B1 (de) * 2013-07-16 2019-03-06 Honda Research Institute Europe GmbH Technik für Fahrspurzuweisung in einem Fahrzeug
US20160110650A1 (en) * 2013-11-29 2016-04-21 Ims Solutions, Inc. Advanced context-based driver scoring
US9827992B2 (en) * 2014-03-19 2017-11-28 Ford Global Technologies, Llc Driver anomaly detection
US9623875B2 (en) * 2014-06-13 2017-04-18 University of Pittsburgh—of the Commonwealth System of Higher Education Systems and method for driving evaluation and training
US9242654B2 (en) * 2014-06-27 2016-01-26 International Business Machines Corporation Determining vehicle collision risk
KR101555444B1 (ko) * 2014-07-10 2015-10-06 현대모비스 주식회사 차량탑재 상황감지 장치 및 그 방법
CN105313898B (zh) * 2014-07-23 2018-03-20 现代摩比斯株式会社 驾驶员状态感应装置及其方法
JP6486640B2 (ja) * 2014-10-09 2019-03-20 株式会社日立製作所 運転特性診断装置、運転特性診断システム、運転特性診断方法、情報出力装置、情報出力方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120022305A (ko) 2010-09-02 2012-03-12 주식회사 만도 자율 주행 차량
KR20140072280A (ko) 2012-11-29 2014-06-13 남서울대학교 산학협력단 개인휴대단말기 기반의 응급상황 탐지/전송 장치 및 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110239431A (zh) * 2018-03-07 2019-09-17 株式会社万都 用于控制碰撞警报的设备及方法
CN110239431B (zh) * 2018-03-07 2022-12-13 汉拿科锐动电子股份公司 用于控制碰撞警报的设备及方法
CN110723153A (zh) * 2019-10-31 2020-01-24 武汉理工大学 一种基于环境信息与车辆运动的个性化驾驶习惯学习系统
CN113382361A (zh) * 2020-03-09 2021-09-10 上海擎感智能科技有限公司 基于路线切分的试驾监控方法、系统、介质及设备
CN113382361B (zh) * 2020-03-09 2022-11-15 上海擎感智能科技有限公司 基于路线切分的试驾监控方法、系统、介质及设备

Also Published As

Publication number Publication date
US9623874B2 (en) 2017-04-18
KR20150143139A (ko) 2015-12-23
KR102051142B1 (ko) 2019-12-02
CN105197011B (zh) 2017-11-21
US20150360697A1 (en) 2015-12-17
CN105197011A (zh) 2015-12-30

Similar Documents

Publication Publication Date Title
DE102015210630A1 (de) System und Verfahren zum Handhaben eines Fahr-Gefahrenindexes für ein Fahrzeug
DE102018113488B4 (de) Fahrbewusstseinsabschätzvorrichtung
DE102017204039B4 (de) Autonomes fahrsteuersystem für ein fahrzeug
EP3160813B1 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
DE112010001354B4 (de) Bewegungsstrajektoriengenerator
EP2562039B1 (de) Verfahren und Vorrichtung zum Ändern einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
DE112019001421T5 (de) Systeme und verfahren zum navigieren eines fahrzeugs
DE112012006226B4 (de) Fahrassistenzvorrichtung
DE102019103354A1 (de) Verfahren und vorrichtung zur bewertung von kollisionsrisiken von fussgängern und zum bestimmen von fahrerwarnniveaus
DE102009034097A1 (de) Adaptives Fahrzeugsteuerungssystem mit integrierter Fahrstilerkennung
DE102009034096A1 (de) Adaptives Fahrzeugsteuerungssystem mit Fahrstilerkennung
DE102005018697A1 (de) Verfahren und Vorrichtung zur Warnung eines Fahrers im Falle eines Verlassens der Fahrspur
EP2636577A1 (de) Verfahren zum Warnen des Fahrers eines Kraftfahrzeugs vor einer sich anbahnenden Gefahrensituation infolge eines unbeabsichtigten Driftens auf eine Gegenverkehrsfahrspur
DE102009019702A1 (de) Verfahren und Vorrichtung zur Übergabeaufforderung an den Fahrzeugführer
DE102010038161A1 (de) Rechtsabbiegefahrunterstützungsvorrichtung
DE102010060225A1 (de) Fahrzeuginformationsanbietevorrichtung
WO2005119624A1 (de) Assistenzsystem für kraftfahrzeuge
DE102018001375A1 (de) Fahrzeugfahrassistenzsystem, Fahrzeugfahrassistenzverfahren und Computerprogrammprodukt
DE102019109505A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE102009005730A1 (de) Verfahren und Vorrichtung zur Überwachung der Aufmerksamkeit eines Fahrzeugführers
DE102018001374A1 (de) Fahrzeugfahrassistenzsystem, Verfahren zum Unterstützen des Fahrens eines Fahrzeugs und Computerprogrammprodukt
DE102017202984A1 (de) Vorrichtung für autonomes fahren
DE102018001369A1 (de) Fahrzeugfahrassistenzsystem, Verfahren zum Unterstützen des Fahrens eines Fahrzeugs und Computerprogrammprodukt
DE102016204901A1 (de) Verfahren und System zur situativen Adaption von Fahrerparametern eines Fahrerprofils eines Kraftfahrzeugs und Kraftfahrzeug
DE102019215657A1 (de) Fahrzeugsteuerungsstystem und -verfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication