DE102014217437B4 - Warnanzeigenvorrichtung und Warnanzeigeverfahren - Google Patents

Warnanzeigenvorrichtung und Warnanzeigeverfahren Download PDF

Info

Publication number
DE102014217437B4
DE102014217437B4 DE102014217437.6A DE102014217437A DE102014217437B4 DE 102014217437 B4 DE102014217437 B4 DE 102014217437B4 DE 102014217437 A DE102014217437 A DE 102014217437A DE 102014217437 B4 DE102014217437 B4 DE 102014217437B4
Authority
DE
Germany
Prior art keywords
display
vehicle
warning
warning object
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014217437.6A
Other languages
English (en)
Other versions
DE102014217437A1 (de
Inventor
Shoichi c/o TOYOTA JIDOSHA KABUSHIKI KAI Hayasaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102014217437A1 publication Critical patent/DE102014217437A1/de
Application granted granted Critical
Publication of DE102014217437B4 publication Critical patent/DE102014217437B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/22Producing cursor lines and indicia by electronic means
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Warnanzeigenvorrichtung (1), welche ein Anzeigebild zur Hervorhebung eines Warnobjektes (W) in einer tatsächlichen Szene vor einem Fahrer eines Fahrzeugs (V) oder um das Fahrzeug (V) auf überlagernde Weise anzeigt, wobei die Vorrichtung aufweist:eine Erfassungseinheit (10), welche dazu ausgelegt ist, das Warnobjekt (W) vor dem Fahrzeug (V) oder um das Fahrzeug (V) zu erfassen;eine Kontrolleinheit (30), welche dazu ausgelegt ist, eine Anzeigekontrolle zur Positionierung des Anzeigebilds entsprechend der Position des Warnobjektes (W), welches durch die Erfassungseinheit (10) erfasst worden ist, durchzuführen; undeine Anzeigeeinheit (20), welche dazu ausgelegt ist, das Anzeigebild zur Hervorhebung des Warnobjektes (W), welches durch die Erfassungseinheit (10) in der tatsächlichen Szene vor dem Fahrer des Fahrzeugs (V) oder um das Fahrzeug (V) erfasst worden ist, basierend auf der Anzeigekontrolle der Kontrolleinheit (30) anzuzeigen,wobei die Kontrolleinheit (30) die Größe des Anzeigebildes basierend auf einem Fehlerbereich (Pp1,Pp2) der Erfassungseinheit (10) gemäß der Position des Warnobjektes (W), welches durch die Erfassungseinheit (10) erfasst worden ist, und basierend auf einem Bereich (EP,EF), in dem sich die Augen des Fahrers wahrscheinlich befinden, einstellt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Warnanzeigenvorrichtung und ein Warnanzeigeverfahren, welche ein Anzeigebild zum Hervorheben eines Objektes, vor dem gewarnt werden soll (bzw. eines Warnobjektes) in einer tatsächlichen (bzw. gegenwärtigen) Szene vor einem Fahrer eines Fahrzeugs oder um das Fahrzeug auf eine überlagernde Weise anzeigen.
  • Stand der Technik
  • Verschiedene Vorrichtungen, welche einen Fahrer unterstützen, wurden entwickelt, und von diesen Vorrichtungen ist eine Vorrichtung, welche Informationen bezüglich eines Warnobjektes wie beispielsweise eines Fußgängers vor dem Fahrer oder um den Fahrer bereitstellt, bekannt. Um den Fahrer auf die Gegenwart eines Warnobjektes hinzuweisen, wird ein Warnobjekt unter Verwendung verschiedener Sensoren, wie beispielsweise eines Radarsensors, erfasst, und das erfasste Warnobjekt wird hervorgehoben. Beispielsweise beschreibt die japanische ungeprüfte Patentanmeldungsveröffentlichung JP 2012-218505 A eine Fahrzeuganzeigevorrichtung (beispielsweise ein Nachtsichtgerät), welche ein Hervorhebungsbild zum Hervorheben eines Objektes, welches erfasst werden soll (wie beispielsweise ein Fußgänger) in einem vorderseitigen Bild, welches durch Abbilden des Bereichs vor einem Fahrzeug erfasst worden ist, auf überlagernde Weise anzeigt und die Größe des Hervorhebungsbildes mit Bezug auf eine Referenzgröße, welche einer Größeninformation entspricht, mit einem Anstieg in der Fahrgeschwindigkeit des Fahrzeugs vergrößert. Die japanische ungeprüfte Patentanmeldung JP H06-247 184 A ist ein Beispiel des Stands der Technik und offenbart eine Anzeigevorrichtung in einem Fahrzeug, bei welcher das Gesicht eines Fahrers durch zwei Kameras fotografiert wird und das Gesicht erkannt wird, sodass die Blickrichtung erfasst wird. Die Position der angezeigten Informationen auf der Anzeigevorrichtung wird in Übereinstimmung mit einer Veränderung der Blickrichtung bewegt
  • Die japanische ungeprüfte Patentanmeldungsveröffentlichung JP 2011-119917 A ist ein weiteres Beispiel des Standes der Technik.
  • Als eine Vorrichtung, welche ein Warnobjekt hervorhebt, ist eine Frontscheibenanzeige (head up display, HUD) bekannt, welche ein Warnobjekt in einer tatsächlichen Szene vor einem Fahrer oder um den Fahrer hervorhebt (beispielsweise einen Rahmen, weleher das Warnobjekt umgibt oder eine Unterstreichung unter dem Warnobjekt auf überlagernde Weise anzeigt). Im Falle der Frontscheibenanzeige wird ein Rahmen oder ähnliches auf der Vorderseite einer Frontscheibe für eine tatsächliche Szene, welche tatsächlich von dem Fahrer gesehen wird, anstatt eines Bildes abgebildet. Die Position des Rahmens oder ähnlichem auf der Abbildungsoberfläche (die Position der Rahmen oder ähnliches auf die Frontscheibe projiziert wird) wird aus der Erfassungsposition des Warnobjektes, welches durch den Sensor erfasst wird, bestimmt. Der Sensor hat einen Erfassungsfehler. Aus diesem Grund kann der Rahmen oder ähnliches, welcher auf der Abbildungsoberfläche auf überlagernde Weise dargestellt wird, von dem Warnobjekt in der tatsächlichen Szene abweichen, wenn die Erfassungsposition des Warnobjektes von der tatsächlichen Position des Warnobjektes aufgrund des Erfassungsfehlers abweicht. Die Position der Augen des Fahrers verändert sich in Abhängigkeit von der Sitzhöhe der Fahrhaltung oder etwas ähnlichem des Fahrers und der Winkel, in dem der Fahrer das Warnobjekt betrachtet, verändert sich in Abhängigkeit von der Position der Augen des Fahrers. Aus diesem Grund kann das Anzeigebild wie beispielsweise der Rahmen, welches auf der Abbildungsoberfläche auf überlagernde Weise abgebildet ist, von dem Warnobjekt abweichen. Beispielsweise wird, wie bei dem in 6 gezeigten Beispiel (wenn ein Fußgänger W als Warnobjekt auf der Vorderseite des Fahrzeuges präsent ist), wenn die Augen des Fahrers, der den Fußgänger W betrachtet, sich auf der durch das Bezugszeichen E1 angezeigten Position befinden, die Position auf der Abbildungsoberfläche der Frontscheibenanzeige die Position, welche durch das Bezugszeichen S1 angezeigt wird, und wenn die Augen des Fahrers, der den Fußgänger W betrachtet, in der durch das Bezugszeichen E2 angezeigten Position sind, wird die Position auf der Abbildungsoberfläche F, die durch das Bezugszeichen S2 angezeigte Position. Auf diese Weise kann der Fußgänger W über das Anzeigebild wie den Rahmen, welcher auf der Abbildungsoberfläche S auf überlagernde Weise dargestellt ist, hervorragen, da der Winkel, in welchem der Fahrer den Fußgänger W betrachtet, sich in Abhängigkeit von der Position der Augen des Fahrers verändert, und sich die Position auf der Abbildungsoberfläche S verändert.
  • Demgemäß ist es Aufgabe der Erfindung, eine Warnanzeigenvorrichtung und ein Warnanzeigeverfahren bereitzustellen, welche eine Abweichung eines Anzeigebildes, welches auf einem Warnobjekt in einer tatsächlichen Szene auf überlagernde Weise abgebildet wird, zu unterdrücken.
  • Gemäß einem Aspekt der Erfindung wird eine Warnanzeigenvorrichtung bereitgestellt, welche ein Anzeigebild zum Hervorheben eines Warnobjektes in einer tatsächlichen Szene vor einem Fahrer eines Fahrzeugs oder um das Fahrzeug auf überlagernde Weise anzeigt, wobei die Vorrichtung eine Erfassungseinheit, welche dazu ausgelegt ist, das Warnobjekt vor dem Fahrzeug oder um das Fahrzeug zu erfassen, eine Kontrolleinheit, welche dazu ausgelegt ist, eine Anzeigekontrolle zur Positionierung des Anzeigebildes entsprechend der Position des von der Erfassungseinheit erfassten Warnobjektes durchzuführen, und eine Anzeigeeinheit aufweist, welche dazu ausgelegt ist, das Anzeigebild zum Hervorheben des Warnobjektes, welches durch die Erfassungseinheit in der tatsächlichen Szene vor dem Fahrer des Fahrzeugs oder um das Fahrzeug erfasst worden ist, basierend auf der Anzeigekontrolle der Kontrolleinheit anzuzeigen, wobei die Kontrolleinheit die Größe des Anzeigebildes basierend auf der Position des Warnobjektes, welches durch die Erfassungseinheit erfasst worden ist, und/oder basierend auf einem Bereich, in dem sich die Augen des Fahrers wahrscheinlich befinden, anzeigt.
  • In dieser Warnanzeigenvorrichtung wird das Warnobjekt, welches sich vor dem Fahrzeug oder um das Fahrzeug befindet, und vor dem der Fahrer gewarnt werden soll, durch die Erfassungseinheit erfasst. In der Warnanzeigenvorrichtung wird das Anzeigebild auf der Anzeigeeinheit durch die Anzeigekontrolle der Kontrolleinheit auf überlagernde Weise angezeigt, um das Warnobjekt in der tatsächlichen Szene vor dem Fahrer des Fahrzeugs oder um das Fahrzeug hervorzuheben. Insbesondere stellt die Kontrolleinheit die Größe des Anzeigebildes basierend auf der Position des Warnobjektes oder des Bereiches, in der sich die Augen des Fahrers wahrscheinlich befinden, ein. Die Erfassungseinheit hat einen Erfassungsfehler. Aus diesem Grund beinhaltet die Position des Warnobjektes, welche durch die Erfassungseinheit erfasst wird, einen Fehler, und der Bereich des Erfassungsfehlers verändert sich in Abhängigkeit von der Position des Warnobjektes. Jedoch wird die Größe des Anzeigebildes entsprechend der Position des Warnobjektes angepasst, wodurch das Anzeigebild, welches von einer entsprechenden Größe unter Berücksichtigung der Abweichmenge ist, sogar dann angezeigt werden kann, wenn die Erfassungsposition des Warnobjektes, wie sie durch die Erfassungseinheit erfasst worden ist, von der tatsächlichen Position aufgrund des Erfassungsfehlers abweicht. Die Position der Augen des Fahrers verändert sich in Abhängigkeit von der Sitzhöhe, der Fahrhaltung oder ähnlichem des Fahrers. Jedoch wird die Größe des Anzeigebildes entsprechend dem Bereich, in welchem sich die Augen des Fahrers wahrscheinlich befinden, angepasst, wodurch das Anzeigebild, welches von einer Größe unter Berücksichtigung der Differenz in der Position der Augen ist, sogar dann angezeigt werden kann, wenn die Position der Augen des individuellen Fahrers sich verändert. Demgemäß weicht das Warnobjekt nicht signifikant von dem Anzeigebereich des Anzeigebildes mit eingestellter Größe ab und das Warnobjekt kann richtig durch das Anzeigebild hervorgehoben werden, sogar wenn die Anzeigeposition in der Überlagerungsanzeige von der Position des Warnobjektes in der tatsächlichen Szene in Abhängigkeit von der Position des Warnobjektes (der Erfassungsfehler der Erfassungseinheit) oder der Position der Augen des Fahrers abweicht. Auf diese Weise passt die Warnanzeigenvorrichtung die Größe des Anzeigebildes, welches auf überlagernde Weise angezeigt wird, basierend auf der Position des Warnobjektes und/oder des Bereichs, in welchem sich die Augen des Fahrers wahrscheinlich befinden, an, wodurch es möglich ist, eine Abweichung des Anzeigebildes, welches auf überlagernde Weise angezeigt wird, bezüglich des Warnobjektes in der tatsächlichen Szene zu unterdrücken.
  • Die tatsächliche Szene ist eine Szene, welche tatsächlich von dem Fahrer vor dem Fahrzeug oder um das Fahrzeug gesehen wird. Das Warnobjekt ist ein Objekt, dem der Fahrer seine Aufmerksamkeit schenken sollte, wenn er das Fahrzeug zwischen den Objekten in der tatsächlichen Szene vor dem Fahrzeug oder um das Fahrzeug hindurchfährt, und ist ein Objekt, vor dem der Fahrer gewarnt werden muss. Die Überlagerungsanzeige ist eine Anzeigeform der Hervorhebung. Hervorheben ist eine Anzeige, welche das Warnobjekt in der tatsächlichen Szene hervorhebt und das Anzeigebild, welches das Warnobjekt hervorhebt, anzeigt. Im Besonderen ist die Überlagerungsanzeige eine Anzeige, in welcher das Anzeigebild entsprechend der Position des Warnobjektes in der tatsächlichen Szene, wenn diese von dem Fahrer betrachtet wird, positioniert wird. Als das Anzeigebild, welches in überlagernder Weise angezeigt werden soll, wird beispielsweise ein Anzeigebild eines Rahmens, welcher angezeigt wird, um das Warnobjekt in der tatsächlichen Szene zu umgeben, oder ein Anzeigebild einer Unterstreichung, welche unter dem Warnobjekt in der tatsächlichen Szene angezeigt wird, verwendet.
  • In der oben genannten Warnanzeigenvorrichtung kann die Kontrolleinheit die Größe des Anzeigebildes basierend auf einem Fehlerbereich der Erfassungseinheit gemäß der Position des Warnobjektes, welches durch die Erfassungseinheit erfasst wird, eingestellen. Der Fehlerbereich der Erfassungseinheit verändert sich in Abhängigkeit von der Position des Warnobjektes. Aus diesem Grund wird der Fehlerbereich der Erfassungseinheit gemäß der Position des Warnobjektes bestimmt und die Größe des Anzeigebildes wird basierend auf den Fehlerbereich eingestellt. Auf diese Weise wird die Größe des Anzeigebildes entsprechend dem Fehlerbereich der Erfassungseinheit eingestellt, wodurch sogar wenn die Erfassungsposition des Warnobjektes von der tatsächlichen Position aufgrund des Erfassungsfehlers der Erfassungseinheit abweicht, eine Überlagerungsanzeige durch ein Anzeigebild, welches von einer Größe unter Berücksichtigung des Abweichbetrages ist, durchgeführt werden kann.
  • In der oben beschriebenen Warnanzeigenvorrichtung kann, wenn die Position des Warnobjektes, welche durch die Erfassungseinheit erfasst worden ist, weit entfernt ist von dem Fahrzeug, die Kontrolleinheit den Fehlerbereich der Erfassungseinheit vergrößern und kann die Größe des Anzeigebildes vergrößern, verglichen zu einem Fall, bei dem die Position des Warnobjektes nahe an dem Fahrzeug ist. Dementsprechend kann, wenn die Position des Warnobjektes weit entfernt ist von dem Fahrzeug (Erfassungseinheit), wobei der Fehlerbereich der Erfassungseinheit sich vergrößert und die Erfassungsposition des Warnobjektes signifikant von der tatsächlichen Position abweichen kann, eine Überlagerungsanzeige durch ein Anzeigebild durchgeführt werden, welches von einer Größe unter Berücksichtigung des Abweichungsbetrages ist.
  • In der oben beschriebenen Warnanzeigenvorrichtung der Erfindung kann die Kontrolleinheit die Größe des Anzeigebildes basierend auf der Größe des Warnobjektes, welche durch die Erfassungseinheit erfasst wird, einstellen. Dementsprechend kann, auch wenn das Warnobjekt ein großes Objekt ist, eine Überlagerungsanzeige durch ein Anzeigebild, welches von einer Größe unter Berücksichtigung der Größe des Objektes ist, durchgeführt werden.
  • In der oben beschriebenen Warnanzeigenvorrichtung kann die Anzeigeeinheit eine Frontscheibenanzeige sein, welche in dem Fahrzeug montiert ist.
  • Gemäß einem anderen Aspekt der Erfindung wird ein Warnanzeigeverfahren bereitgestellt, welches ein Anzeigebild zum Hervorheben eines Warnobjektes in einer tatsächlichen Szene vor einem Fahrer eines Fahrzeugs oder um das Fahrzeug auf überlagernde Weise anzeigt, wobei das Verfahren einen Erfassungsschritt zum Erfassen des Warnobjektes vor dem Fahrzeug oder um das Fahrzeug, einen Kontrollschritt zum Durchführen einer Anzeigekontrolle zur Positionierung des Anzeigebildes entsprechend der Position des Warnobjektes, welche in dem Erfassungsschritt erfasst worden ist, und einen Anzeigeschritt zum Anzeigen eines Anzeigebildes basierend auf der Anzeigekontrolle in dem Kontrollschritt zum Hervorheben des Warnobjektes, welches in dem Erfassungsschritt in der tatsächlichen Szene vor dem Fahrer des Fahrzeugs oder um das Fahrzeug erfasst worden ist, aufweist, wobei bei dem Kontrollschritt die Größe des Anzeigebildes basierend auf der Position des Warnobjektes, welches in dem Erfassungsschritt erfasst worden ist, und/oder basierend auf einem Bereich, in dem sich die Augen des Fahrers wahrscheinlich befinden, eingestellt wird. Das Warnanzeigeverfahren funktioniert auf dieselbe Weise und hat dieselben Effekte wie die oben beschriebene Warnanzeigenvorrichtung.
  • Erfindungsgemäß wird die Größe des Anzeigebildes, welches auf überlagernde Weise dargestellt wird, basierend auf der Position des Warnobjektes und/oder des Bereichs, in welchem sich die Augen des Fahrers wahrscheinlich befinden, eingestellt, wodurch es möglich ist, eine Abweichung des Anzeigebildes, welches auf überlagernde Weise angezeigt wird, bezüglich des Warnobjektes in der tatsächlichen Szene zu unterdrücken.
  • Figurenliste
    • 1 ist ein Konfigurationsdiagramm einer Warnanzeigenvorrichtung gemäß einer Ausführungsform.
    • 2A und 2B sind Diagramme, welche die Beziehung zwischen einem Fehlerbereich eines externen Sensors, einer Augellipse und der Größe einer Überlagerungsanzeige anzeigen, und im Speziellen ist 2A eine Draufsicht und 2B eine Seitenansicht.
    • 3A und 3B sind Diagramme, welche die Beziehung zwischen der Größe eines Fehlerbereiches eines externen Sensors gemäß einer Position eines Fußgängers und der Größe einer Überlagerungsanzeige zeigen, wobei im Speziellen 3A einen Fall zeigt, in welchem ein Fußgänger in einer weit entfernten Position ist, und 3B einen Fall zeigt, in welchem ein Fußgänger in einer nahen Position ist.
    • 4A und 4B zeigen ein Beispiel einer Überlagerungsanzeige durch eine Frontscheibenanzeige, und im Speziellen zeigt 4A eine Überlagerungsanzeige eines Rahmens und 4B zeigt eine Überlagerungsanzeige einer Unterstreichung.
    • 5 ist ein Flussdiagramm, welches den Fluss einer Warnanzeige gemäß einer Ausführungsform zeigt.
    • 6 ist ein Diagramm, welches schematisch die Veränderung in der Position auf einer Abbildungsoberfläche einer Frontscheibenanzeige in Abhängigkeit von der Position der Augen eines Fahrers zeigt.
  • BESCHREIBUNG VORTEILHAFTER AUSFÜHRUNGSFORMEN
  • Im Folgenden wird eine Ausführungsform einer erfindungsgemäßen Warnanzeigenvorrichtung und eines erfindungsgemäßen Warnanzeigeverfahrens mit Bezug auf die Figuren beschrieben. In den jeweiligen Figuren beziehen sich die gleichen Bezugszeichen auf die gleichen oder auf ähnliche Komponenten und eine überlappende Beschreibung wird weggelassen.
  • In dieser Ausführungsform wird die Erfindung auf eine Warnanzeigenvorrichtung angewendet, bei der eine Frontscheibenanzeige, welche in einem Fahrzeug eingebaut ist, als Anzeigeeinheit verwendet wird. In der Frontscheibenanzeige gemäß dieser Ausführungsform wird, um einem Fahrer ein Erkennen eines Warnobjektes zu ermöglichen, ein Anzeigebild zum Hervorheben eines Warnobjektes in einer tatsächlichen Szene vor dem Fahrer angezeigt (insbesondere eine Überlagerungsanzeige, in weleher das Anzeigebild entsprechend dem Warnobjekt in der tatsächlichen Szene, wenn diese von dem Fahrer betrachtet wird, positioniert ist). Als Anzeigebild, welches in der Überlagerungsanzeige angezeigt wird, wird beispielsweise ein Rahmen, der das Warnobjekt umgibt, oder eine Unterstreichung unter dem Warnobjekt bereitgestellt. Als Warnobjekt sind beispielsweise ein Fußgänger, ein Fahrrad, ein Motorrad und ein Fahrzeug bekannt. Wird die Warnanzeigenvorrichtung verwendet, wenn die Peripherie dunkel ist, wie beispielsweise nachts, wenn ein Warnobjekt, wie beispielsweise ein Fußgänger, selten erkannt wird, kann der Effekt einer Warnung besser dargestellt werden. Demgemäß ist es möglich, eine Überlagerungsanzeige durch die Warnanzeigenvorrichtung nur, wenn die Peripherie dunkel ist, beispielsweise nachts, durchzuführen.
  • Eine Warnanzeigenvorrichtung 1 gemäß dieser Ausführungsform wird mit Bezug auf die 1 bis 4b beschrieben. 1 ist ein Konfigurationsdiagramm einer Warnanzeigenvorrichtung gemäß dieser Ausführungsform. 2A und 2B sind Diagramme, welche die Beziehung zwischen einem Fehlerbereich eines externen Sensors, eine Augellipse und der Größe der Überlagerungsanzeige anzeigen. 3A und 3B sind Diagramme, welche die Beziehung zwischen einem Fehlerbereich eines externen Sensors gemäß der Position eines Fußgängers und der Größe einer Überlagerungsanzeige darstellen. 4A und 4B zeigen ein Beispiel einer Überlagerungsanzeige durch eine Frontscheibenanzeige.
  • In dieser Ausführungsform werden ein Rahmen, welcher ein Warnobjekt umgibt, und eine Unterstreichung unter einem Warnobjekt als Beispiele einer Überlagerungsanzeige beschrieben. Der Rahmen hat eine rechteckige Form. Die Weite einer Linie des Rahmens oder der Unterstreichung wird auf eine voreingestellte Weite eingestellt, so dass sich die optische Anziehungskraft erhöht. Die Farbe des Rahmens oder der Unterstreichung wird auf eine Farbe voreingestellt, so dass sich die optische Anziehungskraft erhöht.
  • Bei der Warnanzeigenvorrichtung wird die Anzeigeposition oder Größe (Länge) des Rahmens oder der Unterstreichung als Anzeigebild, welches auf überlagernde Weise angezeigt wird, so berechnet, dass der Rahmen oder die Unterstreichung auf überlagernde Weise angezeigt werden kann, welche einem Warnobjekt in einer tatsächlichen Szene bei Betrachtung durch den Fahrer entspricht. Im Besonderen wird in der Warnanzeigenvorrichtung die Größe des Rahmens oder der Unterstreichung unter Berücksichtigung eines Fehlerbereichs eines Sensors, welcher ein Warnobjekt erfasst oder unter Berücksichtigung der Augellipse (einem Bereich, in welchem sich die Augen des Fahrers wahrscheinlich befinden) des Fahrers eingestellt, so dass das Warnobjekt in der tatsächlichen Szene in den Bereich des Rahmens oder der Unterstreichung fällt.
  • Die Warnanzeigenvorrichtung 1 beinhaltet einen externen Sensor 10, einen internen Sensor 11, eine Frontscheibenanzeige 20 und eine elektronische Kontrolleinheit (E-CU) 30. In dieser Ausführungsform entsprechen der externe Sensor 10 und die ECU 30 einer Erfassungseinheit, welche in den beiliegenden Ansprüchen beschrieben ist, die ECU 30 entspricht einer Kontrolleinheit, welche in den beiliegenden Ansprüche beschrieben ist, und die Frontscheibenanzeige 20 entspricht einer Anzeigeeinheit, welche in den beiliegenden Ansprüchen Beschreibung ist.
  • Der externe Sensor 10 ist ein Sensor, welcher ein Objekt außerhalb des Fahrzeugs (insbesondere vor dem Fahrzeug) erfasst. Als zu erfassendes Objekt sind beispielsweise ein Fußgänger, ein Fahrrad, ein Motorrad und andere Fahrzeuge bekannt. Als externer Sensor 10 kann beispielsweise ein Radarsensor wie ein Millimeterwellenradar, ein Ultraschallradar oder ein Laser-Radar, oder ein Kamerasensor mit einer Kamera und einem Bildprozessor bereitgestellt werden, oder eines von einem Radarsensor und einem Kamerasensor. Ein aus dem Stand der Technik bekanntes Verfahren wird auf die Objekterfassung durch den Radarsensor oder den Kamerasensor angewandt. Durch die Objekterfassung durch diese Sensoren wird die Anwesenheit/Abwesenheit eines Objektes in einem dreidimensionalen Raum erfasst, und wenn ein Objekt anwesend ist, wird die Position (die relative Distanz von dem Fahrzeug, die Richtung (horizontale Position) oder ähnliches), die Größe (Größe in horizontaler Richtung, Höhenrichtung oder ähnliches), der Typus und ähnliches des Objektes erfasst. Der externe Sensor 10 erfasst ein Objekt vor dem Fahrzeug in dem Erfassungszyklus eines jeden Sensors, um verschiedene Arten von Informationen zu erfassen, und überträgt ein externes Informationssignal (Informationen bezüglich der Anwesenheit/Abwesenheit eines Objektes, und wenn ein Objekt anwesend ist, Informationen bezüglich der Position, der Größe, des Typs und ähnlichem des Objektes) an die ECU 30. Wenn eine Kamera als Sensor zur Erfassung eines Objektes auch dann verwendet wird, wenn die Peripherie dunkel ist, wie beispielsweise nachts, wird vorzugsweise eine Infrarotkamera oder eine Nahinfrarotkamera verwendet. Wenn eine Kamera als Sensor verwendet wird, wird vorzugsweise eine Stereokamera verwendet, welche die Distanz oder ähnliches durch Parallaxe erfassen kann.
  • Jeder Sensor des externen Sensors 10 hat einen Erfassungsfehler, welcher von der Sensorleistung (bzw. Art des Sensors) abhängt. Beispielsweise verändert sich die Erfassungsgenauigkeit in Abhängigkeit von dem Abtastwinkel, da ein Radarsensor die Objekterfassung durchführt, während er in jedem vorherbestimmten Abtastwinkel in Links-Rechts-Richtung abtastet, und die Erfassungsgenauigkeit einer horizontalen Position verringert sich mit einer Distanz von dem Radarsensor. Im Falle eines Kamerasensors verändert sich die Erfassungsgenauigkeit in Abhängigkeit von der Auflösung der Kamera. Im Falle eines Stereosensors verändert sich die Erfassungsgenauigkeit in Abhängigkeit von dem Intervall der linken und rechten Kamera. Wenn die Position durch diese Sensoren erfasst wird, verändert sich der Erfassungsfehler im Fehlerbetrag (Fehlerbereich) in Abhängigkeit von der relativen Position von dem Sensor (insbesondere relative Distanz) und der Fehlerbetrag vergrößert sich mit einer Distanz von dem Sensor (der Fehlerbereich wird erweitert). Demgemäß wird für jeden Sensor, welcher als externer Sensor 10 verwendet wird, der Fehlerbetrag (ein Fehlerbetrag in einer Distanzrichtung, ein Fehlerbetrag in einer horizontalen Richtung (horizontale Position) und ein Fehlerbetrag in einer Höhenrichtung) gemäß der relativen Position von dem Sensor vorausbestimmt. Dann wird Informationen bezüglich des Fehlerbetrages gemäß der relativen Position von dem Sensor in der ECU 30 im Voraus gespeichert.
  • Der interne Sensor 11 ist ein Sensor, der Informationen bezüglich des Fahrzeugs erfasst. Als der interne Sensor 11 sind beispielsweise ein GPS (Global Position System)-Sensor (jedoch werden, wenn ein Navigationssystem eingebaut ist, Positionsinformationen von dem Navigationssystem erfasst), welcher die Position des Fahrzeugserfasst, ein Fahrzeuggeschwindigkeitssensor, welcher die Fahrzeuggeschwindigkeit erfasst, ein Gierratensensor, welcher eine Gierrate erfasst, ein Lenkwinkelsensor, welcher einen Lenkwinkel eines Lenkrads erfasst, ein Gaspedalsensor, welcher einen Betätigungsgrad eines Gaspedals erfasst, und ein Bremspedalsensor, welcher einen Betätigungsgrad eines Bremspedals erfasst, bereitgestellt. Der interne Sensor 11 erfasst verschiedene Arten von Informationen (Position, Fahrzeuggeschwindigkeit, Gierrate, Lenkwinkel, Gaspedalbetätigungsgrad, Bremspedalbetätigungsgrad und ähnliches) mit Bezug auf das Fahrzeug in jedem Detektionszyklus eines jeden Sensors und überträgt ein internes Informationssignal an die ECU 30.
  • Die Frontscheibenanzeige 20 ist eine Vorrichtung, welche dafür bereitgestellt wird, ein Video (den Rahmen in der Überlagerungsanzeige oder ähnliches) auf einer Frontscheibe anzuzeigen, um dieses auf eine tatsächliche Szene zu überlagern. In der Frontscheibenanzeige 20 wird ein Video in Richtung der Frontscheibe projiziert, und das Video wird durch die Frontscheibe in Richtung des Fahrers reflektiert, wobei ein Video vor der Frontscheibe entsteht, um ein virtuelles Bild zu bilden (welches einem Anzeigebild entspricht). Die Frontscheibenanzeige 20 ist eine bekannte Anzeige, eine detaillierte Konfiguration hiervon wird weggelassen. Wird ein Anzeigenkontrollsignal von der ECU 30 empfangen, so erfasst die Frontscheibenanzeige 20 die Anzeigeposition auf der Frontscheibe oder Informationen (Größe oder ähnliches) betreffend einen Rahmen oder eine Unterstreichung, welche angezeigt werden soll, aus dem Anzeigenkontrollsignal, und projiziert einen Rahmen oder eine Unterstreichung der angegebenen Größe in der angegebenen Position auf die Frontscheibe.
  • Die ECU 30 ist eine elektronische Kontrolleinheit, welche eine Central Processing Unit (CPU), einen Read Only Memory (ROM), einen Random Access Memory (RAM) und ähnliches beinhaltet und die allgemeine Kontrolle der Warnanzeigenvorrichtung 1 durchführt. In der ECU 30 wird ein in der ROM gespeichertes Anwendungsprogramm auf die RAM geladen und durch die CPU durchgeführt, wodurch ein Warnobjekterfassungsverfahren, ein Warnobjektinformationserfassungsverfahren, ein Fehlerbetragleseverfahren, ein Positionserfassungsfehlerbereichberechnungsverfahren, ein Augellipsenleseverfahren, eine Anzeigegrößeberechnungsverfahren, ein Anzeigepositionsberechnungsverfahren und ein Anzeigeverfahren durchgeführt werden. Von der ECU 30 wird das externe Informationssignal, welches von dem externen Sensor 10 übertragen wird, empfangen und das interne Informationssignal, welches von dem internen Sensor 11 übertragen wird, empfangen. In der ECU 30 werden die oben beschriebenen Verfahren basierend auf dem externen Informationssignal oder dem internen Informationssignal in jedem Kontrollzyklus gemäß der Taktfrequenz der CPU durchgeführt, und das Anzeigenkontrollsignal wird an die Frontscheibenanzeige 20 wie erforderlich übertragen.
  • Das Warnobjekterfassungsverfahren wird beschrieben. In der ECU wird unter Verwendung des externen Informationssignals von dem externen Sensor 10 eine Bestimmung durchgeführt, ob ein jeweiliges erfasstes Objekt ein Objekt ist, vor dem der Fahrer gewarnt werden sollte (welches das Fahren des Fahrzeugs gefährdet) oder nicht, und ein Objekt, vor dem gewarnt werden soll, wird als Warnobjekt bestimmt. Als Bestimmungsverfahren wird beispielsweise eine Bestimmung ausgeführt, ob oder nicht sich das Objekt in Richtung einer Spur (Straße) bewegt, auf welcher das Fahrzeug sich bewegt, ob sich das Objekt nahe der Spur befindet, ob das Objekt mit hoher Wahrscheinlichkeit die Spur kreuzt, oder ähnliches, basierend auf der Position oder der Bewegungsrichtung des Objektes. Zu diesem Zeitpunkt wird eine Kollisionswahrscheinlichkeit zwischen dem Objekt und dem Fahrzeug aus der Position, der Bewegungsrichtung der Bewegungsgeschwindigkeit oder ähnlichem des Objektes und der Position, Bewegungsrichtung, Bewegungsgeschwindigkeit oder ähnlichem des Fahrzeugs berechnet, und wenn die Kollisionswahrscheinlichkeit gleich oder größer ist als ein vorherbestimmter Wert, kann das Objekt als Warnobjekt bestimmt werden. Die Bewegungsrichtung oder die Bewegungsgeschwindigkeit des Objektes kann aus einer zeitlichen Veränderung in der Position des Objektes bestimmt werden. Da das Fahrzeug und das Objekt sich bewegen (jedoch auch gestoppt werden können) und sich daher die positionelle Beziehung zwischen dem Fahrzeug und dem Objekt zeitlich ändert, ist es notwendig, sogar für das gleiche Objekt die Bestimmung in jedem Kontrollzyklus durchzuführen.
  • Das Warnobjektinformationsverfahren wird beschrieben. In der ECU 30 werden Informationen bezüglich der Position, Größe, des Typs und ähnlichem des Objektes aus dem externen Informationssignal von dem externen Sensor 10 für jedes Objekt, welches als ein Warnobjekt bestimmt worden ist, gewonnen. Da das Fahrzeug und das Objekt sich bewegen und sich daher die relative Position oder Größe des Objektes von dem Fahrzeug zeitlich ändert, ist es notwendig, sogar für das gleiche Objekt Informationen in jedem Kontrollzyklus zu erfassen.
  • Das Fehlerbetragleseverfahren wird beschrieben. Die ECU liest den Fehlerbetrag gemäß der Position (insbesondere der relativen Position) des Warnobjektes aus den Informationen bezüglich des Fehlerbereichs gemäß der relativen Position von dem externen Sensor 10 (Fahrzeug), welche in dem ROM gespeichert ist, für jedes Objekt, welches als ein Warnobjekt bestimmt ist. Wenn eine Mehrzahl von Sensoren als der externe Sensor 10 verwendet werden, wird der Fehlerbetrag für einen Sensor, welcher dazu verwendet wird, die Position des Warnobjektes zu erfassen, gelesen. Der gelesene Fehlerbetrag beinhaltet einen Fehlerbetrag in einer Distanzrichtung, einen Fehlerbetrag in einer horizontalen Richtung und einen Fehlerbetrag in einer Höhenrichtung. Da das Fahrzeug und das Objekt sich bewegen und die relative Position des Objektes von dem Fahrzeug sich zeitlich verändert, ist es notwendig, das Lesen des Fehlerbetrages in jedem Kontrollzyklus durchzuführen.
  • Je weiter die Position des Warnobjektes von dem externen Sensor 10 (Fahrzeug) entfernt ist, desto kleiner ist die Größe des Warnobjektes, welche durch den externen Sensor 10 erfasst wird. Das heißt, es besteht eine Korrelation zwischen der Position und der Größe des Warnobjekts, welches durch den externen Sensor 10 erfasst wird. Demgemäß kann der Fehlerbetrag gemäß der Größe des Warnobjektes im Voraus bestimmt werden und in der ECU 30 im Voraus gespeichert werden, und der Fehlerbetrag gemäß der Größe des Warnobjektes kann gelesen werden.
  • Das Erfassungspositionsfehlerbereichsberechnungsverfahren wird beschrieben. Die ECU 30 berechnet den Fehlerbereich der Erfassungsposition des Warnobjektes unter Verwendung des gelesenen Fehlerbetrages für jedes Objekt, welches als Warnobjekt bestimmt worden ist. Der Fehlerbereich ist beispielsweise ein ellipsoider, dreidimensionaler Bereich, welcher den Fehlerbetrag in der Distanzrichtung, den Fehlerbetrag in der horizontalen Richtung und den Fehlerbetrag in der Höhenrichtung als die maximalen Werte in den jeweiligen Richtungen hat mit der Erfassungsposition des Warnobjektes, welches durch den externen Sensor 10 erfasst worden ist, als Zentrum. Hinsichtlich des Fehlerbereichs ist beispielsweise der dreidimensionale Bereich in 2A durch eine Ellipse Pp in Draufsicht ausgedrückt und in 2B durch eine Ellipse Pf in Seitenansicht ausgedrückt. Da sich das Fahrzeug und das Objekt bewegen und sich die relative Position des Objektes von dem Fahrzeug zeitlich verändert, ist es notwendig, die Berechnung des Erfassungspositionsfehlerbereichs in jedem Kontrollzyklus durchzuführen.
  • Je weiter das Warnobjekt von dem externen Sensor 10 (Fahrzeug) entfernt ist, desto größer ist der Fehlerbetrag in der Distanzrichtung, der Fehlerbetrag in der horizontalen Richtung und der Fehlerbetrag in der Höhenrichtung (jedoch ist der Zunahmegrad verschieden) und desto weiter ist der Fehlerbereich der Erfassungsposition des Warnobjektes. 3A und 3B zeigen ein Beispiel der Beziehung zwischen der Position (insbesondere einer relativen Position) eines Fußgängers W von einem Fahrzeug V und einem Fehlerbereich (einem Bereich in Draufsicht). Wie in 3 gezeigt, wird ein Fehlerbereich Pp 1 erweitert, wenn der Fußgänger W weit entfernt ist von dem Fahrzeug V und, wie in 3B gezeigt wird ein Fehlerbereich Pp2 verengt, wenn der Fußgänger W nahe an dem Fahrzeug V ist. Auf diese Weise beinhaltet die Erfassungsposition des Warnobjektes durch den externen Sensor 10 einen Fehler, und je weiter das Warnobjekt von dem externen Sensor 10 (Fahrzeug) entfernt ist, desto weiter ist der Fehlerbereich. Innerhalb dieses Fehlerbereichs kann die Erfassungsposition des Warnobjektes, welches durch den externen Sensor 10 erfasst wird, von der tatsächlich Position abweichen. Aus diesem Grunde kann das Warnobjekt aus dem Rahmen oder der Unterstreichung hervorragen, wenn die Größe des Rahmens oder der Unterstreichung, welcher auf überlagernde Weise angezeigt ist, nicht unter Berücksichtigung des Fehlerbereichs gemäß der Position des Warnobjektes verändert wird.
  • Das Augellipsenleseverfahren wird beschrieben. Die ECU 30 liest Informationen bezüglich der Augellipse, welche in dem ROM gespeichert ist. Beispielsweise ist die Augellipse (die Verteilung der Position der Augen des Fahrers ist statistisch ausgedrückt) in einem Fahrzeugdesignstadium definiert. Die Augellipse ist ein ellipsoider dreidimensionaler Bereich, und der dreidimensionale Bereich ist beispielsweise durch eine Ellipse Ep in Draufsicht, wie in 2A gezeigt, und eine Ellipse Ef in Seitenansicht, wie in 2B gezeigt, ausgedrückt. Die Augen des Fahrers befinden sich innerhalb des Bereiches der Augellipse und der Winkel, in dem der Fahrer ein Warnobjekt betrachtet, verändert sich in Abhängigkeit von der Position der Augen. Aus diesem Grund kann das Warnobjekt aus dem Rahmen oder der Unterstreichung hervorragen, wenn die Größe des Rahmens oder der Unterstreichung, die auf überlagernde Weise dargestellt sind, nicht unter Berücksichtigung der Augellipse verändert wird. Die Augellipse ist ein unveränderlicher Bereich, der in der ROM im Voraus gespeichert worden ist, und kann zumindest einmal abgelesen werden.
  • Das Anzeigegrößenrechnungsverfahren wird beschrieben. Die ECU 30 berechnet die Größe des Rahmens oder der Unterstreichung zu einem Anzeigezeitpunkt auf der Frontscheibenanzeige 20 unter Verwendung des berechneten Fehlerbereichs der Erfassungsposition und der gelesenen Augellipse für jedes Objekt, das als Warnobjekt bestimmt worden ist, so dass der Rahmen oder die Unterstreichung die größte Größe unter Berücksichtigung des Fehlerbereiches und der Augellipse hat. Mit Bezug auf die Größe werden die Länge in der Weitenrichtung und die Länge in der Höhenrichtung berechnet. Im Falle eines Rahmens können die horizontale und die vertikale Länge des rechteckigen Rahmens durch die Länge in der Weitenrichtung und die Länge in der Höhenrichtung definiert werden. Im Falle einer Unterstreichung kann die Länge des Striches durch die Länge in der Weitenrichtung definiert werden, und die Anzeigeposition unter dem Warnobjekt kann durch die Länge in der Höhenrichtung definiert werden. Da das Fahrzeug und das Objekt sich bewegen, und sich daher die relative Position oder Größe des Objekts von dem Fahrzeug zeitlich verändert, ist es notwendig, die Berechnung der Größe des Rahmens oder der Unterstreichung in jedem Kontrollzyklus durchzuführen.
  • Ein Beispiel des Berechnungsverfahrens wird mit Bezug auf die 2A und 2B beschrieben. Wie in 2A gezeigt, werden zwei Tangenten Tp1 und Tp2, welche sich jeweils in Kontakt mit dem Fehlerbereich Pp der Ellipse und der Augellipse Ep der Ellipse befinden, unter Verwendung des Fehlerbereiches Pp in Draufsicht und der Augellipse Pp in Draufsicht berechnet, und die Schnittpunkte lp1 und lp2 zwischen den zwei Tangenten Tp1 und Tp2 und der Abbildungsoberfläche S in der Überlagerungsanzeige auf der Frontscheibenanzeige 20 berechnet. Die Schnittpunkte Ip1 und lp2 werden der linke Endabschnitt und der rechte Endabschnitt in der Weitenrichtung und die Länge zwischen den Schnittpunkten lp1 und lp2 wird die Länge Wmax in der Weitenrichtung. Ähnlich dazu werden, wie in 2B gezeigt, zwei Tangenten Tf1 und Tf2, welche sich jeweils in Kontakt mit dem Fehlerbereich Ps der Ellipse und der Augellipse Es der Ellipse befinden, unter Verwendung des Fehlerbereichs Ps in Seitenansicht und der Augellipse Es in Seitenansicht berechnet, und die Schnittpunkte Is1 und Is2 zwischen den zwei Tangenten Ts1 und Ts2 und der Abbildungsoberfläche S werden berechnet. Die Schnittpunkte ls1 und ls2 werden der obere Endabschnitt und der untere Endabschnitt in der Höhenrichtung und die Längen zwischen den Schnittpunkten ls1 und ls2 wird die Länge Hmax in der Höhenrichtung. Die Positionen Ip1, Ip2, Is1 und Is2 der jeweiligen Endabschnitte oder der Längen Wmax und Hmax in den jeweiligen Richtungen sind die Positionen oder Längen auf der Abbildungsoberfläche S vor der Frontscheibe und die Positionen lp1, lp2, ls1 und ls2 der jeweiligen Endabschnitte oder der Längen Wmax und Hmax in den jeweiligen Richtungen werden in die Positionen der jeweiligen Endabschnitte oder die Längen in den jeweiligen Richtungen umgewandelt zur Projektion des Rahmens oder der Unterstreichung auf die Frontscheibe.
  • Wie oben beschrieben ist, je weiter das Warnobjekt von dem externen Sensor 10 (Fahrzeug) entfernt ist, desto weiter der Fehlerbereich der Erfassungsposition des Warnobjektes. Wie in 3A gezeigt, wird, wenn der Fußgänger W weit von dem Fahrzeug V entfernt ist, ein weiter Fehlerbereich Pp1 eingestellt und, wie in 3B gezeigt, wird, wenn der Fußgänger W nahe bei dem Fahrzeug V ist, ein enger Fehlerbereich Pp2 eingestellt. Aus diesem Grund werden, wenn der Fußgänger W weit entfernt von dem Fahrzeug V ist, die Positionen Ip1 und Ip2 der linken und rechten Endabschnitte auf der Abbildungsoberfläche S eingestellt und die Länge Wmax1 in der langen Weitenrichtung wird gemäß dem weiten Fehlerbereich Pp1 eingestellt. Auf der anderen Seite werden, wenn der Fußgänger W nahe an dem Fahrzeug V ist, die Positionen Ip3 und Ip4 der oberen und unteren Endabschnitte auf der Abbildungsoberfläche S eingestellt und die Länge Wmax2 in der kurzen Weitenrichtung wird gemäß dem engen Fehlerbereich Pp2 eingestellt. Das gleiche trifft auf die Höhenrichtung zu. Demgemäß wird, wenn das Warnobjekt weit entfernt ist von dem externen Sensor 10 (Fahrzeug), die Länge Wmax in der Weitenrichtung oder die Länge Hmax in der Höhenrichtung erweitert und die Größe des Rahmens oder der Unterstreichung, der oder die auf überlagernde Weise angezeigt wird, vergrößert sich.
  • Bei der Berechnung der Größe des Rahmens oder der Unterstreichung, welche(r) auf überlagernde Weise angezeigt werden soll, kann die Größe (oder der Typ) des Warnobjektes, welches durch den externen Sensor 10 erfasst worden ist, in Betracht gezogen werden und beispielsweise ist die Größe des Rahmens oder der Unterstreichung größer, je größer die Größe des Warnobjektes ist. Sogar wenn Warnobjekte in derselben Position sind, vergrößert sich die Größe des Rahmens oder der Unterstreichung, wenn die Warnobjekte eine verschiedene Größe haben (oder verschiedenen Typs sind), da das große Warnobjekt in den Bereich des Rahmens oder der Unterstreichung fallen kann. Sind beispielsweise Warnobjekte wie eine Person und ein Fahrrad von unterschiedlicher Größe und die Größe (insbesondere die Größe in der horizontalen Richtung) eines Rahmens oder einer Unterstreichung des Fahrrads ist nicht größer als die Größe eines Rahmens oder einer Unterstreichung der Person, so kann es sein, dass das Fahrrad nicht innerhalb des Bereiches des Rahmens oder der Unterstreichung fällt.
  • Das Anzeigepositionsberechnungsverfahren wird beschrieben. Die ECU 30 berechnet die Anzeigeposition (die Projektionsposition auf die Frontscheibe) eines Rahmens oder einer Unterstreichung zu einem Anzeigezeitpunkt auf der Frontscheibenanzeige 20 unter Verwendung der berechneten Positionen der jeweiligen Endabschnitte zur Projektion des Rahmens oder der Unterstreichung auf die Frontscheibe für jedes Objekt, welches als ein Warnobjekt bestimmt worden ist. Im Fall eines Rahmens wird die zentrale Position zwischen der Position des linken Endabschnitts und der Position des rechten Endabschnitts als die Anzeigeposition in der Weitenrichtung berechnet und die zentrale Position zwischen der Position des oberen Endabschnitts und der Position des unteren Endabschnitts wird als die Anzeigeposition in der Höhenrichtung berechnet. Im Falle einer Unterstreichung wird die zentrale Position zwischen der Position des linken Endabschnitts und der Position des rechten Endabschnitts als die Anzeigeposition in der Weitenrichtung berechnet und die Position des unteren Endabschnitts wird als die Anzeigeposition in der Höhenrichtung unverändert eingestellt. Da das Fahrzeug und das Objekt sich bewegen und sich daher die relative Position oder Größe des Objekts von dem Fahrzeug zeitlich ändert, ist es notwendig, die Berechnung der Anzeigeposition des Rahmens oder der Unterstreichung in jedem Kontrollzyklus durchzuführen.
  • Das Anzeigeverfahren wird beschrieben. Die ECU 30 erzeugt ein Anzeigenkontrollsignal für jedes Objekt, welches als ein Warnobjekt bestimmt worden ist, und überträgt das Anzeigenkontrollsignal an die Frontscheibenanzeige 20. Das Anzeigenkontrollsignal beinhaltet Informationen bezüglich der berechneten Größe und Position des Rahmens oder der Unterstreichung zum Anzeigezeitpunkt auf der Frontscheibenanzeige 20. Die ECU 30 überträgt das Anzeigenkontrollsignal an die Frontscheibenanzeige 20, bis bestimmt ist, dass ein Objekt kein Warnobjekt ist. Da die Anzeigeposition oder Größe in jedem Kontrollzyklus berechnet wird, ist es notwendig, dass Anzeigenkontrollsignal dementsprechend in jedem Kontrollzyklus erneut zu erzeugen.
  • In einem in den 4A und 4B gezeigten Beispiel wird ein Fußgänger W als Warnobjekt erfasst. Ein Fahrzeug bewegt sich auf einer Spur (Straße) L und eine Überlagerungsanzeige zum Warnen, dass sich der Fußgänger W der Spur L nähert, wird durchgeführt. 4A zeigt eine Überlagerungsanzeige durch einen Rahmen. Ein rechteckiger Rahmen F, der die Länge Wmax in der Weitenrichtung und die Länge Hmax in der Höhenrichtung mit einer zentralen Position zwischen den rechten und linken Endabschnitten als Zentrum hat, wird abgebildet, und der Fußgänger W, der durch den Fahrer gesehen wird, fällt in den Rahmen F. 4B zeigt eine Überlagerungsanzeige als eine Unterstreichung. Eine Unterstreichung B, welche eine Länge Wmax in der Weitenrichtung mit einer zentralen Position zwischen den rechten und linken Endabschnitten und die Position des unteren Endabschnittes als Zentrum hat, wird abgebildet, und der Fußgänger W, der von dem Fahrer gesehen wird, fällt in den Bereich der Unterstreichung B.
  • Der Betriebsfluss der Warnanzeigenvorrichtung 1, welche die oben beschriebene Konfiguration hat, wird mit Bezug auf das Flussdiagramm der 5 beschrieben. 5 ist ein Flussdiagramm, welches den Fluss der Warnanzeige gemäß dieser Ausführungsform zeigt. In der Beschreibung des Betriebs wird ein Fall, bei dem ein Rahmen auf überlagernde Weise gezeigt wird, beschrieben werden.
  • Der externe Sensor 10 erfasst ein Objekt vor dem Fahrzeug in jedem Erfassungszyklus und erfasst, wenn ein Objekt erfasst werden kann, Informationen bezüglich der Position, Größe, des Typs und ähnlichem des Objekts, und übermittelt diese Informationen als ein externes Informationssignal an die ECU 30. Die ECU 30 empfängt das externe Informationssignal und speichert die Informationen, welche in dem externen Informationssignal enthalten sind, vorübergehend. Der interne Sensor 11 erfasst die Position, die Geschwindigkeit, Gierrate, Lenkwinkel, den Gaspedalbetätigungsgrad, den Bremspedalbetätigungsgrad und ähnliches des Fahrzeugs in jedem Erfassungszyklus und überträgt die erfassten Informationen als ein internes Informationssignal an die ECU 30. Die ECU 30 empfängt das interne Informationssignal und speichert Informationen, welche in dem internen Informationssignal enthalten ist, vorübergehend.
  • Die ECU 30 führt eine Ermittlung durch, ob oder nicht jedes Objekt, welches erfasst wird, ein Objekt ist, vor dem der Fahrer gewarnt werden soll, basierend auf Informationen, welche in dem externen Informationssignal in jedem Kontrollzyklus enthalten ist, und erfasst ein Objekt, vor dem gewarnt werden sollte, als Warnobjekt (S1). S1 entspricht einem Erfassungsschritt in den beiliegenden Ansprüchen. Die ECU 30 erfasst Informationen bezüglich der Position, Größe, des Typs und ähnlichem des Warnobjekts basierend auf Informationen, welche in dem externen Informationssignal für das erfasste Warnobjekt enthalten sind (S2).
  • Die ECU 30 liest den Fehlerbetrag des externen Sensors 10 gemäß der Position des Warnobjektes aus den Informationen, welche im Voraus in dem ROM gespeichert sind, für jedes erfasste Warnobjekt in jedem Kontrollzyklus (S3) und berechnet den Fehlerbereich der Erfassungsposition des Warnobjekts unter Verwendung des Fehlerbetrages (S4). Die ECU 30 liest den Bereich (Augellipse) des Blickpunktes des Fahrers aus Informationen, welche im Voraus in der ROM gespeichert sind (S5).
  • Die ECU 30 berechnet die Größe und die Anzeigeposition des Rahmens, welcher der größte auf der Frontscheibenanzeige 20 wird, basierend auf dem Fehlerbereich der Erfassungsposition des Warnobjektes und der Augellipse für jedes erfasste Warnobjekt in jedem Kontrollzyklus (S6). Dann erzeugt die ECU 30 ein Anzeigenkontrollsignal zur Anzeige des Rahmens mit der Größe in der Anzeigeposition auf überlagernde Weise für jedes Warnobjekt in jedem Kontrollzyklus und übermittelt das Anzeigenkontrollsignal an die Frontscheibenanzeige 20 (S7). Wenn das Anzeigenkontrollsignal empfangen ist, projiziert die Frontscheibenanzeige 20 ein Video des Rahmens der durch das Anzeigenkontrollsignal wiedergegebenen Größe auf die Frontscheibe in einer Anzeigeposition, die durch das Anzeigenkontrollsignal gegeben ist (S7). Wenn der projizierte Rahmen von der Frontscheibe in Richtung des Fahrers reflektiert wird, wird der Rahmen, der das Warnobjekt umgibt, vor der Frontscheibe abgebildet, und das Warnobjekt wird durch den Rahmen hervorgehoben. Insbesondere ist der Rahmen der Rahmen unter Berücksichtigung des Fehlerbereichs der Erfassungsposition des Warnobjekts und der Augellipse und es ist extrem unwahrscheinlich, dass das Warnobjekt aus dem Rahmen hervorragt. Daher bewegt der Fahrer die Augen in Richtung des Rahmens und bemerkt das Auftreten einer Warnung, wenn der Fahrer die Augen sofort auf den Rahmen heftet. Der Fahrer, der dem Rahmen zugewandt ist, fokussiert auf das Warnobjekt in dem Rahmen und erkennt das Warnobjekt. S7 entspricht einem Anzeigeschritt, wie er in den beiliegenden Ansprüchen beschrieben ist, und S3 bis S7 entsprechen einem Kontrollschritt, wie er in den beiliegenden Ansprüchen beschrieben ist.
  • Wird ein Objekt, welches als Warnobjekt erfasst worden ist, nicht als Warnobjekt erfasst, so unterbricht die ECU 30 die Übertragung des Anzeigenkontrollsignals für das Warnobjekt. Demgemäß unterbricht die Frontscheibenanzeige 20 die Projektion des Videos des Rahmens, der das Warnobjekt umgibt.
  • Gemäß dieser Warnanzeigenvorrichtung 1 wird die Größe des Anzeigebildes (Rahmen oder Unterstreichung), welche auf überlagernde Weise angezeigt wird, basierend auf dem Fehlerbereich des externen Sensors 10 gemäß der Position des Warnobjektes und des Bereiches (Augellipse), in dem sich die Augen des Fahrers wahrscheinlich befinden, eingestellt, wodurch es möglich ist, eine Abweichung des Anzeigebildes, welches auf überlagernde Weise angezeigt wird, bezüglich des Warnobjektes in der tatsächlichen Szene zu unterdrücken. Dies führt dazu, dass das Warnobjekt nicht aus dem Anzeigebereich des Anzeigebildes hervorragt und der Fahrer das Warnobjekt einfach auffindet. Das Anzeigebild wird nicht außerhalb des Warnobjektes angezeigt und der Fahrer wird nicht vor einem falschen Objekt gewarnt oder auf dieses hingewiesen.
  • Im Übrigen weist, da der externe Sensor 10 einen Erfassungsfehler hat, die Position des Warnobjektes, welche durch den externen Sensor 10 erfasst wird, einen Fehler auf, und der Bereich des Erfassungsfehlers verändert sich in Abhängigkeit von der Position des Warnobjektes. Jedoch vergrößert sich bei der Warnanzeigenvorrichtung 1 die Größe des Anzeigebildes, wenn der Fehlerbereich gemäß der Position des Warnobjektes größer wird, wodurch sogar, wenn die Erfassungsposition des Warnobjektes, welche durch den externen Sensor 10 erfasst wird, von der tatsächlichen Position aufgrund des Erfassungsfehlers abweicht, eine Überlagerungsanzeige durch ein Anzeigebild ausgeführt werden kann, welches groß genug ist, den Abweichungsbetrag abzudecken. Die Position der Augen des Fahrers verändert sich in Abhängigkeit von der Sitzhöhe, der Fahrhaltung oder ähnlichem des Fahrers. Jedoch vergrößert sich in der Warnanzeigenvorrichtung 1 die Größe des Anzeigebildes entsprechend der Augellipse, wodurch sogar, wenn sich die Position der Augen eines individuellen Fahrers verändert, eine Überlagerungsanzeige durch ein Anzeigebild ausgeführt werden kann, welches groß genug ist, die Differenz in der Position der Augen abzudecken.
  • Obwohl diese Ausführungsform der Erfindung beschrieben worden ist, beschränkt sich die Erfindung nicht auf die oben beschriebene Ausführungsform und kann in verschiedenen Arten ausgeführt werden.
  • Beispielsweise kann die Erfindung auf andere Anzeigevorrichtungen angewandt werden, obwohl in dieser Ausführungsform die Erfindung auf eine Frontscheibenanzeige, die in einem Fahrzeug montiert ist, angewandt wird. Beispielsweise kann die Erfindung auf eine Anzeigevorrichtung angewandt werden, welche in das Fahrzeug von außen eingebracht wird. Obwohl in dieser Ausführungsform eine Konfiguration, in welcher ein Warnobjekt in einer tatsächlichen Szene vor einem Fahrzeug hervorgehoben wird, ausgeführt worden ist, kann eine Konfiguration, in welcher ein Warnobjekt in einer tatsächlichen Szene um das Fahrzeug, wie beispielsweise auf der hinteren Seite oder einer seitlichen Seite hervorgehoben wird, ausgeführt werden.
  • In dieser Ausführungsform können, obwohl ein Beispiel eines Rahmens, welcher das Warnobjekt umgibt oder einer Unterstreichung unter einem Warnobjekt als Anzeigebilder bei der Überlagerungsanzeige beschrieben worden sind, auch andere Anzeigebilder verwendet werden.
  • In dieser Ausführungsform können, obwohl die Augellipse, welche in dem Designstadium definiert worden ist, als der Bereich angewandt worden ist, in welchem sich die Augen des Fahrers wahrscheinlich befinden, die Augen des Fahrers unter Verwendung eines Kamerasensors oder ähnlichem erfasst werden, und ein Bereich, in welchem sich die Augen des Fahrers wahrscheinlich befinden, kann so eingestellt werden, dass er den Fehlerbereich des Sensors hat, welcher für die Erfassung verwendet worden ist, mit der erfassten Position der Augen als Zentrum.
  • In dieser Ausführungsform kann, obwohl eine Konfiguration, in welcher die Größe des Rahmens oder der Unterstreichung in der Überlagerungsanzeige unter Verwendung sowohl des Fehlerbereichs des Sensors gemäß der Position des Warnobjekts und des Bereichs (Augellipse), in welchem sich die Augen des Fahrers befinden, beschrieben worden ist, die Größe des Rahmens oder der Unterstreichung in der Überlagerungsanzeige unter Verwendung entweder des Fehlerbereichs des Sensors gemäß der Position des Warnobjektes oder unter Verwendung des Bereichs, in welchem sich die Augen des Fahrers befinden, eingestellt werden.
  • In dieser Ausführungsform kann, obwohl eine Konfiguration, in welcher der Fehlerbereich des Sensors gemäß der Position des Warnobjektes bestimmt wird und die Größe des Rahmens oder der Unterstreichung in der Überlagerungsanzeige unter Verwendung des Fehlerbereichs des Sensors eingestellt wird, beschrieben worden ist, die Größe des Rahmens oder der Unterstreichung in der Überlagerungsanzeige direkt von der Position des Warnobjektes eingestellt werden.

Claims (5)

  1. Warnanzeigenvorrichtung (1), welche ein Anzeigebild zur Hervorhebung eines Warnobjektes (W) in einer tatsächlichen Szene vor einem Fahrer eines Fahrzeugs (V) oder um das Fahrzeug (V) auf überlagernde Weise anzeigt, wobei die Vorrichtung aufweist: eine Erfassungseinheit (10), welche dazu ausgelegt ist, das Warnobjekt (W) vor dem Fahrzeug (V) oder um das Fahrzeug (V) zu erfassen; eine Kontrolleinheit (30), welche dazu ausgelegt ist, eine Anzeigekontrolle zur Positionierung des Anzeigebilds entsprechend der Position des Warnobjektes (W), welches durch die Erfassungseinheit (10) erfasst worden ist, durchzuführen; und eine Anzeigeeinheit (20), welche dazu ausgelegt ist, das Anzeigebild zur Hervorhebung des Warnobjektes (W), welches durch die Erfassungseinheit (10) in der tatsächlichen Szene vor dem Fahrer des Fahrzeugs (V) oder um das Fahrzeug (V) erfasst worden ist, basierend auf der Anzeigekontrolle der Kontrolleinheit (30) anzuzeigen, wobei die Kontrolleinheit (30) die Größe des Anzeigebildes basierend auf einem Fehlerbereich (Pp1,Pp2) der Erfassungseinheit (10) gemäß der Position des Warnobjektes (W), welches durch die Erfassungseinheit (10) erfasst worden ist, und basierend auf einem Bereich (EP,EF), in dem sich die Augen des Fahrers wahrscheinlich befinden, einstellt.
  2. Warnanzeigenvorrichtung (1) gemäß Anspruch 1, wobei, wenn die Position des Warnobjektes (W), welches durch die Erfassungseinheit (10) erfasst worden ist, weit entfernt von dem Fahrzeug (V) ist, die Kontrolleinheit den Fehlerbereich (Pp1 ,Pp2) der Erfassungseinheit vergrößert und die Größe des Anzeigebildes im Vergleich zu einem Fall, bei dem die Position des Warnobjektes (W) nahe bei dem Fahrzeug (V) ist, vergrößert.
  3. Warnanzeigenvorrichtung (1) gemäß einem der Ansprüche 1 oder 2, wobei die Kontrolleinheit (30) die Größe des Anzeigebildes basierend auf der Größe des Warnobjektes (W), welches durch die Erfassungseinheit (10) erfasst worden ist, einstellt.
  4. Warnanzeigenvorrichtung (1) gemäß einem der Ansprüche 1 bis 3, wobei die Anzeigeeinheit (20) eine Frontscheibenanzeige (HUD) ist, welche in dem Fahrzeug (V) eingebaut ist.
  5. Warnanzeigeverfahren, welches ein Anzeigebild zum Hervorheben eines Warnobjektes (W) in einer tatsächlichen Szene vor einem Fahrer eines Fahrzeugs (V) oder um das Fahrzeug (V) auf überlagernde Weise anzeigt, wobei das Verfahren umfasst: einen Erfassungsschritt des Erfassens des Warnobjektes (W) vor dem Fahrzeug (V) oder um das Fahrzeug (V); einen Kontrollschritt des Durchführens einer Anzeigekontrolle zur Positionierung des Anzeigebildes entsprechend der Position des Warnobjektes (W), welches in dem Erfassungseinheit (10) erfasst worden ist; und einem Anzeigeschritt des Anzeigens des Anzeigebildes zur Hervorhebung des Warnobjektes (W), welches in dem Erfassungsschritt in der tatsächlichen Szene vor dem Fahrer des Fahrzeugs (V) oder um das Fahrzeug (V) erfasst worden ist, basierend auf der Anzeigekontrolle in dem Kontrollschritt, wobei in dem Kontrollschritt die Größe des Anzeigebildes basierend auf einem Fehlerbereich (Pp1,Pp2) der Erfassungseinheit gemäß der Position des Warnobjektes (W), welches in dem Erfassungsschritt erfasst worden ist, undr basierend auf einem Bereich (EP,EF), in welchem sich die Augen des Fahrers (V) wahrscheinlich befinden, eingestellt wird.
DE102014217437.6A 2013-09-04 2014-09-01 Warnanzeigenvorrichtung und Warnanzeigeverfahren Active DE102014217437B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013183181A JP6040897B2 (ja) 2013-09-04 2013-09-04 注意喚起表示装置及び注意喚起表示方法
JPP2013-183181 2013-09-04

Publications (2)

Publication Number Publication Date
DE102014217437A1 DE102014217437A1 (de) 2015-03-05
DE102014217437B4 true DE102014217437B4 (de) 2018-07-05

Family

ID=52470775

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014217437.6A Active DE102014217437B4 (de) 2013-09-04 2014-09-01 Warnanzeigenvorrichtung und Warnanzeigeverfahren

Country Status (3)

Country Link
US (1) US9435879B2 (de)
JP (1) JP6040897B2 (de)
DE (1) DE102014217437B4 (de)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
KR101511587B1 (ko) * 2013-12-12 2015-04-14 현대오트론 주식회사 헤드업 디스플레이 정보 표시 장치 및 방법
JP6394940B2 (ja) * 2014-05-23 2018-09-26 日本精機株式会社 車両用表示システム
JP6295868B2 (ja) * 2014-07-18 2018-03-20 日産自動車株式会社 車両用表示装置
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9690104B2 (en) 2014-12-08 2017-06-27 Hyundai Motor Company Augmented reality HUD display method and device for vehicle
JP2016137817A (ja) * 2015-01-28 2016-08-04 日本精機株式会社 画像生成装置、ヘッドアップディスプレイ
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3396313B1 (de) 2015-07-15 2020-10-21 Hand Held Products, Inc. Verfahren und vorrichtung zur mobilen dimensionierung mit dynamischer nist-standardkonformer genauigkeit
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
JP6269606B2 (ja) * 2015-07-21 2018-01-31 トヨタ自動車株式会社 車両制御装置
JP2017024538A (ja) * 2015-07-22 2017-02-02 修一 田山 自動車接近警告システム
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US10025314B2 (en) * 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
JP6975945B2 (ja) * 2016-02-24 2021-12-01 パナソニックIpマネジメント株式会社 判定装置、判定方法、プログラムおよびプログラムを記録した記録媒体
JP6323473B2 (ja) * 2016-02-25 2018-05-16 トヨタ自動車株式会社 走行制御装置
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
JP6775188B2 (ja) 2016-08-05 2020-10-28 パナソニックIpマネジメント株式会社 ヘッドアップディスプレイ装置および表示制御方法
JP6353881B2 (ja) * 2016-08-25 2018-07-04 株式会社Subaru 車両の表示装置
JP6536521B2 (ja) * 2016-09-22 2019-07-03 株式会社デンソー 物体検知装置及び物体検知方法
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
JP6787297B2 (ja) 2017-11-10 2020-11-18 株式会社Soken 表示制御装置、及び表示制御プログラム
ES2716955A1 (es) * 2017-12-18 2019-06-18 Univ Valladolid Sistema de captación, procesamiento y visualización de información para vehículos motorizados
JP6753428B2 (ja) * 2018-04-27 2020-09-09 株式会社デンソー ヘッドアップディスプレイ装置
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
JP6939723B2 (ja) * 2018-07-02 2021-09-22 株式会社デンソー 衝突判定装置
WO2021039762A1 (ja) * 2019-08-30 2021-03-04 日本精機株式会社 表示装置
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
CN112672047B (zh) * 2020-12-20 2022-08-26 英特睿达(山东)电子科技有限公司 图像采集系统及图像处理方法
CN112896042A (zh) * 2021-03-02 2021-06-04 广州通达汽车电气股份有限公司 一种车辆驾驶预警方法、装置、设备及存储介质
JP7349472B2 (ja) * 2021-06-07 2023-09-22 本田技研工業株式会社 警告制御装置、移動体、警告制御方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06247184A (ja) 1993-03-01 1994-09-06 Aisin Seiki Co Ltd 車上表示装置
JP2011119917A (ja) 2009-12-02 2011-06-16 Denso Corp 車両用表示装置
JP2012218505A (ja) 2011-04-05 2012-11-12 Denso Corp 車両用表示装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001071790A (ja) * 1999-09-07 2001-03-21 Mazda Motor Corp 車両の表示装置
US8009024B2 (en) * 2008-01-25 2011-08-30 Denso Corporation Automotive display device showing virtual image spot encircling front obstacle
JP2009217682A (ja) * 2008-03-12 2009-09-24 Yazaki Corp 車両用表示装置
WO2012014302A1 (ja) * 2010-07-29 2012-02-02 トヨタ自動車株式会社 ヘッドアップディスプレイ装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06247184A (ja) 1993-03-01 1994-09-06 Aisin Seiki Co Ltd 車上表示装置
JP2011119917A (ja) 2009-12-02 2011-06-16 Denso Corp 車両用表示装置
JP2012218505A (ja) 2011-04-05 2012-11-12 Denso Corp 車両用表示装置

Also Published As

Publication number Publication date
US20150070158A1 (en) 2015-03-12
DE102014217437A1 (de) 2015-03-05
US9435879B2 (en) 2016-09-06
JP6040897B2 (ja) 2016-12-07
JP2015048040A (ja) 2015-03-16

Similar Documents

Publication Publication Date Title
DE102014217437B4 (de) Warnanzeigenvorrichtung und Warnanzeigeverfahren
DE112011100180B4 (de) Spurhalteunterstützungsvorrichtung, Verfahren zum Anzeigen einer Spurgrenzlinie und Programm
DE102013209418A1 (de) Fahrzeugkollisionswarnsystem und -verfahren
DE102010035772B4 (de) System und Verfahren zum Liefern von Leitinformation für einen Fahrer eines Fahrzeugs
DE102010052942B4 (de) Rückwärtsblickendes multifunktionales Kamerasystem
DE102014217440A1 (de) Warnanzeigenvorrichtung und Warnanzeigeverfahren
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE102016212405A1 (de) Fahrzeugbildverarbeitungsvorrichtung und Fahrzeugbildverarbeitungssystem
DE112013006385B4 (de) Fahrzeugperipherie-Anzeigevorrichtung
DE10296593B4 (de) Fahrunterstützungsvorrichtung
EP2637898A1 (de) Verfahren zum erzeugen eines bilds einer fahrzeugumgebung und abbildungsvorrichtung
DE102015216285A1 (de) Elektronische Steuereinheit und fahrzeuginternes Videosystem
DE112014007249T5 (de) Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
CN107757479A (zh) 一种基于增强现实显示技术的驾驶辅助系统及方法
DE102007059735A1 (de) Stereo-Sichtsystem für Fahrzeuge zur Erkennung seitlich liegender Hindernisse
DE102007014012A1 (de) Fahrzeugumgebung-Überwachungsgerät, Fahrzeugumgebung-Überwachungsverfahren und Fahrzeugumgebung-Überwachungsprogramm
DE112013001424T5 (de) Objekterkennungsvorrichtung
WO2009152875A1 (de) Bilddatenvisualisierung
DE102008042565A1 (de) Verfahren zum Betreiben einer Fahrerassistenzeinrichtung
EP3078015B1 (de) Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung
WO2015032399A1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
DE112013005231T5 (de) Bordeigener Bildgenerator
DE102015120014B4 (de) Überwachungsverfahren und -vorrichtung unter Verwendung einer Kamera
DE102021131051A1 (de) Bildaufnahmesystem und Bildaufnahmevorrichtung
DE112016007407T5 (de) Anzeigesteuervorrichtung, anzeigesystem und anzeigesteuerverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final