DE112019006033T5 - System zur verkehrsüberwachung mit mindestens zwei verschiedenen sensoren, die an festen infrastrukturen wie brücken oder gebäuden installiert sind - Google Patents
System zur verkehrsüberwachung mit mindestens zwei verschiedenen sensoren, die an festen infrastrukturen wie brücken oder gebäuden installiert sind Download PDFInfo
- Publication number
- DE112019006033T5 DE112019006033T5 DE112019006033.3T DE112019006033T DE112019006033T5 DE 112019006033 T5 DE112019006033 T5 DE 112019006033T5 DE 112019006033 T DE112019006033 T DE 112019006033T DE 112019006033 T5 DE112019006033 T5 DE 112019006033T5
- Authority
- DE
- Germany
- Prior art keywords
- camera
- marker
- warning
- objects
- radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/91—Radar or analogous systems specially adapted for specific applications for traffic control
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/005—Traffic control systems for road vehicles including pedestrian guidance indicator
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/164—Centralised systems, e.g. external to vehicles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Abstract
Infrastrukturbasiertes Warnsystem, wobei das System als Teil einer intelligenten Kreuzung oder intelligenten Straße verwendet wird und zum Erkennen verschiedener Objekte, wie etwa verletzbarer Verkehrsteilnehmer (engl. Vulnerable Road Users, VRUs) und Fahrzeuge, verwendet wird. Das System umfasst sowohl Kameras als auch Radar, deren Betrieb basierend darauf, welches von beiden - die Kamera oder das Radar - durch aktuelle Bedingungen am wenigstens negativ beeinflusst wird, optimiert wird. Diese Optimierung umfasst die Verwendung eines Markers, der an Infrastruktur im Sichtfeld der Erkennungsvorrichtung, wie etwa einer Kamera, die optimiert werden soll, angebracht ist. Wenn die Kamera den Marker genau und durchgängig erkennt, werden Kameraerkennungen von Objekten mit mehr Signifikanz gewichtet als die Erkennung von Objekten unter Verwendung von Radar. Wenn hingegen die Kamera aufgrund von Umgebungsbedingungen nicht in der Lage ist, den Marker genau zu erkennen, wird der Radarerkennung das höchste Maß an Konfidenz zuerkannt.
Description
- GEBIET DER ERFINDUNG
- Die Erfindung betrifft allgemein ein System zum Erkennen von Objekten unter Verwendung verschiedener Arten von Erkennungsvorrichtungen, das basierend darauf, ob der Betrieb einer der Erkennungsvorrichtungen beeinträchtigt ist, optimiert wird. Das System lässt sich in lokale Infrastruktur integrieren und ist in der Lage, Fahrzeuge und Fußgänger zu erkennen, die für andere Fahrer nicht unbedingt sichtbar sind.
- HINTERGRUND DER ERFINDUNG
- Kreuzungen mit und ohne Signaleinrichtungen sowie Fußgängerübergänge zählen zu den gefährlichsten Bereichen, in denen es zu Unfällen kommen kann, wie etwa dass ein Fahrzeug einen verletzbaren Verkehrsteilnehmer, wie etwa einen Fußgänger, erfasst. Außerdem sind Fußgänger auch durch Mobiltelefone, Tabletcomputer, Werbetafeln, andere Fußgänger und dergleichen abgelenkt, was die Fähigkeit des Fußgängers, sich eventueller, von sicherheitsbedenklich fahrenden Fahrzeugen ausgehender Gefahren bewusst zu sein.
- Eine der Lösungen, um Unfälle an verschiedenen Kreuzungen zu verhindern, ist die Implementierung von Sensoren und anderen Arten von Erkennungsvorrichtungen, die verwendet werden, um die Position und Richtung verschiedener Fußgänger und Fahrzeuge zu ermitteln.
- Die Funktionsfähigkeit dieser Erkennungsvorrichtungen kann unter verschiedenen Bedingungen eingeschränkt sein. Ein Beispiel für eine Erkennungsvorrichtung ist eine Kamera, und die Funktionsfähigkeit einer Kamera kann durch Umgebungsbedingungen, wie etwa Schnee, Regen, Nebel, den Sonneneinfallswinkel usw., die alle die Wirksamkeit der Kamera verhindern oder anderweitig beeinträchtigen können, negativ beeinflusst werden. Im Gegensatz dazu wird ein Radar durch die oben genannten Bedingungen nicht negativ beeinflusst, ist aber beim Erkennen oder Klassifizieren einzelner Objekte nicht so genau wie eine Kamera unter idealeren Bedingungen.
- Dementsprechend besteht Bedarf an einem System zum Erkennen von Objekten an einer Kreuzung, bei dem das System mehr als eine Art von Erkennungsvorrichtung aufweist und dessen Betrieb basierend auf Umgebungsbedingungen optimiert wird.
- KURZDARSTELLUNG DER ERFINDUNG
- Die vorliegende Erfindung ist ein System zum Erkennen von Objekten unter Verwendung verschiedener Arten von Erkennungsvorrichtungen, wobei das System als Teil einer intelligenten Kreuzung oder intelligenten Straße verwendet wird und zum Erkennen verschiedener Objekte, wie etwa verletzbarer Verkehrsteilnehmer (engl. Vulnerable Road Users, VRUs) und Fahrzeuge, verwendet wird. Das System umfasst sowohl Kameras als auch Radar, deren Betrieb basierend auf aktuellen Bedingungen optimiert wird. An Infrastruktur angebaute(s) Kameras und Radar sind in der Lage, kreuzenden Verkehr weit früher als an Bord von Fahrzeugen befindliche Sensoren zu erkennen. Eine solche intelligente Infrastruktur ist in der Lage, jeden VRU und verschiedene sich nähernde Fahrzeuge zu erkennen und die Position, Geschwindigkeit, Fahrtrichtung usw. jedes Fahrzeugs als eine grundlegende Sicherheitsnachricht (engl. Basic Safety Message, BSM) über zweckgebundene Nahbereichskommunikation (engl. Dedicated Short Range Communication, DSRC) oder LTE an andere Fahrzeuge oder VRUs zu senden. Das Fahrzeug empfängt die BSM von der Infrastruktur und stellt dem Fahrer eine HMI-Warnung bereit, dass es sicherheitsbedenklich ist, sich weiter auf den Überweg und die Straße zu bewegen. Alternativ kann jeder VRU (beispielsweise auf seinem Mobilgerät) eine Warnung empfangen, dass es aufgrund eines sich nähernden Fahrzeugs sicherheitsbedenklich ist, eine Kreuzung zu überqueren.
- Kamera und Radar können beim Erkennen von VRUs unter unterschiedlichen Bedingungen eine bessere oder schlechtere Leistung aufweisen. Bei Verwendung als Teil einer intelligenten Kreuzung gemäß der vorliegenden Erfindung wird die Kombination aus Kamera und Radar verwendet, um VRUs zu erkennen, und die Erkennung wird basierend darauf, welches von beiden - die Kamera oder das Radar - durch die aktuellen Bedingungen am wenigsten negativ beeinflusst wird, optimiert. Unter Bedingungen, bei denen der Sichtbereich der Kamera nicht durch Schnee, Eis, Regen usw. versperrt ist, erkennt die Kamera Objekte genauer als ein Radar. Wenn jedoch für die Kameraerkennung widrige Bedingungen vorliegen, d. h. wenn die Sicht der Kamera durch Bedingungen, die Schnee, Regen, Nebel oder Sonne umfassen können, getrübt oder negativ beeinflusst wird, ist die Kameraerkennung stark eingeschränkt und die Radarerkennung ist genauer, da Radare durch diese Bedingungen nicht negativ beeinflusst werden.
- Diese Optimierung des Leistungsverhaltens der Erkennungsvorrichtungen umfasst die Verwendung eines Markers, der im Sichtfeld der Erkennungsvorrichtung, wie etwa einer Kamera, die optimiert werden soll, zu ebener Erde oder bodennah angeordnet und an Infrastruktur angebracht ist. Wenn die Kamera den Marker genau und durchgängig (d. h. mit einem hohen Konfidenzgrad) erkennt, werden Kameraerkennungen von Objekten, wie etwa VRUs und Fahrzeugen, mit mehr Signifikanz gewichtet (d. h. sie werden mit einem höheren Konfidenzgrad behandelt) als die Erkennung von Objekten unter Verwendung von Radar. Wenn hingegen die Kamera aufgrund von Umgebungsbedingungen nicht in der Lage ist, den Marker genau oder durchgängig zu erkennen, wird Radarerkennungen von VRUs das höchste Maß an Konfidenz zuerkannt, da die Radarerkennung durch diese Bedingungen nicht negativ beeinflusst wird. Dies gewährleistet, dass das intelligente Kreuzungssystem Erkennungen von VRUs und Fahrzeugen bereitstellt, die unabhängig von Umgebungsbedingungen so genau wie möglich sind.
- In einer Ausführungsform umfasst das erfindungsgemäße System Kameras und Radare, die als Teil einer intelligenten Kreuzung verbaut sind und verwendet werden. Die Kameras erkennen spezielle, zu ebener Erde befindliche Marker, die mit anderer Infrastruktur verbunden sind. Beispielweise kann eine Kreuzung einen oder mehrere unterschiedliche Pfosten, wobei jeder Pfosten eine nahe der Spitze des Pfostens angebaute Kamera aufweist, und einen zu ebener Erde oder bodennah befindlichen Marker umfassen. Wenn die Kamera an dem ersten Pfosten in der Lage ist, den Marker an einem der anderen Pfosten zu erkennen, werden die durch die Kamera erhaltenen Informationen verwendet. Wenn die Kamera nicht in der Lage ist, die Marker an einem der anderen Pfosten zu erkennen, ist nicht sicher, dass die Kamera jeden VRU mit dem gewünschten Maß an Genauigkeit erkennt, und es werden stattdessen durch das Radar erhaltene Informationen verwendet.
- In einer Ausführungsform ist die vorliegende Erfindung ein infrastrukturbasiertes Warnsystem, das eine erste Erkennungsvorrichtung, eine zweite Erkennungsvorrichtung und einen Erkennungsbereich umfasst. Die erste Erkennungsvorrichtung und die zweite Erkennungsvorrichtung sind beide zum Erkennen der Position, Geschwindigkeit und/oder Richtung jedes einer Mehrzahl von Objekten in dem Erkennungsbereich betriebsfähig. Innerhalb des Erkennungsbereichs befindet sich wenigstens ein Marker, und die erste Erkennungsvorrichtung ist zum Erkennen des Markers betriebsfähig. Das erfindungsgemäße infrastrukturbasierte Warnsystem umfasst auch eine Optimierungsfunktion, und die Optimierungsfunktion umfasst ein Verwenden oder stärkeres Gewichten von durch die zweite Erkennungsvorrichtung erhaltenen Informationen, wenn die erste Erkennungsvorrichtung nicht in der Lage ist, den wenigstens einen Marker zu erkennen.
- In einer Ausführungsform befindet sich der Marker zu ebener Erde und die erste Erkennungsvorrichtung wird unter Verwendung des Markers kalibriert.
- In einer Ausführungsform steht eine erste Kommunikationsvorrichtung in elektrischer Verbindung mit der ersten Erkennungsvorrichtung und der zweiten Erkennungsvorrichtung. Die erste Kommunikationsvorrichtung verwendet Informationen von der ersten Erkennungsvorrichtung, wenn die erste Erkennungsvorrichtung in der Lage ist, den Marker zu erkennen, und die erste Kommunikationsvorrichtung verwendet Informationen von der zweiten Erkennungsvorrichtung, wenn die erste Erkennungsvorrichtung nicht in der Lage ist, den Marker zu erkennen.
- In einer Ausführungsform umfasst die vorliegende Erfindung eine Warnvorrichtung in elektrischer Verbindung mit der ersten Kommunikationsvorrichtung. Die erste Kommunikationsvorrichtung ist in der Lage, die Warnvorrichtung anzuweisen, ein Warnsignal basierend auf von der ersten Erkennungsvorrichtung empfangenen Informationen zu erzeugen, wenn die erste Erkennungsvorrichtung in der Lage ist, den Marker zu erkennen. Die erste Kommunikationsvorrichtung ist auch in der Lage, die Warnvorrichtung anzuweisen, das Warnsignal basierend auf von der zweiten Erkennungsvorrichtung empfangenen Informationen zu erzeugen, wenn die erste Erkennungsvorrichtung nicht in der Lage ist, den Marker zu erkennen.
- Eines der Objekte in dem Erkennungsbereich kann ein Fahrzeug sein, und die Warnvorrichtung erzeugt das Warnsignal und richtet das Warnsignal hin zu dem wenigstens einen Fahrzeug, wenn eine Gefahr einer Kollision mit einem anderen der Objekte in dem Erkennungsbereich gegeben ist.
- Eines der Objekte in dem Erkennungsbereich kann wenigstens ein verletzbarer Verkehrsteilnehmer sein, wobei die Warnvorrichtung das Warnsignal erzeugt und das Warnsignal hin zu dem verletzbaren Verkehrsteilnehmer richtet, wenn eine Gefahr einer Kollision mit einem anderen der Objekte in dem Erkennungsbereich gegeben ist.
- In einer Ausführungsform ist die erste Erkennungsvorrichtung eine Kamera und die zweite Erkennungsvorrichtung ein Radar.
- In einer Ausführungsform sind die erste Erkennungsvorrichtung und die zweite Erkennungsvorrichtung mit wenigstens einer Infrastrukturkomponente verbunden, wobei die Infrastrukturkomponente eines, ausgewählt aus der Gruppe bestehend aus einem Gebäude, einer Brücke, einer Parkstruktur und einer Trägerstruktur, ist.
- Weitere mögliche Anwendungsbereiche der vorliegenden Erfindung sind der nachstehend bereitgestellten ausführlichen Beschreibung zu entnehmen. Es sollte sich verstehen, dass die ausführliche Beschreibung und die konkreten Beispiele zwar die bevorzugte Ausführungsform der Erfindung angeben, aber lediglich zu Veranschaulichungszwecken gedacht sind und den Umfang der Erfindung nicht einschränken sollen.
- Figurenliste
- Ein umfassenderes Verständnis der vorliegenden Erfindung ergibt sich aus der ausführlichen Beschreibung und den beigefügten Zeichnungen. Es zeigt:
-
1 eine Abbildung eines ersten Beispiels eines optimierten infrastrukturbasierten Warnsystems gemäß Ausführungsformen der vorliegenden Erfindung; -
2 eine Abbildung eines zweiten Beispiels eines optimierten infrastrukturbasierten Warnsystems gemäß Ausführungsformen der vorliegenden Erfindung; und -
3 eine perspektivische Ansicht mehrerer Teile eines optimierten infrastrukturbasierten Warnsystems, das in einer einzigen Komponente integriert ist, gemäß Ausführungsformen der vorliegenden Erfindung. - AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN
- AUSFÜHRUNGSFORMEN
- Die folgende Beschreibung der bevorzugten Ausführungsform(en) ist ihrem Wesen nach lediglich beispielhaft und soll die Erfindung, ihre Anwendung oder Verwendungen in keiner Weise einschränken.
- Die vorliegende Erfindung ist ein System zum Erkennen von Objekten unter Verwendung verschiedener Arten von Erkennungsvorrichtungen, bei dem der Betrieb der Erkennungsvorrichtungen optimiert wird. Das System wird als Teil einer intelligenten Kreuzung oder intelligenten Straße verwendet und wird zum Bereitstellen einer Warnung an verschiedene verletzbare Verkehrsteilnehmer (engl. Vulnerable Road Users, VRUs) und Fahrzeuge vor potenziellen Kollisionen verwendet. Eine Abbildung eines ersten Beispiels eines optimierten infrastrukturbasierten Warnsystems gemäß der vorliegenden Erfindung ist in
1 , allgemein mit 10 bezeichnet, gezeigt. Es gibt auch mehrere VRUs, in der Abbildung allgemein mit 12 bezeichnet, die nahe einer Kreuzung, allgemein mit 14 bezeichnet, unterwegs sind. Konkreter gibt es zwei verletzbare Verkehrsteilnehmer12A ,12B , die versuchen, die Kreuzung14 an einem Übergang, allgemein mit 16 bezeichnet, zu überqueren. Ein erstes Fahrzeug18A hat nahe dem Übergang14 angehalten, und ein zweites Fahrzeug18B bewegt sich in einer Richtung, die senkrecht zur Bewegungsrichtung jedes der VRUs12A ,12B ist, auf die Kreuzung16 zu. - Das Warnsystem
10 umfasst eine Art von Infrastrukturkomponente, die in dieser Ausführungsform ein Pfosten, allgemein mit20 bezeichnet, ist, und mit dem Pfosten20 sind eine erste Erkennungsvorrichtung22A , eine zweite Erkennungsvorrichtung22B , wenigstens eine Kommunikationsvorrichtung24 und wenigstens eine Warnvorrichtung26 verbunden. Zwar ist in dieser Ausführungsform die Infrastrukturkomponente der Pfosten20 , aber es liegt innerhalb des Umfangs der Erfindung, dass das Warnsystem10 eine beliebige andere Art von Infrastrukturkomponente, wie etwa ein Gebäude, eine Brücke, eine Parkstruktur, eine Trägerstruktur oder dergleichen, umfassen kann. In dieser Ausführungsform sind die Erkennungsvorrichtungen22A ,22B , die Kommunikationsvorrichtung24 und die Warnvorrichtung26 in einer einzigen Komponente, allgemein mit 28 bezeichnet, integriert, die mit dem Pfosten20 verbunden ist, aber es liegt innerhalb des Umfangs der Erfindung, dass die Erkennungsvorrichtungen22A ,22B , die Kommunikationsvorrichtung24 und die Warnvorrichtung26 separate Komponenten an unterschiedlichen Stellen sein können. Die Erkennungsvorrichtungen22A ,22B in dieser Ausführungsform sind in der Lage, Objekte in einem Erkennungsbereich, allgemein mit22C bezeichnet, zu erkennen. In einer Ausführungsform ist die erste Erkennungsvorrichtung22A eine Kamera und die zweite Erkennungsvorrichtung22B ein Radar. Sowohl die Kamera22A als auch das Radar22B sind in der Lage, Objekte in dem Erkennungsbereich22C zu erkennen. Ebenfalls in dem Erkennungsbereich22C angeordnet ist ein Marker30 , wobei der Marker30 in einen dem Übergang16 benachbarten Betonbereich eingebettet ist, so dass der Marker30 sich zu ebener Erde befindet. In einer Ausführungsform ist der Marker30 ein plattenförmiger Marker mit einem Schachbrettmuster. Es liegt jedoch innerhalb des Umfangs der Erfindung, dass der Marker30 eine beliebige Art von Marker mit einer einzigartigen und nirgends sonst auf der Kreuzung zu sehenden Gestaltung sein kann. Andere Ausführungsformen des Markers können - ohne darauf beschränkt zu sein - eine Abfolge schwarzer und weißer Linien, eine Art Strichcode oder ein Logo umfassen. - In dem in
1 gezeigten Beispiel versperrt das erste Fahrzeug18A die Sicht jedes die Kreuzung14 überquerenden VRU12A ,12B , so dass jeder VRU12A ,12B nicht in der Lage ist, das zweite Fahrzeug18B , das sich der Kreuzung14 nähert, zu sehen. Wenn jeder VRU12A ,12B weiter über die Kreuzung14 läuft, ohne sich des Bewegungspfads des zweiten Fahrzeugs18B bewusst zu sein, kann das zweite Fahrzeug18B mit einem der VRUs12A ,12B kollidieren und diesen schwer verletzen oder töten. Das erfindungsgemäße System10 umfasst jedoch die Kamera22A und das Radar22B , die jeweils in der Lage sind, ein Signal an die Kommunikationsvorrichtung24 zu senden, das eine Angabe bezüglich der Position, Geschwindigkeit und Richtung eines beliebigen Objekts (entweder VRU oder Fahrzeug) in dem Erkennungsbereich22A bereitstellt. - In
1 sind die Erkennungskamera22A und das Radar22B in der Lage, die Position sowie die Geschwindigkeit und Richtung jedes Fahrzeugs18A ,18B und die Position, Geschwindigkeit und Richtung jedes VRU12A ,12B zu erkennen. Wenn ein potenzielles Risiko einer Kollision zwischen dem zweiten Fahrzeug18B und einem der VRUs12A ,12B in dem Erkennungsbereich22C durch die Kamera22A und das Radar22B erkannt wird, wird ein Signal an die Kommunikationsvorrichtung24 gesendet, so dass die Kommunikationsvorrichtung24 ein Signal an die Warnvorrichtung26 sendet, um jeden VRU12A ,12B zu warnen, dass eine potenzielle Gefahr einer Kollision mit dem Fahrzeug18B gegeben ist. Die Warnvorrichtung26 sendet dann eine Warnmeldung aus, bei der es sich beispielsweise um hörbare Töne, allgemein mit 28 bezeichnet, handelt, die jeden VRU12A ,12B darauf hinweisen, dass beim Betreten des Übergangs16 eine potenzielle Gefahr gegeben ist. Dies erlaubt es jedem VRU12A ,12B , Maßnahmen zu ergreifen, um ein Betreten des Übergangs16 , bevor dies sicher möglich ist, zu vermeiden. - Das optimierte infrastrukturbasierte Warnsystem
10 der vorliegenden Erfindung kann mit beliebig gelegenen Kreuzungen verwendet werden. Einige Kreuzungen befinden sich in Gegenden, wo das Klima und die Umgebungsbedingungen in Abhängigkeit von der Jahreszeit variieren. Beispielsweise können einige Kreuzungen sich in Gegenden befinden, wo raues Wetter auftreten kann, und das System10 Regen, Schnee, Eis, Nebel oder Sonne ausgesetzt ist, sodass die Wirksamkeit der Kamera22A eingeschränkt sein kann, während das Radar22B dennoch in der Lage ist, Objekte in dem Erkennungsbereich22C zu erkennen, weil das Radar22B durch diese Bedingungen nicht negativ beeinflusst wird. - Das erfindungsgemäße System
10 umfasst eine Optimierungsfunktion. Um den Betrieb des Systems10 zu optimieren umfasst die Optimierungsfunktion ein Bestimmen, ob es am besten ist, von der Kamera22A erhaltene Informationen oder von dem Radar22B erhaltene Informationen zu verwenden. Dies wird durch Verwenden des Markers30 und Bestimmen, ob die Kamera22A in der Lage ist, den Marker30 zu erkennen, erreicht. Wenn die Kamera22A in der Lage ist, den Marker30 zu erkennen, werden von der Kamera22A erhaltene Informationen (bezüglich der Position, Geschwindigkeit und Richtung jedes Fahrzeugs18A ,18B und der Position, Geschwindigkeit und Richtung jedes VRU12 ) verwendet, um zu bestimmen, ob eine Warnmeldung nötig ist. Wenn jedoch die Kamera22A aufgrund eines Einwirkens widriger Bedingungen, wie etwa Regen, Schnee, Eis, Nebel, Sonne usw., nicht in der Lage ist, den Marker30 zu erkennen, werden von dem Radar22B erhaltene Informationen (bezüglich der Position, Geschwindigkeit und Richtung jedes Fahrzeugs18A ,18B und der Position, Geschwindigkeit und Richtung jedes VRU12 ) verwendet, um zu bestimmen, ob eine Warnmeldung nötig ist. - Eine andere Ausführungsform der vorliegenden Erfindung ist in
2 gezeigt, wobei gleiche Zahlen gleiche Elemente bezeichnen. In dieser Ausführungsform umfasst die Kreuzung14 jedoch zusätzliche Pfosten20A ,20B ,20C und zusätzliche Marker30A ,30B ,30C und jeder Pfosten20 ,20A ,20B ,20C umfasst eine entsprechende Komponente28 mit einer Kamera22A , einem Radar22B , einer Kommunikationsvorrichtung24 und einer Warnvorrichtung26 . In dieser Ausführungsform erfolgt eine Bestimmung dahingehend, ob jede Kamera22A in der Lage ist, einen oder mehrere der Marker30 ,30A ,30B ,30C zu erkennen. Wenn beispielsweise die Kamera22A der Komponente28 , die an dem Pfosten20 angebaut ist, nicht in der Lage ist, einen oder mehrere der Marker30 ,30A ,30B ,30C zu erkennen, werden die von dem Radar22B erhaltenen Informationen verwendet. Dieser Prozess wird für jede Kamera22A , die Teil der an einem entsprechenden Pfosten20A ,20B ,20C angebauten Komponente20 ist, wiederholt, so dass die genauesten Informationen bezüglich jedes Fahrzeugs18A ,18B und VRU12 erhalten werden können. - Damit die Kamera
22A verwendet wird, um Informationen bereitzustellen, muss die Kamera22A in der Lage sein, wenigstens einen der Marker30 ,30A ,30B ,30C zu erkennen. Herrschen Bedingungen, bei denen die Kamera22A versperrt ist, wie etwa infolge eines Einwirkens von Schnee und Eis, kann es Situationen geben, in denen der Schnee oder das Eis nur einen Teil der Sicht der Kamera22A versperren, so dass die Kamera22A möglicherweise nur in der Lage ist, einen der Marker30 ,30A ,30B ,30C zu erkennen, und daher möglicherweise nicht in der Lage ist, alle Objekte in dem Erkennungsbereich22C zu erkennen. Wenn es dazu kommt, können alle nicht mittels der Kamera22A erhältlichen Informationen mittels des Radars22B erhalten werden. Dieser Prozess kann wiederholt werden, um zu bestimmen, welche Kamera22A in der Lage ist, einen oder mehrere der Marker30 ,30A ,30B ,30C zu erkennen, und die kombinierten Informationen von jeder Kamera22A und jedem Radar22B können verwendet werden, um zu bestimmen, ob eine Warnmeldung nötig ist. - In den in
1 und2 gezeigten Ausführungsformen ist der Marker30 zu ebener Erde gezeigt. Eine Anordnung des Markers30 zu ebener Erde erlaubt extrinsische Kalibrierungen der Kamera22A . Es liegt jedoch innerhalb des Umfangs der Erfindung, dass der Marker30 oder zusätzliche Marker sich auch an anderen Stellen befinden können, auch so, dass die Kamera22A verwendet werden kann, um Objekte in anderen Erkennungsbereichen zu erkennen. Ferner können zusätzliche Kameras an unterschiedlichen Stellen vorhanden sein, die verwendet werden können, um verschiedene Objekte in einem oder mehreren Erkennungsbereichen zu erkennen, und mit unterschiedlichen Markern verwendet werden, um den Betrieb jeder Kamera zu optimieren. Es können auch zusätzliche Radare vorhanden sein, die verwendet werden können, wenn die Wirksamkeit einer oder mehrerer der Kameras aufgrund der oben genannten Bedingungen eingeschränkt ist. - Außerdem wird in einigen Ausführungsformen das Radar
22B deaktiviert, wenn die Kamera22A verwendet wird, um Objekte in dem Erkennungsbereich22C zu erkennen, und die Kamera22A wird deaktiviert, wenn das Radar22B verwendet wird, um Objekte in dem Erkennungsbereich22C zu erkennen. Dies verbessert die Energieeffizienz des Systems10 . In anderen Ausführungsformen können die Kamera22A und das Radar22B gleichzeitig verwendet werden, um eine Redundanz beim Erkennen von Objekten in dem Erkennungsbereich22C bereitzustellen, falls die Kamera22A plötzlich nicht in der Lage ist, Objekte in dem Erkennungsbereich22C zu erkennen. Der Kommunikationsvorrichtung24 werden also dennoch - durch das Radar22B - Informationen in Bezug auf Objekte in dem Erkennungsbereich22C bereitgestellt, sodass die Funktionsfähigkeit des Systems10 insgesamt aufrechterhalten wird. - In einer Ausführungsform ist die Kommunikationsvorrichtung
24 eine Vorrichtung für zweckgebundene Nahbereichskommunikation (engl. Dedicated Short Range Communication, DSRC)24 , aber es liegt innerhalb des Umfangs der Erfindung, dass andere Arten von Kommunikationsvorrichtungen verwendet werden können. - In alternativen Ausführungsformen kann die Warnvorrichtung
26 statt Teil der Komponente zu sein, in ein oder mehrere Mobiltelefone, Tablets oder eine andere Rechenvorrichtung, die zur Kommunikation mit der Kommunikationsvorrichtung24 imstande ist, integriert sein, wobei die Rechenvorrichtung von einem der VRUs12A ,12B verwendet wird. Die Warnvorrichtung26 kann eine visuelle Meldung, wie etwa eine Warnung auf einem Bildschirm der Rechenvorrichtung, einen hörbaren Ton, der von der Rechenvorrichtung erzeugt wird, oder eine haptische Warnung, bei der die Rechenvorrichtung vibriert, bereitstellen, um einen der VRUs12A ,12B darauf hinzuweisen, dass eine Gefahr einer Kollision mit einem der Fahrzeuge18A ,18B gegeben ist. - Zwar wird in den obigen Ausführungsformen das Radar
22B beschrieben, aber es liegt innerhalb des Umfangs der Erfindung, dass andere Arten von Erkennungsvorrichtungen verwendet werden können, wenn der Betrieb der Kamera22A beeinträchtigt ist. Andere Arten von Erkennungsvorrichtungen können inbegriffen sein, wie etwa - ohne darauf beschränkt zu sein - LIDAR (Light Imaging, Detection, and Ranging), LADAR (Laser Imaging, Detection, and Ranging), andere Arten von Radar, Ultraschall oder Sonar. - Die Beschreibung der Erfindung ist ihrem Wesen nach lediglich beispielhaft und somit sollen Abwandlungen, die nicht vom Kerngedanken der Erfindung abweichen, innerhalb des Umfangs der Erfindung liegen. Solche Abwandlungen gelten nicht als Abweichung vom Geist und Umfang der Erfindung.
Claims (15)
- Vorrichtung, umfassend: ein infrastrukturbasiertes Warnsystem, umfassend: eine erste Erkennungsvorrichtung; einen Erkennungsbereich, wobei die erste Erkennungsvorrichtung zum Erkennen der Position, Geschwindigkeit und/oder Richtung jedes einer Mehrzahl von Objekten in dem Erkennungsbereich betriebsfähig ist; eine zweite Erkennungsvorrichtung, die zum Erkennen der Position, Geschwindigkeit und/oder Richtung jedes der Mehrzahl von Objekten in dem Erkennungsbereich betriebsfähig ist; wenigstens einen Marker, der sich innerhalb des Erkennungsbereichs befindet, wobei die erste Erkennungsvorrichtung zum Erkennen des Markers betriebsfähig ist; eine Optimierungsfunktion, wobei die Optimierungsfunktion ein Verwenden von durch die zweite Erkennungsvorrichtung erhaltenen Informationen umfasst, wenn die erste Erkennungsvorrichtung nicht in der Lage ist, den wenigstens einen Marker zu erkennen.
- Vorrichtung nach
Anspruch 1 , wobei der wenigstens eine Marker sich zu ebener Erde befindet und die erste Erkennungsvorrichtung unter Verwendung des wenigstens einen Markers kalibriert wird. - Vorrichtung nach
Anspruch 1 , ferner umfassend: eine erste Kommunikationsvorrichtung in elektrischer Verbindung mit der ersten Erkennungsvorrichtung und der zweiten Erkennungsvorrichtung; und wobei die erste Kommunikationsvorrichtung Informationen von der ersten Erkennungsvorrichtung verwendet, wenn die erste Erkennungsvorrichtung in der Lage ist, den Marker zu erkennen, und die erste Kommunikationsvorrichtung Informationen von der zweiten Erkennungsvorrichtung verwendet, wenn die erste Erkennungsvorrichtung nicht in der Lage ist, den Marker zu erkennen. - Vorrichtung nach
Anspruch 3 , ferner umfassend: eine Warnvorrichtung in elektrischer Verbindung mit der ersten Kommu n ikationsvorrichtu ng; wobei die erste Kommunikationsvorrichtung die Warnvorrichtung anweist, ein Warnsignal basierend auf von der ersten Erkennungsvorrichtung empfangenen Informationen zu erzeugen, wenn die erste Erkennungsvorrichtung in der Lage ist, den Marker zu erkennen, und die erste Kommunikationsvorrichtung die Warnvorrichtung anweist, das Warnsignal basierend auf von der zweiten Erkennungsvorrichtung empfangenen Informationen zu erzeugen, wenn die erste Erkennungsvorrichtung nicht in der Lage ist, den Marker zu erkennen. - Vorrichtung nach
Anspruch 4 , wobei eines der Mehrzahl von Objekten ferner wenigstens ein Fahrzeug umfasst, wobei die Warnvorrichtung das Warnsignal erzeugt und das Warnsignal hin zu dem wenigstens einen Fahrzeug richtet, wenn eine Gefahr einer Kollision mit einem anderen der Mehrzahl von Objekten in dem Erkennungsbereich gegeben ist. - Vorrichtung nach
Anspruch 4 , wobei eines der Mehrzahl von Objekten ferner wenigstens einen verletzbaren Verkehrsteilnehmer umfasst, wobei die Warnvorrichtung das Warnsignal erzeugt und das Warnsignal hin zu dem wenigstens einen verletzbaren Verkehrsteilnehmer richtet, wenn eine Gefahr einer Kollision mit einem anderen der Mehrzahl von Objekten in dem Erkennungsbereich gegeben ist. - Vorrichtung nach
Anspruch 1 , die ferner wenigstens eine Infrastrukturkomponente umfasst, wobei die erste Erkennungsvorrichtung und die zweite Erkennungsvorrichtung mit der wenigstens einen Infrastrukturkomponente verbunden sind. - Vorrichtung nach
Anspruch 9 , wobei die wenigstens eine Infrastrukturkomponente eine, ausgewählt aus der Gruppe bestehend aus einem Gebäude, einer Brücke, einer Parkstruktur und einer Trägerstruktur, ist. - Verfahren zur Optimierung eines infrastrukturbasierten Warnsystems, das folgende Schritte umfasst: Bereitstellen einer Kamera; Bereitstellen eines Erkennungsbereichs; Bereitstellen wenigstens eines Radars; Bereitstellen wenigstens eines Markers, der sich innerhalb des Erkennungsbereichs befindet; Erkennen der Position, Geschwindigkeit und/oder Richtung jedes einer Mehrzahl von Objekten in dem Erkennungsbereich mit der Kamera; Erkennen der Position, Geschwindigkeit und/oder Richtung jedes einer Mehrzahl von Objekten in dem Erkennungsbereich mit dem wenigstens einen Radar; Erkennen des Markers mit der Kamera; Erzeugen einer Warnung unter Verwendung von durch das wenigstens eine Radar erhaltenen Informationen, wenn die Kamera nicht in der Lage ist, den wenigstens einen Marker zu erkennen.
- Verfahren nach
Anspruch 9 , das ferner folgende Schritte umfasst: Bereitstellen des wenigstens einen Markers, so dass er sich zu ebener Erde befindet; Kalibrieren der Kamera unter Verwendung des wenigstens einen Markers. - Verfahren nach
Anspruch 9 , das ferner folgende Schritte umfasst: Bereitstellen einer ersten Kommunikationsvorrichtung, die in elektrischer Verbindung mit der Kamera und dem wenigstens einen Radar steht und in der Lage ist, Informationen von beiden zu verarbeiten; Verarbeiten von Informationen, die von der Kamera an die erste Kommunikationsvorrichtung gesendet werden, wenn die Kamera in der Lage ist, den Marker zu erkennen; Verarbeiten von Informationen von dem wenigstens einen Radar, wenn die Kamera nicht in der Lage ist, den Marker zu erkennen. - Verfahren nach
Anspruch 11 , das ferner folgende Schritte umfasst: Bereitstellen einer Warnvorrichtung in elektrischer Verbindung mit der ersten Kommunikationsvorrichtung, sodass die erste Kommunikationsvorrichtung in der Lage ist, die Warnvorrichtung anzuweisen, ein Warnsignal zu erzeugen; Anweisen der Warnvorrichtung, ein Warnsignal basierend auf von der Kamera empfangenen Informationen zu erzeugen, wenn die Kamera in der Lage ist, den Marker zu erkennen; Anweisen der Warnvorrichtung, das Warnsignal basierend auf von dem wenigstens einen Radar empfangenen Informationen zu erzeugen, wenn die Kamera nicht in der Lage ist, den Marker zu erkennen. - Verfahren nach
Anspruch 9 , das ferner folgende Schritte umfasst: Feststellen, dass eines der Mehrzahl von Objekten wenigstens ein Fahrzeug ist; Erzeugen des Warnsignals mit der Warnvorrichtung; Richten des Warnsignals hin zu dem wenigstens einen Fahrzeug, wenn eine Gefahr einer Kollision mit einem anderen der Mehrzahl von Objekten in dem Erkennungsbereich gegeben ist. - Verfahren nach
Anspruch 9 , das ferner folgende Schritte umfasst: Feststellen, dass eines der Mehrzahl von Objekten wenigstens ein verletzbarer Verkehrsteilnehmer ist; Erzeugen des Warnsignals mit der Warnvorrichtung; Richten des Warnsignals hin zu dem wenigstens einen verletzbaren Verkehrsteilnehmer, wenn eine Gefahr einer Kollision mit einem anderen der Mehrzahl von Objekten in dem Erkennungsbereich gegeben ist. - Verfahren nach
Anspruch 11 , das ferner den Schritt eines Bereitstellens wenigstens einer Infrastrukturkomponente, so dass die Kamera und das wenigstens eine Radar mit der wenigstens einen Infrastrukturkomponente verbunden sind, umfasst.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/207,691 US10930155B2 (en) | 2018-12-03 | 2018-12-03 | Infrastructure sensor detection and optimization method |
US16/207,691 | 2018-12-03 | ||
PCT/US2019/063915 WO2020117629A1 (en) | 2018-12-03 | 2019-12-02 | System for traffic monitoring comprising at least two different sensors installed on fixed infrastructures such as bridges or buildings |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112019006033T5 true DE112019006033T5 (de) | 2021-09-16 |
Family
ID=69005920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112019006033.3T Pending DE112019006033T5 (de) | 2018-12-03 | 2019-12-02 | System zur verkehrsüberwachung mit mindestens zwei verschiedenen sensoren, die an festen infrastrukturen wie brücken oder gebäuden installiert sind |
Country Status (4)
Country | Link |
---|---|
US (1) | US10930155B2 (de) |
CN (1) | CN113167887A (de) |
DE (1) | DE112019006033T5 (de) |
WO (1) | WO2020117629A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022116391A1 (de) | 2022-06-30 | 2024-01-04 | Cariad Se | Verfahren zum Warnen von zumindest einem Verkehrsteilnehmer in einer Umgebung eines Warnsystems mittels des Warnsystems, Computerprogrammprodukt sowie Warnsystem |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IT201900012414A1 (it) * | 2019-07-19 | 2021-01-19 | Ubiquicom S R L | Sistema e metodo anticollisione di veicoli terrestri |
CN111768621B (zh) * | 2020-06-17 | 2021-06-04 | 北京航空航天大学 | 一种基于5g的城市道路路车融合全域感知方法 |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPQ281299A0 (en) * | 1999-09-14 | 1999-10-07 | Locktronic Systems Pty. Ltd. | Improvements in image recording apparatus |
JP2002175597A (ja) * | 2000-12-07 | 2002-06-21 | Hitachi Ltd | 自動車の走行制御システム |
US6961079B2 (en) * | 2001-06-21 | 2005-11-01 | Kenneth Kaylor | Portable traffic surveillance system |
US6970102B2 (en) * | 2003-05-05 | 2005-11-29 | Transol Pty Ltd | Traffic violation detection, recording and evidence processing system |
US7317406B2 (en) * | 2005-02-03 | 2008-01-08 | Toyota Technical Center Usa, Inc. | Infrastructure-based collision warning using artificial intelligence |
US7541943B2 (en) * | 2006-05-05 | 2009-06-02 | Eis Electronic Integrated Systems Inc. | Traffic sensor incorporating a video camera and method of operating same |
US7804440B1 (en) * | 2007-01-05 | 2010-09-28 | Escort Inc. | Radar detector with position and velocity sensitive functions |
JP2008187564A (ja) * | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | カメラ校正装置及び方法並びに車両 |
FR2923016B1 (fr) * | 2007-10-31 | 2009-11-20 | Valeo Vision | Procede de detection d'un phenomene perturbateur de visibilite pour un vehicule. |
WO2009076182A1 (en) * | 2007-12-13 | 2009-06-18 | Clemson University | Vision based real time traffic monitoring |
EP2308035A4 (de) * | 2008-06-13 | 2011-10-19 | Tmt Services And Supplies Pty Ltd | Verkehrsleitsystem und verfahren |
US20100100324A1 (en) * | 2008-10-22 | 2010-04-22 | Toyota Motor Engineering & Manufacturing North America, Inc. | Communication based vehicle-pedestrian collision warning system |
US20100271497A1 (en) * | 2009-04-28 | 2010-10-28 | Monsive Jr Michael G | Portable traffic monitoring system and methods for use |
US20110035140A1 (en) * | 2009-08-07 | 2011-02-10 | James Candy | Vehicle sensing system utilizing smart pavement markers |
US8994928B2 (en) * | 2011-03-02 | 2015-03-31 | Toyota Jidosha Kabushiki Kaisha | Laser radar device |
EP2541498B1 (de) * | 2011-06-30 | 2017-09-06 | Harman Becker Automotive Systems GmbH | Verfahren zur Bestimmung der extrinsischen Parameter eines Farzeugsichtsystems und Fahrzeugsichtsystem |
US20130093895A1 (en) * | 2011-10-17 | 2013-04-18 | Samuel David Palmer | System for collision prediction and traffic violation detection |
KR20130051681A (ko) * | 2011-11-10 | 2013-05-21 | 한국전자통신연구원 | 노면 표식물 인식 시스템 및 방법 |
US20130201051A1 (en) | 2012-02-08 | 2013-08-08 | Iteris, Inc. | Vehicular observation and detection apparatus |
US8504233B1 (en) * | 2012-04-27 | 2013-08-06 | Google Inc. | Safely navigating on roads through maintaining safe distance from other vehicles |
US8842022B2 (en) * | 2012-05-10 | 2014-09-23 | Ms Sedco, Inc. | System and method for configuring a traffic control sensor system |
KR20130127822A (ko) * | 2012-05-15 | 2013-11-25 | 한국전자통신연구원 | 도로상 물체 분류 및 위치검출을 위한 이종 센서 융합처리 장치 및 방법 |
WO2014033954A1 (ja) * | 2012-09-03 | 2014-03-06 | トヨタ自動車株式会社 | 衝突判定装置及び衝突判定方法 |
US20140307087A1 (en) * | 2013-04-10 | 2014-10-16 | Xerox Corporation | Methods and systems for preventing traffic accidents |
JP6260891B2 (ja) * | 2013-08-08 | 2018-01-17 | パナソニックIpマネジメント株式会社 | 画像処理装置および画像処理方法 |
US9377272B2 (en) * | 2013-08-09 | 2016-06-28 | Jay Morrison | Bow sight apparatus having multiple lasers |
JP6034775B2 (ja) * | 2013-11-29 | 2016-11-30 | クラリオン株式会社 | カメラ校正装置 |
US10025990B2 (en) * | 2014-05-21 | 2018-07-17 | Universal City Studios Llc | System and method for tracking vehicles in parking structures and intersections |
US9928594B2 (en) * | 2014-07-11 | 2018-03-27 | Agt International Gmbh | Automatic spatial calibration of camera network |
US9759812B2 (en) * | 2014-10-02 | 2017-09-12 | Trimble Inc. | System and methods for intersection positioning |
EP3213288B8 (de) * | 2014-10-30 | 2019-11-06 | Verizon Patent and Licensing Inc. | Park- und verkehrsanalyse |
US10339804B2 (en) * | 2014-12-30 | 2019-07-02 | 3M Innovative Properties Company | Sign to vehicle identification system |
EP3125196B1 (de) * | 2015-07-29 | 2018-02-21 | Continental Automotive GmbH | Kalibrierung statischer ziele beim vorbeifahren |
US10438505B2 (en) * | 2015-08-12 | 2019-10-08 | Illinois Tool Works | Welding training system interface |
US11388788B2 (en) * | 2015-09-10 | 2022-07-12 | Brava Home, Inc. | In-oven camera and computer vision systems and methods |
JP6565769B2 (ja) * | 2016-04-03 | 2019-08-28 | 株式会社デンソー | 車載カメラの取付角度検出装置、取付角度較正装置、取付角度検出方法、取付角度較正方法、およびコンピュータープログラム |
WO2017192880A1 (en) * | 2016-05-05 | 2017-11-09 | Sadeghi Arash | Management of parking space using artificial development and computer |
US10008000B2 (en) * | 2016-05-18 | 2018-06-26 | Conduent Business Services, Llc | Camera calibration based on moving vehicle line segments |
US9840253B1 (en) * | 2016-06-14 | 2017-12-12 | Delphi Technologies, Inc. | Lane keeping system for autonomous vehicle during camera drop-outs |
US10127461B2 (en) * | 2016-08-12 | 2018-11-13 | Here Global B.V. | Visual odometry for low illumination conditions using fixed light sources |
DE102016119793A1 (de) * | 2016-10-18 | 2018-04-19 | Terex Mhps Gmbh | Portalhubgerät zum Umschlag von Containern mit einer Sensorvorrichtung |
US10366263B2 (en) * | 2016-12-30 | 2019-07-30 | Accenture Global Solutions Limited | Object detection for video camera self-calibration |
US10339812B2 (en) * | 2017-03-02 | 2019-07-02 | Denso International America, Inc. | Surrounding view camera blockage detection |
US10127462B1 (en) * | 2017-05-09 | 2018-11-13 | Toyota Research Institute, Inc. | Systems and methods for detecting markers on a roadway |
US11308645B2 (en) * | 2017-05-12 | 2022-04-19 | The Board Of Trustees Of The Leland Stanford Junior University | Apparatus and method for wide-range optical tracking during medical imaging |
US10706570B2 (en) * | 2017-05-16 | 2020-07-07 | Phasica, LLC | System and method to acquire the three-dimensional shape of an object using a moving patterned substrate |
US20180307245A1 (en) * | 2017-05-31 | 2018-10-25 | Muhammad Zain Khawaja | Autonomous Vehicle Corridor |
US20190096246A1 (en) * | 2017-09-25 | 2019-03-28 | Continental Automotive Systems, Inc. | Compact modular wireless sensing radar infrastructure device |
US20190094331A1 (en) * | 2017-09-25 | 2019-03-28 | Continental Automotive Systems, Inc. | System and method of infrastructure sensor self-calibration |
US10621753B2 (en) * | 2017-09-29 | 2020-04-14 | Intel IP Corporation | Extrinsic calibration of camera systems |
US20190114911A1 (en) * | 2017-10-12 | 2019-04-18 | Valeo North America, Inc. | Method and system for determining the location of a vehicle |
US20190197887A1 (en) * | 2017-12-22 | 2019-06-27 | Echelon Corporation | Coordinated alert and event guidance system |
CN108596081B (zh) * | 2018-04-23 | 2021-04-20 | 吉林大学 | 一种基于雷达和摄像机融合的车辆行人探测方法 |
-
2018
- 2018-12-03 US US16/207,691 patent/US10930155B2/en active Active
-
2019
- 2019-12-02 CN CN201980079988.6A patent/CN113167887A/zh active Pending
- 2019-12-02 WO PCT/US2019/063915 patent/WO2020117629A1/en active Application Filing
- 2019-12-02 DE DE112019006033.3T patent/DE112019006033T5/de active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022116391A1 (de) | 2022-06-30 | 2024-01-04 | Cariad Se | Verfahren zum Warnen von zumindest einem Verkehrsteilnehmer in einer Umgebung eines Warnsystems mittels des Warnsystems, Computerprogrammprodukt sowie Warnsystem |
Also Published As
Publication number | Publication date |
---|---|
US10930155B2 (en) | 2021-02-23 |
US20200175875A1 (en) | 2020-06-04 |
WO2020117629A1 (en) | 2020-06-11 |
CN113167887A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2394234B1 (de) | Verfahren und vorrichtung zum ermitteln einer geltenden fahrspurmarkierung | |
DE102004016025B4 (de) | Verfahren zur Klassifizierung eines Objektstandorts eines 3D-Objekts an einer Seite eines Transportfahrzeugs | |
EP1557691B1 (de) | Verfahren zur Erkennung von Markierungen auf einer Fahrbahn | |
DE102007021762B4 (de) | Straßenumgebungs-Erkennungsvorrichtung und Verfahren zum Erkennen einer Straßenumgebung | |
EP1557692B1 (de) | Verfahren zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen | |
DE102018218220A1 (de) | Steuergerät für ein Fahrzeug | |
DE102017218141B4 (de) | Fahrunterstützungsvorrichtung unter verwendung einer frontüberwachungsvorrichtung und fahrunterstützungsverfahren unter verwendung einer frontüberwachungsvorrichtung | |
DE102009034386A1 (de) | Fahrtunterstützungsvorrichtung für ein Fahrzeug | |
DE112019006033T5 (de) | System zur verkehrsüberwachung mit mindestens zwei verschiedenen sensoren, die an festen infrastrukturen wie brücken oder gebäuden installiert sind | |
EP2116958B1 (de) | Verfahren und Vorrichtung zum Ermitteln des Fahrbahnverlaufs im Bereich vor einem Fahrzeug | |
DE102017221691A1 (de) | Verfahren und Vorrichtung zur Eigenlokalisierung eines Fahrzeugs | |
EP3259614B1 (de) | Verfahren zur ermittlung einer ortsinformation eines kraftfahrzeugs bezüglich eines fahrkorridors und kraftfahrzeug | |
DE102014212216A1 (de) | Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des | |
DE102021206187A1 (de) | System, Steuereinheit und Verfahren zur Bestimmung eines Geofencing-Ereignisses eines Fahrzeugs | |
DE112020000363T5 (de) | Automatische erkennung von verkehrsvorfällen über intelligente infrastruktursensoren | |
DE10151982A1 (de) | Optoelektronische Erfassungseinrichtung | |
DE102014005693A1 (de) | Geschwindigkeitsüberwachungsverfahren für ein fahrzeug unter verwendung von drahtloskommunikation | |
DE102021111144A1 (de) | Spurenbasierte fahrzeugsteuerung | |
EP2341367B1 (de) | Verfahren und Anordnung zur Erfassung von Verkehrsverstößen in einem Ampelbereich | |
DE102022003175A1 (de) | Kollisionswarnsystem für Fahrzeuge | |
DE102015111925A1 (de) | Spurhalteassistenzsystem | |
DE102012208302A1 (de) | Verfahren zur Bereitstellung von Informationen über eine Umgebung eines Fahrzeugs | |
DE112019000969T5 (de) | Informationsverarbeitungssystem und Informationsverarbeitungsverfahren | |
EP2881924B1 (de) | Verfahren zur Bestimmung einer Verkehrssituation | |
DE112021000482T5 (de) | Erkennung von fremdkörpern in einem fahrzeugweg |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G01S0013860000 Ipc: G08G0001160000 |