DE102015205309A1 - Stabile Erfassung von Windschutzscheiben über die Lokalisierung von Markierungspunkten - Google Patents
Stabile Erfassung von Windschutzscheiben über die Lokalisierung von Markierungspunkten Download PDFInfo
- Publication number
- DE102015205309A1 DE102015205309A1 DE102015205309.1A DE102015205309A DE102015205309A1 DE 102015205309 A1 DE102015205309 A1 DE 102015205309A1 DE 102015205309 A DE102015205309 A DE 102015205309A DE 102015205309 A1 DE102015205309 A1 DE 102015205309A1
- Authority
- DE
- Germany
- Prior art keywords
- windshield
- image
- score
- processor
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims description 11
- 239000003550 marker Substances 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 4
- 238000010191 image analysis Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 abstract description 22
- 238000012545 processing Methods 0.000 abstract description 7
- 238000012549 training Methods 0.000 abstract description 7
- 230000005489 elastic deformation Effects 0.000 abstract description 2
- 238000005094 computer simulation Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000004807 localization Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000010432 diamond Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003915 air pollution Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/593—Recognising seat occupancy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/754—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
- H04N23/21—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from near infrared [NIR] radiation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Toxicology (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
- Die vorliegende Offenlegung bezieht sich auf Bildanalyse, insbesondere auf die Ortsbestimmung eines Zielgegenstands.
- Um das ständig zunehmende Verkehrsaufkommen zu regulieren, werden Sonderfahrspuren eingeführt, die nur von Fahrzeugen mit einer bestimmten Mindestanzahl von Insassen befahren werden dürfen. Diese Managed Lanes umfassen Fahrgemeinschaftsspuren, Diamond-Lanes (mit Rautensymbol gekennzeichnete Fahrspuren) oder HOV-Lanes (Fahrspuren für stark belegte Fahrzeuge), durch die die Gesamtanzahl von Fahrzeugen (bei einer gegebenen Anzahl von Personen) auf einer Autobahn begrenzt und damit der Verkehr beschleunigt werden soll. Der Gesamtnutzen ist in verschiedenen Bereichen offensichtlich: Durch Managed Lanes werden Verkehrsstaus, Zeitverschwendung auf dem Weg zum Arbeitsplatz sowie der Kraftstoffverbrauch reduziert und die Luftverschmutzung vermindert. Managed Lanes umfassen auch HOT-Lanes, die von einem Fahrzeug mit nur einem Insassen nach Zahlung einer Maut befahren werden dürfen. Die Maut wird häufig dynamisch festgelegt, je nach Verkehrsstau in Echtzeit, um eine Mindest-Durchschnittsgeschwindigkeit auf der Managed Lane aufrechtzuerhalten. Managed Lanes wie HOV- oder HOT-Lanes sind typischerweise die äußersten linken Fahrspuren einer Autobahn, die häufig mit Rauten auf der Fahrbahn markiert bzw. entsprechend beschildert sind. Sie sind manchmal von den allgemeinen Fahrspuren durch Absperrungen abgetrennt. Manche Managed Lanes erfordern mindestens zwei Fahrzeuginsassen und werden als "2+"-Fahrspur bezeichnet, andere Managed Lanes erfordern mindestens drei Fahrzeuginsassen und werden als "3+"-Fahrspur bezeichnet.
- Um wirksam zu sein und die Integrität innerhalb des Systems aufrechtzuerhalten, muss die Einhaltung der Insassenzahlen durchgesetzt werden. Da Managed Lanes im Allgemeinen im Hinblick auf die Fahrzeit einen eindeutigen Vorteil bieten, ist die Versuchung groß, dass Personen das System betrügen und die Fahrspur benutzen, auch wenn ihr Fahrzeug nicht mit der erforderlichen Anzahl von Insassen besetzt ist (oder aus einem anderen Grund nicht dazu berechtigt ist). Dieser Hang zum Betrug umfasst manchmal auch Bemühungen, die Erfassung zu umgehen, einschließlich der Verwendung von Dummys oder Schaufensterpuppen, um zusätzliche Insassen zu simulieren.
- Um die Regeln der Managed Lanes durchzusetzen, sind nach der derzeitigen Praxis Vollzugsbeamte erforderlich, die am Rand von HOV-/HOT-Lanes eingesetzt werden, um die vorbeifahrenden Fahrzeuge optisch zu kontrollieren. Dieses Verfahren ist kostspielig, schwierig, möglicherweise unsicher und letztlich ineffektiv, da nur wenige Zuwiderhandelnde tatsächlich erfasst werden und Strafzettel erhalten. Ein alternatives Verfahren zur Überwachung von Managed Lanes ist der bildgestützte automatische Vollzug, der die Erkennung und Einstufung von Bildmerkmalen (z. B. Gesichter, Sitze, Sicherheitsgurte usw.) hinter einer Windschutzscheibe, die im Blickfeld einer Kamera liegen, erfordert, um eine Fahrer-Beifahrer-Konfiguration von einer Alleinfahrer-Konfiguration zu unterscheiden. Dieses Verfahren ist stark vom Standort der Kamera und vom Auslösezeitpunkt abhängig, um ein klares Bild vom Innenraum eines Fahrzeugs zu erhalten. An den meisten Standorten ist es nicht möglich, die Kamera so auszurichten, dass ihr Sichtfeld genau und ausschließlich auf die Windschutzscheibe eines jeden herannahenden Fahrzeugs gerichtet ist. Die Lage der Windschutzscheibe in den erfassten Bildern ist von Fahrzeug zu Fahrzeug unterschiedlich, je nach Verhalten des Fahrers und dem Fahrzeugdesign, was die Wirksamkeit eines solchen bildgestützten Ansatzes vermindert. Deshalb besteht Bedarf an einer genauen Lokalisierung des Windschutzscheibenbereichs in einem erfassten Bild, um Zuwiderhandelnde auf Managed Lanes effizient und wirksam zu erkennen.
- Ein Ansatz zur Erkennung der Lage eines Windschutzscheibenbereichs ist in der allgemeingültigen US-Patentanmeldung mit der Serien-Nr. 13/859047, angemeldet am 9. April 2013, dargelegt, wobei ein Zielfahrzeug innerhalb eines erfassten Bildes aufgrund von vorhandenen Kenntnissen über geometrische und räumliche Beziehungen erkannt und lokalisiert werden kann. Interessierende Objekte am Zielfahrzeug können dann erkannt werden und vorhandene Kenntnisse über die relativen geometrischen Beziehungen zwischen den erkannten Objekten, den Bereich auf dem Bild, der die Windschutzscheibe des Zielfahrzeugs umfasst, können für die Weiterverarbeitung erkannt und lokalisiert werden, um Fahrzeuge zu erfassen, die gegen die Anforderungen von HOV-/HOT-Lanes oder andere Anforderungen, wie zum Beispiel die Gurtpflicht, verstoßen. Dieser Ansatz ist zwar für zahlreiche Anwendungen geeignet, es besteht aber nach wie vor Bedarf an einer genauen Lokalisierung des Windschutzscheibenbereichs in einem erfassten Bild, um Zuwiderhandelnde auf Managed Lanes effizient und wirksam zu erkennen.
- KURZBESCHREIBUNG
- Ein Verfahren zur Lokalisierung von Windschutzscheiben zur Erfassung von Fahrzeuginsassen, um den Vollzug der Vorschriften von HOV-/HOT-Lanes zu unterstützen, wird hier beschrieben. In einer beispielhaften Ausführungsform umfasst ein Verfahren das Training eines Klassifizierers unter Verwendung von eindeutig definierten Markierungspunkten entlang eines Windschutzscheibenumfangs, basierend auf einem Modell für elastische Verformung. Das Verformungsmodell nutzt eine Mischung aus Bäumen mit einem gemeinsamen Pool von Teilen und kann allgemein durch dynamische Programmierung optimiert werden und dennoch hoch relevante globale elastische Strukturen erkennen. Sobald ein Kandidatenbereich im Bild erkannt wird, wird eine gelernte Schwelle auf den Einstufungs-Punktwert des Kandidatenbereichs angewandt, um zu bestimmen, ob es sich bei dem Kandidatenbereich um eine Windschutzscheibe handelt. Der gekennzeichnete Bereich wird dann für die Weiterverarbeitung ausgeschnitten.
- Nach einem Aspekt umfasst ein System, das zur Durchführung einer Bildanalyse basierend auf Markierungspunkten konfiguriert wird, um eine Windschutzscheibe innerhalb eines Bildes zu lokalisieren, ein mit einem Datenverarbeitungsgerät funktional verbundenes Bilderfassungsgerät, das ein Bild eines Zielfahrzeugs erfasst, und ein durch einen Prozessor nutzbares Medium, das Computercode enthält, wobei das durch Prozessor nutzbare Medium mit dem genannten Datenverarbeitungsgerät verbunden ist und der genannte Computerprogrammcode Anweisungen enthält, die vom genannten Prozessor ausführbar sind, und das System dazu konfiguriert ist, eine Vielzahl von Markierungspunkten in Verbindung mit einem Windschutzscheibenteil eines Fahrzeugs zu erkennen, wobei mindestens einer der Markierungspunkte einem an die Windschutzscheibe angrenzenden Seitenspiegel entspricht, und einen jeden Markierungspunkt über eine Baumstruktur, die durch räumliche Beziehungen zwischen einem oder mehreren der Markierungspunkte definiert ist, einzuordnen.
- Der Computerprogrammcode, der von dem genannten Prozessor ausführbare Anweisungen umfasst, kann weiterhin dazu konfiguriert sein, einen Einstufungs-Punktwert zu berechnen. Der Computerprogrammcode, der von dem genannten Prozessor ausführbare Anweisungen umfasst, kann weiterhin dazu konfiguriert sein, den Einstufungs-Punktwert mit einem Schwellenwert zu vergleichen, und, falls der Einstufungs-Punktwert den Schwellenwert überschreitet, den durch den Markierungspunkt gekennzeichneten Bereich auszuschneiden. Der Einstufungs-Punktwert kann generiert werden unter Verwendung von S(I, L) = App(I, L) + Shape(L), wobei I das betreffende Bild darstellt, und L = {li = (xi, yi), i = 1, 2, ..., NL} die Reihe von Pixelpositionen für die NL für die Windschutzscheibe definierten Markierungspunkte, App(I, L) die Hinweise im Erscheinungsbild zum Auflegen einer Schablone für das Teil i in der Position li für i = 1, 2, ..., NL zusammenfasst und Shape(L) die spezifische räumliche Anordnung von Teilen auswertet L.
- Die Markierungspunkte können einen Baum mit Anfangs- und Endpunkten an jedem geraden Liniensegment definieren und dabei den Einfluss der relativen Standortänderung bei der Erkennung der Windschutzscheibe minimieren. Die Anfangs- und Endpunkte des Baums können sich in einer unteren Mittelposition der Windschutzscheibe befinden. Der Computerprogrammcode, der von dem genannten Prozessor ausführbare Anweisungen umfasst, kann weiterhin dazu konfiguriert sein, Verstöße gegen die Fahrspur-Anforderungen auf Managed Lanes zu erkennen.
- Gemäß einem anderen Aspekt umfasst ein computergestütztes Verfahren zur Verbesserung eines Bildes die Identifizierung einer Vielzahl von Markierungspunkten in Verbindung mit einem Windschutzscheibenteil eines Fahrzeugs, wobei mindestens einer der Markierungspunkte in mindestens einer Mischung einem an die Windschutzscheibe angrenzenden Seitenspiegel entspricht, und das Einordnen eines jeden Markierungspunktes über eine Baumstruktur, die durch räumliche Beziehungen zwischen einem oder mehreren der Markierungspunkte definiert ist.
- Das Verfahren kann weiterhin die Berechnung eines Einstufungs-Punktwerts basierend auf den eingeordneten Markierungspunkten umfassen. Das Verfahren kann weiterhin den Vergleich eines Einstufungs-Punktwerts mit einem Schwellenwert und, falls der Einstufungs-Punktwert den Schwellenwert überschreitet, das Ausschneiden des durch die Markierungspunkte gekennzeichneten Bereichs umfassen. Der Einstufungs-Punktwert kann generiert werden unter Verwendung von S(I, L) = App(I, L) + Shape(L), wobei I das betreffende Bild darstellt, und L = {li = (xi, yi), i = 1, 2, ..., NL} die Reihe von Pixelpositionen für die NL für die Windschutzscheibe definierten Markierungspunkte, App(I, L) die Hinweise im Erscheinungsbild zum Auflegen einer Schablone für das Teil i in der Position li für i = 1, 2, ..., NL zusammenfasst und Shape(L) die spezifische räumliche Anordnung von Teilen auswertet L.
- Die Markierungspunkte können einen Baum mit Anfangs- und Endpunkten an jedem geraden Liniensegment definieren und dabei den Einfluss der relativen Standortänderung bei der Erkennung der Windschutzscheibe minimieren. Die Anfangs- und Endpunkte des Baums können sich in einer unteren Mittelposition der Windschutzscheibe befinden. Das Verfahren kann weiterhin die Erfassung von Zuwiderhandlungen gegen Fahrspuranforderungen auf Managed Lanes umfassen.
- Nach einem anderen Aspekt, ein nichtflüchtiges computernutzbares Medium zur Durchführung einer Bildanalyse basierend auf Markierungspunkten zur Lokalisierung einer Windschutzscheibe innerhalb eines Bildes, wobei das genannte computernutzbare Medium einen Computerprogrammcode enthält und der genannte Computerprogrammcode durch einen Computer ausführbare Anweisungen umfasst, die dazu konfiguriert sind, eine Vielzahl von Markierungspunkten in Verbindung mit einem Windschutzscheibenteil eines Fahrzeugs zu erkennen, wobei mindestens einer der Markierungspunkte einem an die Windschutzscheibe angrenzenden Seitenspiegel entspricht, und einen jeden Markierungspunkt über eine Baumstruktur, die durch räumliche Beziehungen zwischen einem oder mehreren der Markierungspunkten definiert ist, einzuordnen.
- Die Anweisungen können weiterhin die Berechnung eines Einstufungs-Punktwerts basierend auf den eingeordneten Markierungspunkten umfassen. Die Anweisungen können weiterhin den Vergleich eines Einstufungs-Punktwerts mit einem Schwellenwert und, falls der Einstufungs-Punktwert den Schwellenwert überschreitet, das Ausschneiden des durch die Markierungspunkte gekennzeichneten Bereichs umfassen. Der Einstufungs-Punktwert kann generiert werden unter Verwendung von S(I, L) = App(I, L) + Shape(L), wobei I das betreffende Bild darstellt, und L = {li = (xi, yi), i = 1, 2, ..., NL} die Reihe von Pixelpositionen für die NL für die Windschutzscheibe definierten Markierungspunkte, App(I, L) die Hinweise im Erscheinungsbild zum Auflegen einer Schablone für das Teil i in der Position li für i = 1, 2, ..., NL zusammenfasst und Shape(L) die spezifische räumliche Anordnung von Teilen auswertet L.
- Die Markierungspunkte können einen Baum mit Anfangs- und Endpunkten an jedem geraden Liniensegment definieren und dabei den Einfluss der relativen Standortänderung bei der Erkennung der Windschutzscheibe minimieren. Die Anfangs- und Endpunkte des Baums können sich in einer unteren Mittelposition der Windschutzscheibe befinden.
- KURZBESCHREIBUNG DER ZEICHNUNGEN
- Das Patent oder die Anmeldung enthält mindestens eine in Farbe ausgeführte Zeichnung. Kopien dieses Patents oder dieser Patentanmeldungs-Veröffentlichung mit farbigen Zeichnungen werden auf Anfrage vom Amt gegen eine Gebühr zur Verfügung gestellt.
-
1 stellt einen Ablaufplan eines beispielhaften Verfahrens nach der vorliegenden Offenlegung dar; -
2 stellt ein Beispielbild nach der vorliegenden Offenlegung dar; -
3 stellt ein Beispielbild dar, das Markierungspunkte und Bäume nach der vorliegenden Offenlegung zeigt; -
4 stellt einen nach der vorliegenden Offenlegung erkannten beispielhaften Kandidatenbereich dar; -
5 stellt ein beispielhaftes, nach der vorliegenden Offenlegung entwickeltes Ground-Truth-Bild dar; -
6 stellt ein weiteres beispielhaftes, nach der vorliegenden Offenlegung entwickeltes Ground-Truth-Bild dar; -
7 stellt einen Fehlquoten-Graphen zu einer Reihe von nach der vorliegenden Offenlegung analysierten Bildern dar; - Die
8 und9 stellen Beispiele von Bildern dar, bei denen eine Fehlerquote eine Schwelle überschreitet; -
10 ist eine grafische Darstellung einer Fehlerquote gegenüber einer Score-Funktion nach der vorliegenden Offenlegung; -
11 stellt eine ROC-ähnliche Kurve nach der vorliegenden Offenlegung dar; und -
12 stellt ein beispielhaftes System nach der vorliegenden Offenlegung dar; - DETAILBESCHREIBUNG
- Die vorliegende Offenlegung stellt ein Insassen-Erfassungssystem und ein Verfahren zum automatischen oder halbautomatischen Vollzug bei Fahrspuren für stark belegte Fahrzeuge sowie bei Fahrspuren, die von stark belegten Fahrzeugen oder gegen Zahlung einer Maut befahren werden dürfen (HOV-/HOT-Lanes), vor. Das System und das Verfahren basieren auf einem kameragestützten bildgebenden System zur Erfassung von Bildern/Videos im Nah-Infrarot-Bereich (NIR) durch die Windschutzscheibe eines herannahenden Fahrzeugs. Der Erfassungsalgorithmus untersucht anschließend die Bilder/Videos, um potenzielle Zuwiderhandelnde gegen HOV-/HOT-Vorschriften zu ermitteln, gegen die Vollzugsbeamte vorgehen können. Falls der Beifahrersitz nicht besetzt ist, wird das Fahrzeug als potenzieller Zuwiderhandelnder klassifiziert. Für einen potenziellen Zuwiderhandelnden kann ein Beweispaket bestehend aus einem Vordersitz-Bild, einem Rücksitz-Bild, einem Fahrzeugkennzeichen-Bild und einem farbigen Bild des Fahrzeugs generiert und an einen nachgeschalteten Polizeibeamten oder ein Backoffice weitergeleitet werden. In einem Arbeitsablauf prüft der Polizeibeamte das Beweispaket und bestimmt, ob das Fahrzeug herausgezogen und der Fahrer einen Strafzettel erhalten sollte. In einem anderen Arbeitsablauf befindet sich der Polizeibeamte im Backoffice in der Polizeidienststelle und prüft das Beweispaket und bestimmt, ob der Halter einen Strafzettel erhält. Der zweite Arbeitsablauf entspricht dem derzeit angewandten, auf "Rotlicht"-Kameras basierenden Vollzugssystem.
- Das Erfassungssystem kann entweder bestimmte Objekte wie Gesichter, Autositze und Sicherheitsgurte erkennen, die mit der An- oder Abwesenheit von Insassen in Verbindung gebracht werden, oder nutzt einen auf maschinellem Lernen basierenden Klassifizierer, der Verstöße durch Verwendung einer globalen Darstellung von Bildmerkmalen der erfassten Bilder erkennt. Auch wenn jeder der vorstehend genannten Ansätze am ganzen Bild durchgeführt werden kann, bietet die Konzentration auf einen interessierenden Bereich (ROI) um die Windschutzscheibe zahlreiche Vorteile. Ein lokalisierter ROI um die Windschutzscheibe ermöglicht nicht nur erhebliche Einsparungen an Computerkosten und -Zeit, sondern kann potenziell auch die Anzahl falsch positiver Ergebnisse reduzieren. Darüber hinaus ermöglicht ein definierter ROI-Bereich die Einbeziehung bestimmter geometrischer Logiken in den Prozess; z. B. kann ein Beifahrer auf dem Vordersitz/ein Autositz nur auf der linken Seite des Bildes erscheinen, der Autositz erscheint eine Reihe von Pixeln entfernt vom erfassten Gesicht des Fahrers usw. Auch bei dem auf maschinellem Lernen basierenden Ansatz konzentriert sich der Klassifizierer, wenn die Windschutzscheibe für die Weiterverarbeitung isoliert wurde, auf die relevanten Unterscheidungsmerkmale zwischen Zuwiderhandelnden und Nicht-Zuwiderhandelnden (Personen gegenüber Autositzen und anderen Merkmalen innerhalb des Fahrzeugs) und nicht auf unwesentliche Merkmale außerhalb des Windschutzscheibenbereichs, und kann damit bei der Einstufung eine höhere Genauigkeit mit potenziell weniger Trainingsproben erreichen. Es sollte daher verständlich sein, dass eine genaue Lokalisierung der Windschutzscheibe erwünscht ist.
- Im Hinblick auf die Zeichnungen, zunächst auf
1 , wird ein Verfahren10 nach der vorliegenden Offenlegung in Form eines Ablaufplans dargestellt. Das Verfahren10 umfasst folgende Schritte: Beschaffen von Beispielbildern von Zielfahrzeugen (Schritt12 ), manuelles Bezeichnen einer Reihe von Markierungspunkten (z. B. dreizehn) um den Bereich der Windschutzscheibe des Fahrzeugs (Schritt14 ), Konstruktion eines Computermodells basierend auf den Beispielbildern, das Markierungspunkte basierend auf den relativen Positionen der Markierungspunkte in den Beispielbildern findet (Schritt16 ), Analysieren eines Bildes eines Zielfahrzeugs unter Verwendung des Computermodells, um eine oder mehrere mögliche Positionen je Markierungspunkt zu bestimmen (Schritt18 ), Auswählen einer wahrscheinlichsten Position für einen jeden Markierungspunkt unter Verwendung räumlicher Vorgaben (Schritt20 ); Generieren eines Ground-Truth-Bildes durch manuelles Auswählen des Windschutzscheibenbereichs des Zielfahrzeugs (Schritt22 ), Vergleichen des manuell ausgewählten Windschutzscheibenbereichs mit dem durch die Markierungspunkte in Schritt20 begrenzten Bereich, um einen Überlappungs-Einstufungs-Punktwert zu generieren (Schritt24 ), Auswählen eines Schwellenwerts für den Überlappungs-Punktwert, der die Windschutzscheibenerkennung maximiert Schritt26 ), Anwenden des Computermodells auf eingehende Bilder von Zielfahrzeugen und Ausschneiden aller gekennzeichneten Kandidaten-Windschutzscheibenbereiche, die den Schwellenwert überschreiten (Schritt28 ), und Weiterleiten der ausgeschnitten Windschutzscheibenbereiche zur Weiterverarbeitung (Schritt30 ). Diese Schritte werden in Verbindung mit den übrigen Figuren beschrieben. -
2 zeigt ein typisches Bild, das während eines Straßentests an einer Straße in der Stadt aufgenommen wurde. Es ist anzumerken, dass, auch wenn die Windschutzscheibe des Fahrzeugs eindeutig trapezförmig ist, die Form allein nicht ausreichend ist, um ihre Position im Bild eindeutig zu kennzeichnen, da zahlreiche Linien/Strukturen in der Szene häufig ähnlich trapezartige Formen bilden können (z. B. Hausdächer, Linien auf der Fahrbahn, Schatten von Gegenständen, Sonnendächer). Deshalb umfasst die vorliegende Offenlegung zur Erfassung der Windschutzscheibe in unübersichtlichen Situationen die an den Türen angebrachten Seitenspiegel zu Erfassungszwecken als Teil der Windschutzscheibe. - Die roten Punkte im Beispielbild von
2 zeigen eine Reihe von 13 manuell gekennzeichneten Markierungspunkten. Die Markierungspunkte sind um die Kanten der Windschutzscheibe (z. B. entlang der Dachlinie, der Motorhaubenlinie und der A-Säulen) und jeweils an der Außenkante des Seitenspiegels auf der Fahrer- bzw. der Beifahrerseite angeordnet. Die Anzahl der Markierungspunkte kann basierend auf der Komplexität des Gegenstands in der Situation und der Anzahl von eindeutigen Merkmalen, die einbezogen werden sollen, angepasst werden. Zum Beispiel sind zur Erfassung von Gesichtern in verschiedenen Stellungen in einem Bild häufig mehr als 30 Markierungspunkte erforderlich, um die eindeutigen Gesichtsmerkmale wie Nase und Augen einzubeziehen. - Bei der Lokalisierung von Windschutzscheiben sind die Kanten, mit Ausnahme des Seitenspiegelpaares, im Allgemeinen gerade Linien. Deshalb können typischerweise im Vergleich zu einem Gesichtserfassungssystem weniger Markierungspunkte verwendet werden. Eine zu hohe Anzahl von Punkten kann die erforderliche Handarbeit während der Trainingsphase sowie die Computerkosten bei der Online-Anwendung erheblich erhöhen. Da die Beziehungen zwischen den Markierungspunkten durch dynamische Programmierung verarbeitet werden, können die Endpunkte der Punktesequenz nicht verbunden werden. Es wurde jedoch festgestellt, dass die Position der Endpunkte die Leistung potenziell beeinträchtigen kann. In der vorliegenden Offenlegung sind die Endpunkte nicht in der Nähe von Ecken angeordnet (d. h. die Endpunkte sind entlang einer Seite oder einer relativ geraden Kante angeordnet). In dem dargestellten Beispiel sind die Endpunkte an einem Mittelpunkt der Motorhaubenlinie angeordnet.
- Sobald die Reihe von Markierungspunkten und deren relative Positionen um die Windschutzscheibe herum bestimmt sind, werden die 13 Markierungspunkte manuell in einer Reihe von Trainingsbildern analog zu
2 (z. B. 20–100 Bilder) in der gleichen Reihenfolge gekennzeichnet. Diese manuell gekennzeichneten Bilder stellen positive Proben im Trainingsprogramm des Computermodells dar. Zusätzlich zu positiven Proben sind auch negative Proben zur Konstruktion des Computermodells erforderlich. Es wird daher eine Reihe von Bildern (negative Proben) ausgewählt, die keine Windschutzscheibe des Fahrzeugs enthalten (z. B. leere Straßen, Autodächer, Szenen ohne Fahrzeug usw.) Positive Proben sind Bilder eines Fahrzeugs, die in einer Geometrie entsprechend der tatsächlichen Erfassungsgeometrie aufgenommen wurden, und negative Proben sind Bilder/Bereiche, die kein Fahrzeug enthalten. Ein Modell, siehe Gleichung unter ], wird dann durch Lernen einer Designschablone für einen jeden Markierungspunkt (Designschablonen werden gelernt unter Verwendung von Merkmalen von Gradientenhistogrammen (HOG) innerhalb eines vorgegebenen Fensters) und der räumlichen Position (und der Beziehung zwischen Punkten) für diese Markierungspunkte konstruiert, wie in3 dargestellt. Das in3 gezeigte Computermodell veranschaulicht, wie die Darstellung der Merkmale (im Sinne von Gradientenhistogramm-(HOG-)Merkmalen) für einen jeden Markierungspunkt und auch für die räumliche Verformung zwischen benachbarten Markierungspunkten aussehen sollte. Das vorgeschlagene Computermodell wird unter Verwendung von überwachten Support-Vektor-Maschinen für Lernalgorithmen (SVMs) konstruiert. Durch Anwendung des Modells auf eingehende Bilder wird in jedem Bild eine Liste von Kandidaten-Windschutzscheibenbereichen gekennzeichnet. Ein Beispiel des Kandidatenbereichs ist in4 zusammen mit einem Einstufungs-Punktwert dargestellt, der im Folgenden beschrieben wird. - Bewerten der Leistung der Lokalisierung von Windschutzscheiben
- Um die Genauigkeit der Windschutzscheibenlokalisierung zu messen, kann eine Metrik wie Gleichung (1) verwendet werden, um eine Fehlerquote durch Vergleich eines Kandidatenbereichs mit dem Ground-Truth (z. B. dem manuell gekennzeichneten Bild) zu quantifizieren. In dieser Hinsicht würde ein Bediener die Windschutzscheibe auf dem Bild manuell kennzeichnen und sie mit dem Kandidatenbereich vergleichen. In Gleichung (1) entsprechen „auto” bzw. „manuell” Bereichen, die in automatischen bzw. manuellen Windschutzscheibenlokalisierungsprozessen erkannt wurden.
E = Auto ∪ Manual – Auto ∩ Manual / Auto ∪ Manual Gleichung: 1 - Um die Empfindlichkeit der Metrik zu bestimmen, wird eine Messsystemanalyse (MSA) mit zwei Bedienern und zehn Probebildern aus einem Datensatz durchgeführt, um Wiederholbarkeits- und Vergleichbarkeitsfehler der Bediener zu quantifizieren. Jeder Bediener kennzeichnet vier Eckpunkte auf einer Windschutzscheibe (ausgenommen der Seitenspiegel) und wiederholt den Vorgang zweimal für jedes Bild (d. h. jede der vier Messungen wird als „auto” in Gleichung (1) betrachtet). Ground-Truth in der MSA-Studie wird durch Bildung von Mittelwerten der vier Messungen für jeden der vier Eckpunkte erreicht und als „manuell” in Gleichung (1) betrachtet. Ein kleinstes Polygon wird basierend auf jeder Reihe von vier Eckpunkten konstruiert und der Überlappungsbereich zwischen zwei Polygonen kann anschließend basierend auf Gleichung (1) berechnet werden. Das Ergebnis einer exemplarischen MSA ist in Tabelle 1 dargestellt. Es ist zu beachten, dass die Gesamtabweichung ca. 0,04 beträgt, während die Wiederholbarkeitsabweichung 0,016 beträgt, was eine Grenze für die Entscheidung setzt, ob zwei Windschutzscheiben als gleich betrachtet werden oder nicht. Die
5 und6 zeigen zwei Beispiele von nicht übereinstimmenden Bereichen basierend auf Gleichung (1) und deren entsprechende Fehlerquote. Tabelle 1 MSA-Ergebnisse - In verschiedenen Tests wird bei 1153 bei einem Straßentest erfassten Bildern der Windschutzscheibenbereich automatisch unter Anwendung des Verfahrens der vorliegenden Offenlegung gekennzeichnet. Deren Bereiche wurden mit dem Ground Truth basierend auf den kleinsten Polygonen, die innerhalb der 4 Eckpunkte eingepasst werden konnten, unter Verwendung von Gleichung (1) verglichen. Die Fehlerquote ist in
7 dargestellt, wobei die horizontale Achse den Bildindex und die vertikale Achse die Fehlerquote darstellt. - Zwei Beispiele, in denen die Fehlerquote 0,4 überschreitet, sind in den
8 und9 dargestellt. Es ist anzumerken, dass derartige Fahrzeuge und deren Windschutzscheiben nicht in der spezifischen Trainingsreihe des Windschutzscheibenmodells in diesem Beispiel verwendet wurden, so dass die offensichtlich mangelhafte Übereinstimmung nicht unerwartet kommt und verbessert werden könnte, wenn derartige Windschutzscheiben im Training verwendet werden. Ebenso ist anzumerken, dass in manchen Anwendungen diese Typen von Lastwagen nicht Gegenstand des HOV-/HOT-Vollzugs sind und die Erkennung der Windschutzscheibe dieser Lastwagen deshalb nicht erforderlich ist. - Validierung eines Kandidatenbereichs
- Aus den
8 und9 ist ersichtlich, dass nicht alle gekennzeichneten Kandidatenbereiche genau mit der echten Windschutzscheibe überlappen. In diesen Bildern überschreitet die Fehlerquote den Wert von 0,4, wobei die Bereiche in Magenta bzw. Gelb als manuell bzw. automatisch gekennzeichnet wurden. Außerdem könnte es in manchen Fällen vorkommen, dass die erfasste Szene überhaupt keine Fahrzeuge enthält (z. B. aufgrund von Fehlern in der Auslösevorrichtung der Kamera). Es ist deshalb wünschenswert, eine Zuverlässigkeitsmaßzahl festzulegen, bei deren Erreichen es sich bei einem Kandidatenbereich um eine Windschutzscheibe handelt. - Eine Möglichkeit, dies zu erreichen, ist die Bewertung jeder spezifischen Teilekonfiguration L = {li: i ∊ V} für ein gegebenes Bild I durch eine Score-Funktion, wie in Gleichung 2 dargestellt.
Gleichung 2: S(I, L) = App(I, L) + Shape(L), wobei I das betreffende Bild darstellt, und L = {li = (xi, yi), i = 1, 2, ..., NL} die Reihe von Pixelpositionen für die NL für die Windschutzscheibe definierten Markierungspunkte, App(I, L) die Hinweise im Erscheinungsbild zum Auflegen einer Schablone für das Teil i in der Position li für i = 1, 2, ..., NL zusammenfasst und Shape(L) die spezifische räumliche Anordnung von Teilen auswertet L. - Die Konfiguration, die den höchsten Punktwert ergibt, wird als Kandidatenbereich ausgewählt.
10 ist eine grafische Darstellung der Fehlerquote unter Verwendung von Gleichung (1) gegenüber dieser Score-Funktion für die 1153 Bilder im Test-Datensatz. Aus10 ist ersichtlich, dass die Fehlerquote bei niedrigen Punktwerten tendenziell hoch ist. - In
11 wurde eine ROC-ähnliche Kurve für verschiedene Punktwerte und die Fehlerquote des 99. Perzentils konstruiert. Unter Verwendung des Graphen aus11 kann ein spezifischer Punktwert ausgewählt werden, um die Anforderung des Kunden hinsichtlich Ertrag (Prozentsatz der erkannten Windschutzscheiben aus der Gesamtanzahl der erfassten Bilder) gegenüber Genauigkeit (Prozentsatz von korrekt erkannten Windschutzscheiben) zu erfüllen. - Zum Beispiel könnte bekannt sein, dass eine Fehlerquote unter 0,4 in nahezu allen Fällen einen Hinweis auf korrekte Windschutzscheibenlokalisierung darstellt; dies bedeutet, dass es sich bei Auswahl eines Einstufungs-Schwellenpunktwerts von –0,2 bei nahezu allen angegebenen Windschutzscheiben um echte Windschutzscheiben handelt, dass jedoch zahlreiche echte Windschutzscheiben fälschlicherweise verworfen werden (falsch negativ). Basierend auf
10 handelt es sich bei einem Punktwert von –0,5 bei ca. 99 % aller als Windschutzscheiben angegebenen Windschutzscheiben tatsächlich um echte Windschutzscheiben, so dass ein hoher Anteil echter Windschutzscheiben erfasst wird (hohe Quote richtig positiver Ergebnisse), während eine sehr geringe Anzahl falscher Windschutzscheiben angegeben wird (niedrige Quote falsch positiver Ergebnisse). - In Bezug auf
12 wird ein grundlegendes System nach der vorliegenden Offenlegung veranschaulicht und im Allgemeinen mit der Bezugszahl200 bezeichnet. Das System200 umfasst im Allgemeinen ein Bilderfassungsgerät252 , das mit einer Verarbeitungseinheit254 verbunden ist, die einen Prozessor256 und einen Speicher258 zum Speichern von durch einen Computer ausführbaren Anweisungen umfasst, um das Verfahren nach der vorliegenden Offenlegung auszuführen. Ein Ausgabebildschirm260 wird zur Anzeige des verbesserten Bildes bereitgestellt. Es ist klar ersichtlich, dass das Bilderfassungsgerät252 , die Verarbeitungseinheit254 und der Ausgabebildschirm260 je nach der spezifischen Installation räumlich getrennt voneinander angeordnet sein können. In manchen Anordnungen können einige oder alle Komponenten zusammen positioniert sein. - Die Verwendung von Aspekten der vorliegenden Offenlegung hat die Genauigkeit der Windschutzscheibenerkennung erheblich verbessert. Während Systeme nach dem Stand der Technik eine Genauigkeit von 85 % erreichen konnten, konnte bei Tests unter Anwendung der beispielhaften, in diesem Schriftstück beschriebenen Verfahren eine Genauigkeit von mindestens 99 % erreicht werden. Demnach können das in der vorliegenden Offenlegung vorgestellte System und die entsprechenden Verfahren den Vollzug bei HOV-/HOT-Lanes erheblich verbessern.
Claims (7)
- System, das dazu konfiguriert ist, Bildanalysen basierend auf Markierungspunkten zur Lokalisierung einer Windschutzscheibe innerhalb eines Bildes durchzuführen, und Folgendes umfasst: ein Bilderfassungsgerät, das funktional mit einem Datenverarbeitungsgerät verbunden ist, das ein Bild eines Zielfahrzeugs erfasst; und ein durch einen Prozessor nutzbares Medium, das Computercode enthält, wobei das genannte durch einen Prozessor nutzbare Medium mit dem genannten Datenverarbeitungsgerät verbunden ist und der genannte Computerprogrammcode vom genannten Prozessor ausführbare Anweisungen enthält und dazu konfiguriert ist, eine Vielzahl von Markierungspunkten in Verbindung mit einem Windschutzscheibenteil eines Fahrzeugs zu kennzeichnen, wobei mindestens einer der Markierungspunkte einem an die Windschutzscheibe angrenzenden Seitenspiegel entspricht; und Anordnen eines jeden Markierungspunkts in einer Baumstruktur, die durch räumliche Beziehungen zwischen den Markierungspunkten definiert ist.
- System nach Anspruch 1, wobei der genannten Computerprogrammcode, der von einem Prozessor ausführbare Anweisungen enthält, weiterhin dazu konfiguriert ist, einen Einstufungs-Punktwert zu berechnen.
- System nach Anspruch 2, wobei der genannten Computerprogrammcode, der von einem Prozessor ausführbare Anweisungen enthält, weiterhin dazu konfiguriert ist, den Einstufungs-Punktwert mit einem Schwellenwert zu vergleichen und, falls der Einstufungs-Punktwert den Schwellenwert überschreitet, den durch die Markierungspunkte gekennzeichneten Bereich auszuschneiden.
- System nach Anspruch 2, wobei der Einstufungs-Punktwert generiert wird unter Anwendung von: S(I, L) = App(I, L) + Shape(L), wobei I das betreffende Bild darstellt, und L = {li = (xi, yi), i = 1, 2, ..., NL} die Reihe von Pixelpositionen für die NL für die Windschutzscheibe definierten Markierungspunkte, App(I, L) die Hinweise im Erscheinungsbild zum Auflegen einer Schablone für das Teil i in der Position li für i = 1, 2, ..., NL zusammenfasst und Shape(L) die spezifische räumliche Anordnung von Teilen auswertet L.
- System nach Anspruch 1, wobei die Markierungspunkte einen Baum definieren, der an einem geraden Liniensegment der genannten Windschutzscheibe jeweils einen Anfangs- und Endpunkt aufweist, sodass der Einfluss der relativen Standortänderung zwischen Anfangs- und Endpunkten des Baums bei der Windschutzscheibenerkennung minimiert wird.
- System nach Anspruch 5, wobei sich die Anfangs- und Endpunkte des Baums in einer unteren Mittelposition der Windschutzscheibe befinden.
- System nach Anspruch 1, wobei der genannten Computerprogrammcode, der von einem Prozessor ausführbare Anweisungen enthält, weiterhin dazu konfiguriert ist, Verstöße gegen die Fahrspur-Anforderungen auf Managed Lanes zu erkennen.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/245,319 | 2014-04-04 | ||
US14/245,319 US9633267B2 (en) | 2014-04-04 | 2014-04-04 | Robust windshield detection via landmark localization |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015205309A1 true DE102015205309A1 (de) | 2015-10-08 |
Family
ID=54146619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015205309.1A Pending DE102015205309A1 (de) | 2014-04-04 | 2015-03-24 | Stabile Erfassung von Windschutzscheiben über die Lokalisierung von Markierungspunkten |
Country Status (3)
Country | Link |
---|---|
US (2) | US9633267B2 (de) |
CA (1) | CA2885019C (de) |
DE (1) | DE102015205309A1 (de) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2016222807A1 (en) | 2015-02-24 | 2017-08-24 | Axon Enterprise, Inc. | Systems and methods for bulk redaction of recorded data |
US9471822B1 (en) * | 2015-05-14 | 2016-10-18 | Ncr Corporation | Demarcating a redaction area within a field of view of a video stream |
CN106469309B (zh) * | 2015-08-14 | 2019-11-12 | 杭州海康威视数字技术股份有限公司 | 车辆监控的方法和装置、处理器、图像采集设备 |
CN106885813B (zh) * | 2015-12-16 | 2019-06-07 | 清华大学 | 检查货物的方法、系统和装置 |
US10366278B2 (en) * | 2016-09-20 | 2019-07-30 | Apple Inc. | Curvature-based face detector |
US9953210B1 (en) * | 2017-05-30 | 2018-04-24 | Gatekeeper Inc. | Apparatus, systems and methods for improved facial detection and recognition in vehicle inspection security systems |
JP6820074B2 (ja) * | 2017-07-19 | 2021-01-27 | 日本電気株式会社 | 乗員数検知システム、乗員数検知方法、およびプログラム |
US11538257B2 (en) | 2017-12-08 | 2022-12-27 | Gatekeeper Inc. | Detection, counting and identification of occupants in vehicles |
US11572077B2 (en) * | 2018-07-05 | 2023-02-07 | Nauto, Inc. | Method for distributed data analysis |
KR102601354B1 (ko) * | 2018-11-29 | 2023-11-13 | 현대모비스 주식회사 | 영상기반 승객 검출 및 안전벨트 착용 검출 장치와 방법 |
WO2020142050A2 (en) * | 2018-12-31 | 2020-07-09 | Havelsan Hava Elektroni̇k Sanayi̇ Ve Ti̇caret Anoni̇m Şi̇rketi̇ | A method for detecting the violation of mobile phone use by driver through using camera images of the license plate recognition system |
JP7444423B2 (ja) * | 2019-05-20 | 2024-03-06 | i-PRO株式会社 | 車両監視システムおよび車両監視方法 |
CN111369799B (zh) * | 2019-05-20 | 2021-11-23 | 杭州海康威视系统技术有限公司 | 一种检测改装车辆的方法、装置及系统 |
CN112149482A (zh) * | 2019-06-28 | 2020-12-29 | 深圳市商汤科技有限公司 | 驾驶员在岗状态检测方法、装置、设备和计算机存储介质 |
US10867193B1 (en) | 2019-07-10 | 2020-12-15 | Gatekeeper Security, Inc. | Imaging systems for facial detection, license plate reading, vehicle overview and vehicle make, model, and color detection |
US11196965B2 (en) | 2019-10-25 | 2021-12-07 | Gatekeeper Security, Inc. | Image artifact mitigation in scanners for entry control systems |
US11120523B1 (en) | 2020-03-12 | 2021-09-14 | Conduent Business Services, Llc | Vehicle passenger detection system and method |
US11468617B2 (en) | 2021-03-10 | 2022-10-11 | International Business Machines Corporation | Selective redaction of images |
TWI789931B (zh) * | 2021-10-01 | 2023-01-11 | 劉哲安 | 埋入式停車辨識系統及其控制方法 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5487116A (en) * | 1993-05-25 | 1996-01-23 | Matsushita Electric Industrial Co., Ltd. | Vehicle recognition apparatus |
US7076088B2 (en) * | 1999-09-03 | 2006-07-11 | Honeywell International Inc. | Near-infrared disguise detection |
US6975971B2 (en) * | 2001-03-13 | 2005-12-13 | Ford Global Technologies Llc | System and method of section cutting and analysis of a computer model |
US7079996B2 (en) * | 2001-05-30 | 2006-07-18 | Ford Global Technologies, Llc | System and method for design of experiments using direct surface manipulation of a mesh model |
JP2005134966A (ja) * | 2003-10-28 | 2005-05-26 | Seiko Epson Corp | 顔画像候補領域検索方法及び検索システム並びに検索プログラム |
US7650030B2 (en) * | 2004-12-03 | 2010-01-19 | Sarnoff Corporation | Method and apparatus for unsupervised learning of discriminative edge measures for vehicle matching between non-overlapping cameras |
WO2006082644A1 (ja) * | 2005-02-03 | 2006-08-10 | Fujitsu Limited | 車両画像データ生成プログラムおよび車両画像データ生成装置 |
JP4658899B2 (ja) * | 2006-10-24 | 2011-03-23 | 本田技研工業株式会社 | 車両の乗員検知装置 |
US7786897B2 (en) * | 2007-01-23 | 2010-08-31 | Jai Pulnix, Inc. | High occupancy vehicle (HOV) lane enforcement |
JP5221886B2 (ja) * | 2007-03-07 | 2013-06-26 | 富士重工業株式会社 | 物体検出装置 |
WO2010006361A1 (en) * | 2008-07-14 | 2010-01-21 | National Ict Australia Limited | Detection of vehicles in images of a night time scene |
CN102165493B (zh) * | 2008-09-25 | 2013-11-06 | 澳大利亚国家Ict有限公司 | 对图像中的车辆的检测 |
US9280895B2 (en) * | 2010-08-21 | 2016-03-08 | American Traffic Solutions, Inc. | System and method for detecting traffic violations on restricted roadways |
JP5651414B2 (ja) * | 2010-09-16 | 2015-01-14 | 株式会社東芝 | 車両検出装置 |
US8520074B2 (en) * | 2010-12-14 | 2013-08-27 | Xerox Corporation | Determining a total number of people in an IR image obtained via an IR imaging system |
JP5740241B2 (ja) * | 2011-08-03 | 2015-06-24 | 株式会社東芝 | 車両検出装置 |
US8611608B2 (en) * | 2011-08-23 | 2013-12-17 | Xerox Corporation | Front seat vehicle occupancy detection via seat pattern recognition |
US9108273B2 (en) | 2011-09-29 | 2015-08-18 | H.C. Starck Inc. | Methods of manufacturing large-area sputtering targets using interlocking joints |
US8811664B2 (en) | 2011-12-06 | 2014-08-19 | Xerox Corporation | Vehicle occupancy detection via single band infrared imaging |
US9202118B2 (en) * | 2011-12-13 | 2015-12-01 | Xerox Corporation | Determining a pixel classification threshold for vehicle occupancy detection |
US9373033B2 (en) * | 2012-03-13 | 2016-06-21 | Massachusetts Institute Of Technology | Assisted surveillance of vehicles-of-interest |
US8824742B2 (en) * | 2012-06-19 | 2014-09-02 | Xerox Corporation | Occupancy detection for managed lane enforcement based on localization and classification of windshield images |
US9652851B2 (en) * | 2014-04-01 | 2017-05-16 | Conduent Business Services, Llc | Side window detection in near-infrared images utilizing machine learning |
US9842266B2 (en) * | 2014-04-04 | 2017-12-12 | Conduent Business Services, Llc | Method for detecting driver cell phone usage from side-view images |
-
2014
- 2014-04-04 US US14/245,319 patent/US9633267B2/en active Active
- 2014-06-12 US US14/302,610 patent/US9514374B2/en active Active
-
2015
- 2015-03-10 CA CA2885019A patent/CA2885019C/en active Active
- 2015-03-24 DE DE102015205309.1A patent/DE102015205309A1/de active Pending
Also Published As
Publication number | Publication date |
---|---|
CA2885019C (en) | 2017-08-22 |
US9514374B2 (en) | 2016-12-06 |
US20150286883A1 (en) | 2015-10-08 |
US20150363655A1 (en) | 2015-12-17 |
CA2885019A1 (en) | 2015-10-04 |
US9633267B2 (en) | 2017-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015205309A1 (de) | Stabile Erfassung von Windschutzscheiben über die Lokalisierung von Markierungspunkten | |
DE102011086512B4 (de) | Nebeldetektion | |
DE102013205950B4 (de) | Verfahren zum Detektieren von Straßenrändern | |
DE102006012914B4 (de) | System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug | |
DE102009023326B4 (de) | Vorrichtung und Verfahren zum Detektieren eines kritischen Bereiches und Fußgängerdetektionsvorrichtung unter Verwendung derselben | |
DE102014117102B4 (de) | Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems | |
DE102006005512B4 (de) | System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs | |
DE112017008149B4 (de) | Vorrichtung für eine von einem Fahrzeug ausgehende Kommunikation, Verfahren zum Kommunizieren von einem Fahrzeug nach außen Informationsverarbeitungsvorrichtung und computerlesbares Medium | |
DE102015121952A1 (de) | Verfahren zum Identifizieren eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug | |
EP2710573B1 (de) | Verfahren und vorrichtung zum erkennen eines möglichen kollisionsobjektes | |
DE112013001858T5 (de) | Mehrfachhinweis-Objekterkennung und -Analyse | |
DE102011106050A1 (de) | Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads | |
DE112008003729T5 (de) | Bildprozessor, Bildverfahren, Bildprogramm sowie Fahrzeugterminal hierfür | |
DE112013002740T5 (de) | Menscherfassungsvorrichtung | |
DE102018129993A1 (de) | Verfahren zur fahrzeugdetektion, verfahren zur fahrzeugdetektion bei nacht auf basis von dynamischer lichtintensität und system dafür | |
DE102013222322A1 (de) | Verfahren und Gerät für das Bereitstellen von Augmented Reality bzw. erweiterter Realität | |
US20170243067A1 (en) | Side window detection through use of spatial probability maps | |
DE102015201406A1 (de) | Zeichenerkennungsvorrichtung und verfahren zur bestimmung von links- oder rechtsverkehr und der streckeneinheitsangabe | |
DE102018008442A1 (de) | Verfahren zur Wetter- und/oder Sichtweitenerkennung | |
DE112015006662T5 (de) | Anzeigesteuervorrichtung, anzeigesteuerverfahren und anzeigesteuerprogramm | |
DE102015207903A1 (de) | Vorrichtung und Verfahren zum Erfassen eines Verkehrszeichens vom Balkentyp in einem Verkehrszeichen-Erkennungssystem | |
DE112016006386T5 (de) | Fahrzeugseitige vorrichtung, warnungsausgabeverfahren und warnungsausgabeprogramm | |
DE102018010039A1 (de) | Verfahren zur Erkennung von mindestens einem Muster in einer Umgebung eines Fahrzeugs, Steuergerät zum Ausführen eines solchen Verfahrens, sowie Fahrzeug mit einem solchen Steuergerät | |
EP2549408A1 (de) | Verfahren zur Detektion und Klassifikation von Objekten | |
CN105117696B (zh) | 一种基于小线分析的未系安全带自动检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE |
|
R081 | Change of applicant/patentee |
Owner name: CONDUENT BUSINESS SERVICES, LLC, FLORHAM PARK, US Free format text: FORMER OWNER: XEROX CORPORATION, NORWALK, CONN., US Owner name: CONDUENT BUSINESS SERVICES, LLC (N.D.GES.D. ST, US Free format text: FORMER OWNER: XEROX CORPORATION, NORWALK, CONN., US |
|
R082 | Change of representative |
Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE |
|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: CONDUENT BUSINESS SERVICES, LLC, FLORHAM PARK, US Free format text: FORMER OWNER: CONDUENT BUSINESS SERVICES, LLC (N.D.GES.D. STAATES DELAWARE), DALLAS, TEX., US |
|
R082 | Change of representative |
Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06V0030190000 Ipc: G06V0020540000 |
|
R016 | Response to examination communication | ||
R002 | Refusal decision in examination/registration proceedings | ||
R006 | Appeal filed | ||
R008 | Case pending at federal patent court |