DE102011082661A1 - Fahrzeugdetektionsvorrichtung - Google Patents

Fahrzeugdetektionsvorrichtung Download PDF

Info

Publication number
DE102011082661A1
DE102011082661A1 DE102011082661A DE102011082661A DE102011082661A1 DE 102011082661 A1 DE102011082661 A1 DE 102011082661A1 DE 102011082661 A DE102011082661 A DE 102011082661A DE 102011082661 A DE102011082661 A DE 102011082661A DE 102011082661 A1 DE102011082661 A1 DE 102011082661A1
Authority
DE
Germany
Prior art keywords
vehicle
detection unit
image
unit
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011082661A
Other languages
English (en)
Inventor
Yasuhiro Aoki
Toshio Sato
Yusuke Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of DE102011082661A1 publication Critical patent/DE102011082661A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • G07B15/06Arrangements for road pricing or congestion charging of vehicles or vehicle users, e.g. automatic toll systems
    • G07B15/063Arrangements for road pricing or congestion charging of vehicles or vehicle users, e.g. automatic toll systems using wireless information transmission between the vehicle and a fixed station

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Gemäß einer Ausführungsform beinhaltet eine Fahrzeugdetektionsvorrichtung (100) eine Liniensegment-Extraktionseinheit (150), eine Kandidatenerzeugungseinheit (150), eine Evaluierungseinheit (150) und eine spezifische Teile-Detektionseinheit (150), und die Liniensegment-Extraktionseinheit (150) extrahiert eine Mehrzahl von Liniensegmentkomponenten, die ein Bild eines Fahrzeugs bilden, aus dem durch Fotografieren des Fahrzeugs gebildeten Bild. Die Kandidatenerzeugungseinheit (150) führt eine polygonale Approximation aus, die konfiguriert ist, eine geschlossene Schleife zu erzeugen, unter Verwendung einer Mehrzahl von Liniensegmentkomponenten, um eine Mehrzahl von Kandidaten für einen Bereich eines spezifischen Teils des Fahrzeugs zu erzeugen. Die Evaluierungseinheit (150) führt eine Mehrzahl verschiedener Evaluierungen für jeden der Mehrzahl von Kandidaten aus. Weiter detektiert die spezifische Teile-Detektionseinheit (150) einen der Mehrzahl von Kandidaten als den spezifischen Teil, basierend auf Evaluierungsergebnissen der Evaluierungseinheit (150).

Description

  • GEBIET
  • Hierin beschriebene Ausführungsformen beziehen sich allgemein auf eine Fahrzeugdetektionsvorrichtung, welche verwendet wird, um einen spezifischen Teil eines Fahrzeugs, wie etwa einem Automobil oder dergleichen, zu detektieren.
  • HINTERGRUND
  • Wie allgemein bekannt, detektiert eine beispielsweise an einer Mautstraßenstation vorgesehene Fahrzeugdetektionsvorrichtung die Durchfahrt eines Fahrzeugs durch einen Pfostensensor. Jedoch sind die Formen von Fahrzeugen extrem divers, wobei die Länge von einem distalen Endteil eines Fahrzeugs zu einem spezifischen Teil (beispielsweise der Windschutzscheibe) desselben, das durch den Pfostensensor detektiert wird, abhängig vom Fahrzeug differiert, und daher ist es schwierig, den spezifischen Teil eines Fahrzeugs mittels eines Pfostensensors zu detektieren.
  • Andererseits gibt es, obwohl es eine Technik gibt, die dafür konfiguriert ist, einen spezifischen Teil eines Fahrzeugs durch Analysieren eines durch Fotografieren eines passierenden Fahrzeugs gebildeten Bildes zu detektieren, das Problem, das die Installationsanforderungen der Kamera kritisch sind.
  • Bei der konventionellen Fahrzeugdetektionsvorrichtung hat es das Problem der kritischen Kamera-Installationsanforderungen gegeben.
  • Die Erfindung macht sich zur Aufgabe, das obige Problem zu lösen, und macht es sich zum Ziel, eine Fahrzeugdetektionsvorrichtung mit einem hohen Grad an Flexibilität bei der Kameraeinstellung bereitzustellen, die in der Lage ist, einen hohen Grad an Detektionsgenauigkeit zu erhalten.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine Ansicht, welche die Konfiguration eines elektronischen Gebührenerfassungssystems zeigt, auf welches eine Fahrzeugdetektionsvorrichtung gemäß einer Ausführungsform angewendet wird.
  • 2 ist ein Schaltungsblockdiagramm, das die Konfiguration der in 1 gezeigten Fahrzeugdetektionsvorrichtung zeigt.
  • 3 ist ein Flussdiagramm, das dafür konfiguriert ist, einen Betrieb der in 1 gezeigten Fahrzeugdetektionsvorrichtung gemäß einer ersten Ausführungsform zu erläutern.
  • 4 ist eine Ansicht, die dafür konfiguriert ist, eine Bereichssegmentierung, basierend auf Farben, in der ersten Ausführungsform zu erläutern.
  • 5 ist eine Ansicht, die dafür konfiguriert ist, das Konzept der Bereichssegmentierung in der ersten Ausführungsform zu erläutern.
  • 6 ist eine Ansicht, die dafür konfiguriert ist, einen Betrieb des Erzeugens einer geschlossenen Schleife in der ersten Ausführungsform zu erläutern.
  • 7 ist ein Flussdiagramm, das dafür konfiguriert ist, einen Betrieb der in 1 gezeigten Fahrzeugdetektionsvorrichtung gemäß einer zweiten Ausführungsform zu erläutern.
  • 8 ist eine Ansicht, die dafür konfiguriert ist, einen Detektionsbetrieb eines charakteristischen Teils in einem Fahrzeugbild in der zweiten Ausführungsform zu erläutern.
  • 9 ist ein Flussdiagramm, das dafür konfiguriert ist, einen Betrieb der in 1 gezeigten Fahrzeugdetektionsvorrichtung gemäß einer dritten Ausführungsform zu erläutern.
  • 10 ist eine Ansicht, die dafür konfiguriert ist, einen Detektionsbetrieb eines charakteristischen Teils in der dritten Ausführungsform zu erläutern.
  • 11A ist eine Ansicht, die dafür konfiguriert ist, einen Umrissdetektionsbetrieb eines Fahrzeugs in der dritten Ausführungsform zu erläutern.
  • 11B ist eine Ansicht, die dafür konfiguriert ist, einen Umrissdetektionsbetrieb eines Fahrzeugs in der dritten Ausführungsform zu erläutern.
  • DETAILLIERTE BESCHREIBUNG
  • Im Allgemeinen beinhaltet gemäß einer Ausführungsform eine Fahrzeugdetektionsvorrichtung eine Liniensegmentextraktionseinheit, eine Kandidatenerzeugungseinheit, eine Evaluierungseinheit, und eine spezifische Teile-Detektionseinheit, und die Liniensegmentextraktionseinheit extrahiert eine Mehrzahl von Liniensegmentkomponenten, die ein Bild eines Fahrzeugs aus einem durch Fotografieren eines Fahrzeugs geformten Bild aufbauen. Die Kandidatenerzeugungseinheit führt eine polygonale Approximation aus, die dafür konfiguriert ist, eine geschlossene Schleife zu erzeugen, durch Verwenden einer Mehrzahl von Liniensegmentkomponenten, um eine Mehrzahl von Kandidaten für eine Flache eines spezifischen Teils des Fahrzeugs zu erzeugen. Die Evaluierungseinheit führt eine Mehrzahl unterschiedlicher Evaluierungen für jeden der Mehrzahl von Kandidaten aus. Weiterhin detektiert die spezifische Teile-Detektionseinheit einen aus der Mehrzahl von Kandidaten als den spezifischen Teil, basierend auf Evaluierungsergebnissen der Evaluierungseinheit.
  • (Erste Ausführungsform)
  • Nachfolgend wird eine Ausführungsform unter Bezugnahme auf die Zeichnungen beschrieben.
  • 1 ist eine Ansicht, die ein Systemkonfigurationsbeispiel eines Falls zeigt, bei dem eine Fahrzeugdetektionsvorrichtung 100 gemäß einer ersten Ausführungsform auf ein elektronisches Gebührenerfassungs-/Eintreibungssystem (ETC, Electronic toll collection) angewendet wird.
  • Ein Pfostensensor 10 ist ein Sensor, der konfiguriert ist, ein in eine ETC-Spur einfahrendes Fahrzeug unter Verwendung eines optischen Sensors oder eines Kontaktbretts zu detektieren, und benachrichtigt die Fahrzeugdetektionsvorrichtung 100 über ein Detektionsergebnis.
  • Eine elektronische Kamera 20 ist eine Digitalkamera, die dafür konfiguriert ist, ein dynamisches Bild bei einer voreingestellten Bildrate zu erzeugen, und konfiguriert ist, ein in der ETC-Spur fahrendes und den Pfostensensor 10 passierendes Fahrzeug zu fotografieren. Das heißt, die elektronische Kamera 20 nimmt eine Mehrzahl von Aufnahmen für das in der ETC-Spur fahrende Fahrzeug auf. Es sollte angemerkt werden, dass in der nachfolgenden Beschreibung eine Windschutzscheibe als ein Beispiel eines spezifischen Teils eines Fahrzeugs genommen wird und daher die elektronische Kamera 20 an einer Position installiert ist, an der eine volle Ansicht eines Fahrzeugs, einschließlich zumindest einer Windschutzscheibe eines Fahrzeugs, fotografiert werden kann.
  • Weiter ist in durch die elektronische Kamera 20 erhaltenen Bilddaten ein die Aufnahmezeit anzeigender Zeitcode beinhaltet. Die Vorrichtungen und Apparate, die in 1 gezeigt sind, einschließlich der elektronischen Kamera 20, der Fahrzeugdetektionsvorrichtung 100 und anderer Vorrichtungen haben synchronisierte Zeitdatenobjekte. Es sollte angemerkt sein, dass, falls die elektronische Kamera 20, die Fahrzeugdetektionsvorrichtung 100 und andere Vorrichtungen durch irgendein Verfahren zueinander synchron arbeiten (falls die Fahrzeugdetektionsvorrichtung 100 und andere Vorrichtungen die Aufnahmezeit der Bilddaten der elektronischen Kamera 20 erkennen können), die Bilddaten nicht notwendigerweise den Zeitcode enthalten müssen.
  • Das ETC-System 30 ist ein System, das dafür konfiguriert ist, automatisch eine einem Fahrzeug, das auf einer Mautstraße wie etwa einer Autobahn fährt, aufzuerlegende Maut einzukassieren, und führt eine Funkkommunikation mit der im Fahrzeug installierten Bord-ETC-Vorrichtung durch, um das passierende Fahrzeug identifizierende Daten zu erfassen. Es sollte angemerkt sein, dass im Allgemeinen eine Bord-ETC-Vorrichtung an einer Position in einem Fahrzeug installiert ist, an der zumindest eine Antenne, die dafür konfiguriert ist, die Funkkommunikation auszuführen, durch eine Windschutzscheibe visuell wahrgenommen werden kann. Entsprechend ist es möglich, hochgenaue Kommunikation mit der Bord-ETC-Vorrichtung auszuführen, indem die Position der Windschutzscheibe exakt spezifiziert wird.
  • Die Fahrzeugdetektionsvorrichtung 100 ist mit einer Anzeigeeinheit 110, einer Anwenderschnittstelle 120, einer Speichereinheit 130, einer Netzwerkschnittstelle 140 und einer Steuereinheit 150 versehen.
  • Die Anzeigeeinheit 110 ist eine Anzeigeeinheit, in der eine Flüssigkristallanzeige (LCD) oder dergleichen verwendet wird und verschiedene Datenobjekte, einschließlich dem Betriebszustand der Fahrzeugdetektionsvorrichtung 100, anzeigt.
  • Die Anwenderschnittstelle 120 ist eine Schnittstelle, die dafür konfiguriert ist, eine Anweisung vom Anwender einer Tastatur, einer Maus, eines berührungssensitiven Paneels oder dergleichen zu akzeptieren.
  • Die Speichereinheit 130 ist eine Vorrichtung, die dafür konfiguriert ist, in sich ein Steuerprogramm und Steuerdaten der Steuereinheit 150 zu speichern, und verwendet ein oder eine Mehrzahl von Speichermitteln, einschließlich einer HDD, einem RAM, ROM, Flash-Speicher und dergleichen.
  • Die Netzwerkschnittstelle 140 ist mit einem Netzwerk, wie etwa einem LAN oder dergleichen verbunden und kommuniziert mit dem Positionssignal 10, der elektronischen Kamera 20, und dem ETC-System 30 über das Netzwerk.
  • Die Steuereinheit 150 ist mit einem Mikroprozessor versehen, ist dafür konfiguriert, anhand eines in der Speichereinheit 130 gespeicherten Steuerprogramms zu arbeiten, um jede Einheit der Fahrzeugdetektionsvorrichtung 100 in einer vereinheitlichenden Weise zu steuern, und ist konfiguriert, einen spezifischen Teil eines Fahrzeugs zu detektieren, der zuvor in das Steuerprogramm aus einem fotografierten Bild der elektronischen Kamera 20 inkorporiert worden ist, um die Passagezeit (Passagezeit im Kommunikationsbereich des ETC-Systems 30) auf dem echten Raum vorherzusagen.
  • Als Nächstes wird unten ein Betrieb der Fahrzeugdetektionsvorrichtung 100 mit der obigen Konfiguration beschrieben.
  • 3 ist ein Flussdiagramm, das konfiguriert ist, den Betrieb der Fahrzeugdetektionsvorrichtung 100 zu erläutern, und wenn der Strom eingeschaltet wird, um die Vorrichtung 100 zu übertreiben, wird der Betrieb wiederholt ausgeführt, bis der Strom abgeschaltet wird. Es sollte angemerkt sein, dass dieser Betrieb durch die Steuereinheit 150 realisiert wird, die anhand von in der Speichereinheit 130 gespeichertem Steuerprogramm oder Steuerdaten arbeitet.
  • Weiterhin werden auch vor dem Herauffahren der Fahrzeugdetektionsvorrichtung 100 der Pfostensensor 10 und die elektronische Kamera 20 gestartet. Dadurch beginnt der Pfostensensor 10 die Überwachung eines Einfahrens eines Fahrzeugs in die ETC-Spur und teilt der Fahrzeugdetektionsvorrichtung 100 die Detektionsergebnisse mit, bis der Strom abgeschaltet wird. Weiterhin beginnt die elektronische Kamera 20, bei einer vorbestimmten Einzelbildrate zu fotografieren und sendet die erzeugten Bilddaten an die Fahrzeugdetektionsvorrichtung 100, bis der Strom abgeschaltet wird.
  • Zuerst stellt in Schritt 3a die Steuereinheit 150 fest, ob ein Fahrzeug in die ETC-Spur eingefahren ist oder nicht, basierend auf einer Mitteilung aus dem Pfostensensor 10 über die Netzwerkschnittstelle 140. Hier wird, wenn ein Einfahren des Fahrzeugs detektiert wird, der Ablauf zu Schritt 3b verschoben, und wenn andererseits kein Zugang des Fahrzeugs detektiert werden kann, wird der Ablauf wieder zu Schritt 3a verschoben und die Überwachung eines Fahrzeugzugangs wird ausgeführt.
  • In Schritt 3b extrahiert die Steuereinheit 150 Bilddaten eines zu einer vorbestimmten Zeit fotografierten Einzelbildes aus einer Mehrzahl von Bilddatenobjekten, die aus der elektronischen Karte 20 über die Netzwerkschnittstelle 140 gesendet worden sind, und geht über zu Schritt 3c. Nachfolgend werden die extrahierten Bilddaten als die zu verarbeitenden Bilddaten bezeichnet. Es sollte angemerkt sein, dass die vorbestimmte Zeit unter Erwägung der Positionsbeziehung (Installationsdistanz) zwischen der Installationsposition des Pfostensensor 10 und dem Kamerasehfeld (Aufnahmebereich) der elektronischen Kamera 20, der angenommenen Passiergeschwindigkeit eines Fahrzeugs und dergleichen bestimmt wird, so dass Bilddaten, in denen ein spezifischer Teil des Fahrzeugs enthalten ist, extrahiert werden können.
  • In Schritt 3c unterwirft die Steuereinheit 150 die zu verarbeitenden Bilddaten einer Vorverarbeitung und gibt weiter an Schritt 3d. Es sollte angemerkt werden, dass, als spezifische Natur der Vorverarbeitung, eine Rauschentfernung für den Zweck des Verbesserns des Signal/Rauschverhältnisses durchgeführt wird, um das Bild zu schärfen, oder ein Filtern durchgeführt wird, um den Kontrast des Bildes zu verbessern. Weiterhin wird für den Zweck der Korrektur des Bildes beispielsweise eine Retusche oder dergleichen einer Bildstörung ausgeführt.
  • In Schritt 3d wendet die Steuereinheit 150 ein Verfahren wie etwa eine Hough-Transformation auf die zu verarbeitenden Bilddaten an, die dem vorverarbeitenden Schritt 13 unterworfen worden sind, um eine Mehrzahl von das Bild des Fahrzeugs konstituierenden Liniensegmentkomponenten aus dem Bild zu extrahieren, und übergibt dann an Schritt 3e.
  • Als der spezifische Extraktions-Algorithmus, in dem die Windschutzscheibe als der spezifische Teil angenommen wird, wird, wenn das Fahrzeug von oben fotografiert wird, eine Extraktion von Liniensegmentkomponenten in acht Richtungen, basierend auf den horizontalen und vertikalen Richtungen im Bild, ausgeführt.
  • Dadurch wird eine große Anzahl von Liniensegmenten einschließlich des Grenzteils der Windschutzscheibe extrahiert. Bezüglich der Windschutzscheibe wird ein Teil oder dergleichen um den Wischer herum oft mit einer gekrümmten Oberfläche ausgebildet und daher wird angenommen, dass es schwierig ist, den Teil durch ein Liniensegment zu extrahieren. Entsprechend ist es im Allgemeinen möglich, die Form der Windschutzscheibe durch Ausführen einer Extraktion mittels eines Polygons oder einer unterbrochenen Linie, die durch Kombinieren einer Mehrzahl von Liniensegmenten gebildet wird, anzunähern. Weiterhin wird, beispielsweise wenn ein Kreis unter Verwendung von Liniensegmenten approximiert wird, der Kreis durch ein eingeschriebenes reguläres Oktagon angenähert. In diesem Fall, obwohl der Fehler eine Differenz im Bereich zwischen dem Kreis und dem eingeschriebenen regulären Oktagon entspricht, wird der Fehler als ein Fehler im praktischen Design gestattet angesehen.
  • Es sollte angemerkt werden, dass ein Verfahren, wie etwa eine Hough-Transformation, auf zu verarbeitende Bilddaten, und Bilddaten von Bildern vor und nach den zu verarbeitenden Bilddaten angewendet werden kann, um Liniensegmentkomponenten aus jedem Bild zu extrahieren, und Liniensegmentkomponenten zur vorbestimmten Zeit (Aufnahmezeit der zu verarbeitenden Bilddaten) können durch Ausführen einer Vorhersage von geometrischen Variationen einhergehend mit der Bewegung des Fahrzeugs erhalten werden, basierend auf diesen Liniensegmentkomponenten, die im Hinblick auf die Zeit kontinuierlich sind. Wie oben beschrieben, ist es möglich, die Extraktionsgenauigkeit unter Verwendung von Bilddatenobjekten einer Mehrzahl von Einzelbildern zu verbessern.
  • In Schritt 3e unterwirft die Steuereinheit 150 die zu verarbeitenden Bilddaten, die in Schritt 3c der Vorverarbeitung unterworfen worden sind, einer Schärfungsverarbeitung, die dafür konfiguriert ist, die Auflösung zu verbessern, wendet danach ein Verfahren, wie etwa eine Hough-Transformation, auf die zu verarbeitenden Bilddaten an, um eine Mehrzahl von das Bild des Fahrzeugs bildenden Liniensegmentkomponenten aus dem Bild zu extrahieren, und geht dann zu Schritt 3f.
  • Es sollte angemerkt werden, dass in Schritt 3e, wenn beispielsweise der Dynamikbereich der elektronischen Kamera 20 groß ist (beispielsweise 10 Bit), der Dynamikbereich in Bereichsunterteilungen (1 bis 255, 256 bis 512, 513 bis 768 und 768 bis 1024) eines Mehrstufenbereichs unterteilt werden kann, und ein Verfahren wie etwa eine Hough-Transformation an jede Bereichsunterteilung angewendet werden kann, um dadurch Liniensegmentkomponenten aus dem Bild zu extrahieren.
  • Weiterhin kann in Schritt 3d und Schritt 3e, obwohl beschrieben worden ist, dass die Liniensegmentkomponenten unter Verwendung eines Verfahrens wie etwa einer Hough-Transformation extrahiert werden, wenn Farbdaten in den zu verarbeitenden Bilddaten enthalten sind, ein Bild, basierend auf zum zu verarbeitenden Bild, in Bereiche von jeweils ähnlichen Farben unterteilt werden, basierend auf den Farbdaten, wie beispielsweise in 4 gezeigt, und eine Grenze zwischen den Bereichen kann als Liniensegmentkomponenten extrahiert werden. Auch durch solch ein Verfahren ist es möglich, eine Grenze zwischen der Windschutzscheibe und einem anderen Teil des Fahrzeugs als der Windschutzscheibe als Liniensegmentkomponenten zu detektieren.
  • In Schritt 3f führt die Steuereinheit 150 eine polygonale Approximation durch, die dafür konfiguriert ist, eine geschlossene Schleife zu erzeugen, indem die in Schritt 3d und Schritt 3e extrahierten Liniensegmentkomponenten verwendet werden, um Kandidaten für den Windschutzscheibenbereich zu erzeugen, und übergibt dann an Schritt 3g.
  • Als aus dem Bild durch die polygonale Approximation extrahierten Faktoren gibt es den Windschutzscheibenbereich, einen in der Windschutzscheibe reflektierten Schattenbereich, einen Reflektionsbereich, in welchem die Sonne reflektiert wird, Windschutzscheibensäulen, die alle Teil des Fahrzeugs sind, und Fenster des Fahrersitzes und Beifahrersitzes, wie in 5 gezeigt. Tatsächlich werden geschlossenen Schleifen komplizierter Formen durch eine Mehrzahl von Liniensegmenten erzeugt, wie in 6 gezeigt.
  • Obwohl der Windschutzscheibenbereich durch ein Rechteck approximiert werden kann, falls die Windschutzscheibe eine einfachste Form hat, wird der Windschutzflächenbereich durch eine Form approximiert, die gekrümmte Linien beinhaltet, abhängig von der Form der Windschutzscheibe. Weiterhin, selbst wenn die Form der Windschutzscheibe einfach ist, tritt, falls das Fotografieren von der Seite ausgeführt wird, eine Tiefe rechts und links der Windschutzscheibe auf, um dadurch eine Asymmetrie zu verursachen.
  • Weiterhin existiert zu diesem Zeitpunkt, obwohl unbekannt ist, welche Liniensegmentkomponenten einen Teil des Windschutzscheibenbereichs konstituieren, die optimale Lösung in Kombination der geschlossenen Schleifen, in welche die, die Grenze zwischen der Windschutzscheibe und der Fahrzeugkarosserie ausdrückenden Liniensegmentkomponenten durch die polygonale Approximation inkorporiert sind, existiert. Entsprechend wird in Schritt 3f eine Evaluierung in Bezug auf eine Mehrzahl von geschlossenen Schleifen ausgeführt, welche durch die polygonale Approximation unter Verwendung einer Evaluierungsfunktion erzeugt werden, und die Kandidaten werden auf jene eingeengt, welche den Windschutzscheibenbereich genau approximieren.
  • Es sollte angemerkt sein, dass es tatsächlich Teile gibt, in denen die Krümmung hoch ist oder der Kontrast unzureichend ist, und es ist denkbar, dass es Kandidaten gibt, in welchen ein Liniensegment partiell verloren bleibt. Entsprechend kann nach ergänzendem Approximieren des verlorenen Teils durch ein Liniensegment die vorstehende Evaluierung durchgeführt werden. Beispielsweise gibt es einen Fall, bei dem eine der Windschutzscheibensäulen hinter der Windschutzscheibe verborgen ist, abhängig vom Aufnahmewinkel, und in einem solchen Fall wird eine Liniensegmentergänzung für den Windschutzscheibenendteil auf der Seite der verborgenen Windschutzscheibensäule durchgeführt, um damit die geschlossene Schleife zu komplettieren.
  • Weiterhin werden verschiedene Muster der Windschutzscheibensäule vorab in der Speichereinheit 130 gespeichert und eine Mehrzahl von Kandidaten für den Windschutzscheibenbereich wird darin in Assoziierung mit den Mustern gespeichert. Weiterhin kann in Schritt 3f eine geschlossene Schleife ähnlich der Windschutzscheibensäule basierend auf einer polygonalen Approximation detektiert werden, kann die Windschutzscheibensäule durch Musterabgleich zwischen der detektierten geschlossenen Schleife und in der Speichereinheit 130 gespeicherten Daten detektiert werden und kann ein Kandidat für den mit der detektierten Windschutzscheibensäule assoziierten Windschutzscheibenbereich erlangt werden.
  • In Schritt 3g führt die Steuereinheit 150 eine Mehrzahl unterschiedlicher Evaluierungen der Kandidaten für den in Schritt 3f erhaltenen Windschutzscheibenbereich durch, erhält einen Gesamtwert einer Bewertung jeder Evaluierung und geht dann zu Schritt 3h.
  • Als Verfahren der Mehrzahl von Evaluierungen sind: (1) eine Bewertung unter Erwägung einer Position, Größe und dergleichen der Windschutzscheibe auf dem Bild gebend, (2) eine Bewertung basierend auf Helligkeitsverteilung um den Windschutzscheibenbereich konstituierende Liniensegmente herum gebend, (3) eine Bewertung gemäß dem Passungsgrad des Kandidaten mit einem vorab in der Speichereinheit 130 gespeicherten Vorlage gebend, und dergleichen vorstellbar. Obwohl es denkbar ist, dass ein Polygon im Windschutzscheibenbereich aufgrund beispielsweise des Einflusses einer Reflektion oder eines Schattens erscheinen kann, wird durch das obige Verfahren 1 oder 3 dem Polygon eine niedrige Bewertung gegeben.
  • In Schritt 3h wählt die Steuereinheit 150 den optimalen Windschutzscheibenbereich aus den in Schritt 3g erhaltenen Gesamtwerten aus und übergibt an Schritt 3i.
  • In Schritt 3i inspiziert die Steuereinheit 150 die Positionsbeziehung zwischen dem in Schritt 3h ausgewählten Windschutzscheibenbereich und einem Frontmaskenbereich (Lampe, Grill und Kennzeichen), die in den zu verarbeitenden Bilddaten enthalten sind, um zu bestätigen, ob es irgendeine Diskrepanz gibt oder nicht (beispielsweise ist die Fehlausrichtung zwischen dem Windschutzscheibenbereich und dem Frontmaskenteil in Lateralrichtung groß). Wenn es keine Diskrepanz gibt, geht die Steuereinheit 150 zu Schritt 3j. Wenn andererseits eine Diskrepanz vorliegt, wird eine identische Inspektion an einem Windschutzscheibenbereich mit dem zweithöchsten Gesamtbewertungswert ausgeführt. Es sollte angemerkt werden, dass die Position des Frontmaskenteils des Fahrzeugs durch Musterabgleich der den Frontmaskenteil konstituierenden Elemente erhalten wird.
  • In Schritt 3j führt die Steuereinheit 150 eine Koordinatentransformationsverarbeitung aus, die dafür konfiguriert ist, die Koordinaten (Positionen) der Windschutzscheibe auf dem Echtraum auf der ETC-Spur zu spezifizieren, basierend auf der Aufnahmezeit der zu verarbeitenden Bilddaten, und der Position des Windschutzscheibenbereichs auf dem Bild der zu verarbeitenden Bilddaten, und geht dann zu Schritt 3k.
  • In Schritt 3k teilt die Steuereinheit 150 dem ETC-System 30 die Koordinaten (Position) der in Schritt 3j spezifizierten Windschutzscheibe über die Netzwerkschnittstelle 140 mit und übergibt dann an Schritt 3a. Beim Empfang der Mitteilung der Koordinaten (Position) der Windschutzscheibe führt das ETC-System 30 Senden/Empfangen eines Funksignals zu einem Timing durch, zu dem die Windschutzscheibe, auf der die Antenne der Bord-ETC-Vorrichtung installiert ist, zum ETC-System 30 hinweist, unter Erwägung der Koordinaten (Position) der Windschutzscheibe, der angenommenen Passiergeschwindigkeit des Fahrzeugs und dergleichen.
  • Wie oben beschrieben, werden in der Fahrzeugdetektionsvorrichtung mit der zuvor erwähnten Konfiguration eine Mehrzahl von das Bild des Fahrzeugs konstituierenden Liniensegmentkomponenten aus dem durch Fotografieren des Fahrzeugs (Schritte 3d und 3e) erhaltenen Bilddaten extrahiert, wird eine polygonale Approximation des Erzeugens einer geschlossenen Schleife unter Verwendung dieser Liniensegmentkomponenten durchgeführt, um eine Mehrzahl von Kandidaten für einen Bereich eines spezifischen Teils (beispielsweise der Windschutzscheibe) des Fahrzeugs zu erzeugen (Schritt 3f) und werden mehrere verschiedene Evaluierungen für diese Kandidaten durchgeführt, um den wahrscheinlichsten Bereich des spezifischen Teils des Fahrzeugs zu spezifizieren (Schritte 3g und 3h).
  • Daher kann gemäß der wie oben beschrieben konfigurierten Fahrzeugdetektionsvorrichtung, falls der spezifische Teil des Zielfahrzeugs im Bild enthalten ist, der spezifische Teil durch Bildanalyse detektiert werden und daher ist der Flexibilitätsgrad bei der Kameraeinstellung hoch und es kann ein hoher Grad an Detektionsgenauigkeit erhalten werden.
  • (Zweite Ausführungsform)
  • Als Nächstes wird eine zweite Ausführungsform untenstehend beschrieben. Es sollte angemerkt werden, dass die zweite Ausführungsform anscheinend identisch zu in den 1 und 2 gezeigten ersten Ausführungsformen ist und daher eine Beschreibung der Konfiguration derselben weggelassen wird. Weiterhin wird, wie bei der ersten Ausführungsform, beispielhaft ein Fall dargestellt, bei dem ein Fahrzeugdetektionsvorrichtung gemäß der zweiten Ausführungsform auf eine ETC angewendet wird. Die zweite Ausführungsform unterscheidet sich von der ersten Ausführungsform in dem Punkt, dass ein Steuerprogramm einer Fahrzeugdetektionsvorrichtung 100 anders ist. Entsprechend wird ein Betrieb der Fahrzeugdetektionsvorrichtung 100 gemäß der zweiten Ausführungsform unten beschrieben.
  • 7 ist ein Flussdiagramm, das dafür konfiguriert ist, den Betrieb der Fahrzeugdetektionsvorrichtung 100 gemäß der zweiten Ausführungsform zu erläutern und wenn der Strom eingeschaltet wird, um die Fahrzeugdetektionsvorrichtung 100 zu betreiben, wird der Betrieb wiederholt ausgeführt, bis der Strom abgeschaltet wird. Es sollte angemerkt werden, dass dieser Betrieb durch eine Steuereinheit 150 realisiert wird, die gemäß dem Steuerprogramm oder Steuerdaten arbeitet, die in einer Speichereinheit 130 gespeichert sind.
  • Weiterhin werden vor dem Herauffahren der Fahrzeugdetektionsvorrichtung 100 ebenfalls ein Pfostensensor 10 und eine elektronische Kamera 20 gestartet. Dadurch beginnt der Pfostensensor 10 das Überwachen eines Einfahrens eines Fahrzeugs in eine ETC-Spur und teilt der Fahrzeugdetektionsvorrichtung 100 die Detektionsergebnisse mit, bis der Strom abgeschaltet wird. Weiterhin beginnt die elektronische Kamera 20 bei einer vorgegebenen Einzelbildrate das Fotografieren und sendet die erzeugten Bilddaten an die Fahrzeugdetektionsvorrichtung 100, bis der Strom abgeschaltet wird.
  • Zuerst bestimmt in Schritt 7a die Steuereinheit 150, ob ein Fahrzeug die ETC-Spur betreten hat oder nicht, basierend auf der Mitteilung aus dem Pfostensensor 10 über eine Netzwerkschnittstelle 140. Hier, wenn ein Zugang des Fahrzeugs detektiert wird, verschiebt sich der Ablauf zu Schritt 7b, und wenn andererseits kein Zugang des Fahrzeugs detektiert werden kann, wird der Ablauf wieder zu Schritt 7a verschoben und die Überwachung eines Fahrzeugzugangs wird ausgeführt.
  • In Schritt 7b extrahiert die Steuereinheit 150 Bilddaten eines zu einer vorgegebenen Zeit fotografierten Einzelbildes aus der Mehrzahl von aus der elektronischen Kamera 20 über die Netzwerkschnittstelle 140 gesendeten Bilddatenobjekten und geht zu Schritt 7c. Nachfolgend werden die extrahierten Bilddaten als die zu verarbeiteten Bilddaten bezeichnet. Es sollte angemerkt werden, dass die vorbestimmte Zeit unter Erwägung der Positionsbeziehung (Installationsdistanz) zwischen der Installationsposition des Pfostensensors 10 und dem Kamerasichtfeld (Aufnahmebereich) der elektronischen Kamera 20 festgelegt wird, wobei eine Passiergeschwindigkeit eines Fahrzeugs und dergleichen angenommen wird, so dass Bilddaten, an denen ein spezifischer Teil des Fahrzeugs enthalten ist, extrahiert werden können.
  • In Schritt 7c unterwirft die Steuereinheit 150 die zu verarbeitenden Bilddaten einer Vorverarbeitung und geht zu Schritt 7d. Es sollte angemerkt werden, dass als die spezifische Natur der Vorverarbeitung eine Rauschentfernung für den Zweck des Verbesserns des Signalrauschverhältnisses durchgeführt wird, um das Bild zu schärfen, oder eine Filterung ausgeführt wird, um den Kontrast des Bildes zu verbessern. Weiterhin wird für den Zweck der Korrektur des Bildes beispielsweise eine Retusche oder dergleichen einer Bildverzerrung ausgeführt.
  • In Schritt 7d, wie in 8 gezeigt, unterwirft die Steuereinheit 150 das Bild der zu verarbeitenden Bilddaten, die der Vorverarbeitung in Schritt 7c unterworfen worden sind, einer Musterabgleichsverarbeitung, die dafür konfiguriert ist, nach einem Teil zu suchen, der koinzident mit einem durch Kombinieren von Formen und Anordnungszuständen von Türspiegeln verschiedener Fahrzeuge gebildeten und vorab in der Speichereinheit 130 gespeicherten Muster ist, um linke Türspiegeldaten dml (cx, cy, s) und rechte Türspiegeldaten dmr (cx, cy, s) zu detektieren, basierend auf dem koinzidentesten Muster und geht dann zu Schritt 7e. Es sollte angemerkt werden, dass cx eine x-Koordinate auf dem Bild anzeigt, basierend auf den zu verarbeitenden Bilddaten, cy eine y-Koordinate des Bildes anzeigt und s die Größe anzeigt.
  • In Schritt 7e, wie in 8 gezeigt, unterwirft die Steuereinheit 150 das Bild der zu verarbeitenden Bilddaten, das der Vorverarbeitung in Schritt 7c unterworfen worden ist, einer Musterabgleichverarbeitung, die dafür konfiguriert ist, nach Teilen zu suchen, die mit verschiedenen Flächenmustern koinzident sind, die vorab in der Speichereinheit 130 vorbereitet sind, um Flächendaten df (cx, cy, s), basierend auf dem koinzidentesten Muster zu detektieren, und geht dann zu Schritt 7f. Es sollte angemerkt werden, dass cx eine x-Koordinate auf dem Bild anzeigt, basierend auf den zu verarbeitenden Bilddaten, cy eine y-Koordinate des Bildes anzeigt und s die Größe anzeigt.
  • In Schritt 7f, wie in 8 gezeigt, unterwirft die Steuereinheit 150 das Bild der zu verarbeitenden Bilddaten, die der Vorverarbeitung in Schritt 7c unterworfen worden sind, einer Musterabgleichsverarbeitung, die dafür konfiguriert ist, nach Teilen zu suchen, die Formmustern verschiedener Lenkräder (bzw. Griffe) koinzident sind, welche vorab in Speichereinheit 130 vorbereitet sind, um Griffdaten dh (cx, cy, s) basierend auf dem koinzidentesten Muster zu detektieren, und übergibt dann an Schritt 7g. Es sollte angemerkt werden, dass cx eine x-Koordinate auf dem Bild anzeigt, basierend auf den zu verarbeitenden Bilddaten, cy eine y-Koordinate des Bildes anzeigt und s die Größe anzeigt.
  • In Schritt 7g bestimmt die Steuereinheit 150, ob es irgendeine Diskrepanz in der Anordnung und Größe des linken Türspiegels, rechten Türspiegels, der Front, und des Lenkrads gibt oder nicht, basierend auf den linken Türspiegeldaten dml (cx, cy, s), den rechten Türspiegeldaten dmr (cx, cy, s), den Frontdaten df (cx, cy, s) und Griffdaten dh (cx, cy, s), und wenn es keine Diskrepanz gibt, geht die Steuereinheit 150 zu Schritt 7h. Es sollte angemerkt sein, dass in einem normalen Fahrzeug ein Fahrergesicht und Lenkrad zwischen dem linken Türspiegel und dem rechten Türspiegel existiert, Koordinaten des Gesichtes und Lenkrads in vertikaler Richtung in einem vorbestimmten Bereich existieren und das Gesicht über dem Lenkrad existiert. Ein einer solchen Anordnung widersprechendes Ereignis wird eine Diskrepanz genannt. Übrigens wird unter Erwägung der Größe oder dergleichen detektiert, ob es eine Diskrepanz gibt. Wenn andererseits eine Diskrepanz vorliegt, wird der Ablauf zu Schritt 7d weitergerückt und es wird eine Kombination, in der zumindest eine von den Türgriffen, dem Gesicht und dem Griff geändert wird, detektiert.
  • In Schritt 7h extrahiert die Steuereinheit 150 das optimale Muster aus den Mustern der Windschutzscheibe, die vorab in der Speichereinheit 130 vorbereitet sind, basierend auf den linken Türspiegeldaten dml (cx, cy, s), den rechten Türspiegeldaten dmr (cx, cy, s), Gesichtsdaten df (cx, cy, s) und Griffdaten dh (cx, cy, s) und spezifiziert den Windschutzscheibenbereich auf dem Bild, basierend auf den zu verarbeitenden Bilddaten, und geht dann zu Schritt 7i.
  • In Schritt 7i führt die Steuereinheit 150 eine Koordinatentransformationsverarbeitung aus, die dafür konfiguriert ist, die Koordinaten (Position) der Windschutzscheibe auf dem echten Raum auf der ETC-Spur zu spezifizieren, basierend auf der Aufnahmezeit der zu verarbeitenden Bilddaten, und der Position des Windschutzscheibenbereichs auf dem Bild der zu verarbeitenden Bilddaten, und geht dann zu Schritt 7j.
  • In Schritt 7j teilt die Steuereinheit 150 dem ETC-System 30 die Koordinaten (Position) der in Schritt 7i spezifizierten Windschutzscheibe über die Netzwerkschnittstelle 140 mit und geht dann zu Schritt 7a. Beim Empfang der Mitteilung der Koordinaten (Position) der Windschutzscheibe führt das ETC-System 30 ein Senden/Empfangen eines Funksignals zu einem Timing aus, zu dem die Windschutzscheibe, auf der eine Antenne der Bord-ETC-Vorrichtung installiert ist, zum ETC-System 30 gerichtet ist, unter Erwägung der Koordinaten (Position) der Windschutzscheibe, einer angenommenen Passiergeschwindigkeit des Fahrzeugs und dergleichen.
  • Wie oben beschrieben, werden in der Fahrzeugdetektionsvorrichtung der oben erwähnten Konfiguration, Positionen und Großen der Spiegel, des Gesichtes und des Lenkrads aus den durch Fotografieren des Fahrersitzes und Umgebung desselben erhaltenen Bilddaten detektiert (Schritt 7d, 7e und 7f), dann wird bestätigt, dass es keine Diskrepanz in diesen Datenobjekten gibt (Schritt 7g), und danach wird ein Bereich des spezifischen Teils (Windschutzscheibe) des Fahrzeugs in dem Bild, basierend auf den Bilddaten, auf Basis der obigen Datenobjekte spezifiziert (Schritt 7h).
  • Daher kann gemäß der wie oben beschrieben konfigurierten Fahrzeugdetektionsvorrichtung, falls ein Teil um den Fahrersitz des Zielfahrzeugs herum im Bild enthalten ist, der spezifische Teil durch Bildanalyse detektiert werden und daher ist der Flexibilitätsgrad bei der Kameraeinstellung hoch und es kann ein hoher Grad an Detektionsgenauigkeit erhalten werden.
  • Es sollte angemerkt werden, dass in der zweiten Ausführungsform, obwohl die Beschreibung unter der Annahme gegeben worden ist, dass das Fahrergesicht erkannt werden kann, die Beschreibung nicht darauf beschränkt ist und der obere Halbteil des Körpers oder der Arm des Fahrers der Musterabgleichsverarbeitung unterworfen werden können, um dadurch die Position derselben zu spezifizieren.
  • (Dritte Ausführungsform)
  • Als Nächstes wird eine dritte Ausführungsform unten beschrieben. Es sollte angemerkt werden, dass die dritte Ausführungsform von der Anmutung her identisch der in 1 und 2 gezeigten ersten Ausführungsform ist und daher eine Beschreibung der Konfiguration derselben weggelassen wird. Weiter, wie in der ersten Ausführungsform, wird ein Fall exemplifiziert, bei dem eine Fahrzeugdetektionsvorrichtung gemäß der dritten Ausführungsform auf eine ETC angewendet wird. Die dritte Ausführungsform unterscheidet sich von der ersten Ausführungsform in dem Punkt, dass ein Steuerprogramm einer Fahrzeugdetektionsvorrichtung 100 anders ist. Entsprechend wird ein Betrieb der Fahrzeugdetektionsvorrichtung 100 gemäß der dritten Ausführungsform unten beschrieben.
  • 9 ist ein Flussdiagramm, das dafür konfiguriert ist, den Betrieb der Fahrzeugdetektionsvorrichtung 100 gemäß der dritten Ausführungsform zu erläutern, und wenn der Strom eingeschaltet wird, um die Vorrichtung 100 zu betreiben, wird der Betrieb wiederholt ausgeführt, bis der Strom abgeschaltet wird. Es sollte angemerkt werden, dass dieser Betrieb durch eine Steuereinheit 150 realisiert wird, die anhand des Steuerprogramms oder von Steuerdaten arbeitet, die in einer Speichereinheit 130 gespeichert sind.
  • Weiterhin werden vor dem Herauffahren der Fahrzeugdetektionsvorrichtung 100 ebenfalls ein Pfostensensor 10 und eine elektronische Kamera 20 gestartet. Dadurch beginnt der Pfostensensor 10 das überwachen eines Einfahrens eines Fahrzeugs in eine ETC-Spur und teilt der Fahrzeugdetektionsvorrichtung 100 die Detektionsergebnisse mit, bis der Strom abgeschaltet wird. Weiterhin beginnt die elektronische Kamera 20 bei einer vorgegebenen Einzelbildrate das Fotografieren und sendet die erzeugten Bilddaten an die Fahrzeugdetektionsvorrichtung 100, bis der Strom abgeschaltet wird.
  • Zuerst bestimmt in Schritt 9a die Steuereinheit 150, ob ein Fahrzeug die ETC-Spur betreten hat oder nicht, basierend auf der Mitteilung aus dem Pfostensensor 10 über eine Netzwerkschnittstelle 140. Hier, wenn ein Zugang des Fahrzeugs detektiert wird, verschiebt sich der Ablauf zu Schritt 9b, und wenn andererseits kein Zugang des Fahrzeugs detektiert werden kann, wird der Ablauf wieder zu Schritt 9a verschoben und die Überwachung eines Fahrzeugzugangs wird ausgeführt.
  • In Schritt 9b extrahiert die Steuereinheit 150 Bilddaten eines zu einer vorgegebenen Zeit fotografierten Einzelbildes aus der Mehrzahl von aus der elektronischen Kamera 20 über die Netzwerkschnittstelle 140 gesendeten Bilddatenobjekten und geht zu Schritt 9c. Nachfolgend werden die extrahierten Bilddaten als die zu verarbeiteten Bilddaten bezeichnet. Es sollte angemerkt werden, dass die vorbestimmte Zeit unter Erwägung der Positionsbeziehung (Installationsdistanz) zwischen der Installationsposition des Pfostensensors 10 und dem Kamerasichtfeld (Aufnahmebereich) der elektronischen Kamera 20 festgelegt wird, wobei eine Passiergeschwindigkeit eines Fahrzeugs und dergleichen angenommen wird, so dass Bilddaten, an denen ein spezifischer Teil des Fahrzeugs enthalten ist, extrahiert werden können.
  • In Schritt 9c unterwirft die Steuereinheit 150 die zu verarbeitenden Bilddaten einer Vorverarbeitung und geht zu Schritt 9d. Es sollte angemerkt werden, dass als die spezifische Natur der Vorverarbeitung eine Rauschentfernung für den Zweck des Verbesserns des Signalrauschverhältnisses durchgeführt wird, um das Bild zu schärfen, oder eine Filterung ausgeführt wird, um den Kontrast des Bildes zu verbessern. Weiterhin wird für den Zweck der Korrektur des Bildes beispielsweise eine Retusche oder dergleichen einer Bildverzerrung ausgeführt.
  • In Schritt 9d, wie in 10 gezeigt, unterwirft die Steuereinheit 150 das Bild der zu verarbeitenden Bilddaten, das in Schritt 9c der Vorverarbeitung unterworfen worden ist, einer Markierungsverarbeitung oder dergleichen, um Bereiche der Frontscheinwerfer des Fahrzeugs zu extrahieren, und extrahiert eine rechteckige Form ähnlich einem Kennzeichen aus einem Bereich, der aus den Positionen der Frontscheinwerfer angenommen wird, und rückt dann zu Schritt 9e vor. Im Allgemeinen befindet sich ein Kennzeichen an einem Zentrum eines Teils zwischen den linken und rechten Frontscheinwerfern und unterhalb einer Linie, welche die Frontscheinwerfer verbindet. Positionen der rechten und linken Kopfscheinwerfer und des Kennzeichens werden als Frontteildaten behandelt.
  • Es sollte angemerkt werden, dass Unebenheitsdaten, welche eine Unebenheit um die Frontscheinwerfer herum anzeigen, und ein Kennzeichen (Nummernschild), das in einer anderen Weise für jeden Fahrzeugtyp existiert, vorab in der Speichereinheit 130 als Muster gespeichert werden, und Frontteildaten (Positionen der linken und rechten Frontscheinwerfern und des Kennzeichens) zu jedem Fahrzeugtyp darin gespeichert werden. Weiterhin können im Bild der zu verarbeitenden Bilddaten die um die Frontscheinwerfer herum existierende Unebenheit und das Kennzeichen einer Musterabpassung unterworfen werden, die dafür konfiguriert ist, die Unebenheit mit den zuvor erwähnten Unebenheitsdaten zu vergleichen, um dadurch einen Fahrzeugtyp zu spezifizieren, und Frontteildaten zum spezifizierten Fahrzeugtyp zu detektieren.
  • In Schritt 9e nimmt die Steuereinheit 150 eine Vorwärts-Projektionsbreite (oder eine Unterscheidung zwischen einem Fahrzeug großer Größe, einem Fahrzeug mittlerer Größe und einem Fahrzeug kleiner Größe) des Fahrzeugs aus den Daten zu den Positionen der linken und rechten Frontscheinwerfer, und der Distanz zwischen den Frontscheinwerfern, die in im Schritt 9 detektierten Frontteildaten enthalten sind, und übergibt dann an Schritt 9f.
  • In Schritt 9f detektiert die Steuereinheit 150 Differenzen zwischen Bilddatenobjekten aufeinander folgender Einzelbilder, welche die zu verarbeitenden Bilddaten beinhalten, die der Vorverarbeitung in Schritt 9c unterworfen worden sind, trennt die detektierten Differenzen vom Hintergrund (siehe 11a), akkumuliert die Differenzen zu einem Bild, um dadurch den Umriss des Fahrzeugs zu detektieren (siehe 11b), nimmt dann die Höhe (Fahrzeughöhe) des Fahrzeugs und die Neigung der Windschutzscheibe an, basierend auf dem detektierten Umriss des Fahrzeugs und geht dann zu Schritt 9g.
  • In Schritt 9g nimmt die Steuereinheit 150 einen Bereich an, in den die Windschutzscheibe passen kann, basierend auf den in Schritt 9d erhaltenen Frontteildaten, der Vorwärts-Projektionsbreite (unter Unterscheidung zwischen einem Fahrzeug großer Größe, einem Fahrzeug mittlerer Größe, und einem Fahrzeug kleiner Größe) des in Schritt 9e erhaltenen Fahrzeugs, und Höhe (Fahrzeughöhe) des Fahrzeugs und Neigung der Windschutzscheibe, wie in Schritt 9f erhalten, und geht dann zu Schritt 9h.
  • In Schritt 9h bezieht sich die Steuereinheit 150 auf Außenformmodelle verschiedener Windschutzscheiben, die zuvor in der Speichereinheit 130 vorbereitet sind, um zu bestätigen, ob ein zum in Schritt 9g angenommener Bereich passendes Außenformmodell existiert oder nicht (d. h., ob die Annahme des Windschutzscheiben-Existenzbereichs korrekt ist oder nicht), und, wenn das Außenformmodell existiert, geht sie zu Schritt 9i. Wenn andererseits das Außenformmodell nicht existiert, wird eine Fehlermeldung an die Anzeigeeinheit 110 ausgegeben.
  • In Schritt 9i führt die Steuereinheit 150 Koordinatentransformationsverarbeitung durch, welche konfiguriert ist, die Koordinaten (Position) der Windschutzscheibe auf dem echten Raum auf der ETC-Spur zu spezifizieren, basierend auf der Aufnahmezeit der zu verarbeitenden Bilddaten und dem in Schritt 9i angenommenen Bereich, und geht dann zu Schritt 9j.
  • In Schritt 9j teilt die Steuereinheit 150 dem ETC-System 30 die Koordinaten (Position) der in Schritt 9i spezifizierten Windschutzscheibe über die Netzwerkschnittstelle 140 mit und geht dann zu Schritt 9a. Beim Empfangen der Mitteilung der Koordinaten (Position) der Windschutzscheibe führt das ETC-System 30 Senden/Empfangen eines Funksignals zu einem Timing durch, an dem die Windschutzscheibe, auf der eine Antenne der Bord-ETC-Vorrichtung installiert ist, zum ETC-System 30 gewandt ist, unter Erwägung der Koordinaten (Position) der Windschutzscheibe, der angenommenen Passiergeschwindigkeit des Fahrzeugs und dergleichen.
  • Wie oben beschrieben, werden in der Fahrzeugdetektionsvorrichtung mit der oben erwähnten Konfiguration die Frontscheinwerfer und das Kennzeichen aus dem durch Fotografieren des Frontteils des Fahrzeugs erhaltenen Bilddaten detektiert (Schritt 9d), wird die Fahrzeugbreite aus den Datenobjekten zum Frontteil angenommen (Schritt 9e), wird der Umriss des Fahrzeugs aus Bilddatenobjekten einer Mehrzahl aufeinander folgender Einzelbilder detektiert (Schritt Sf), und wird der Bereich, in den die Windschutzscheibe passen kann, aus der Fahrzeugbreite und dem Umriss desselben angenommen (Schritte 9g und 9h).
  • Daher kann gemäß der Fahrzeugdetektionsvorrichtung der oben erwähnten Konfiguration, falls der Frontteil des Zielfahrzeugs im Bild enthalten ist, die Position des spezifischen Teils durch Bildanalyse detektiert (angenommen) werden und daher ist der Flexibilitätsgrad bei der Kameraeinstellung hoch und es kann ein hoher Grad an Detektionsgenauigkeit erhalten werden.
  • Während gewisse Ausführungsformen beschrieben worden sind, sind diese lediglich beispielhaft präsentiert worden und dienen nicht dazu, den Schutzumfang der Erfindung zu begrenzen. Tatsächlich können die hierin beschriebenen neuen Ausführungsformen in einer Vielzahl anderer Formen ausgeführt werden; weiterhin können verschiedene Weglassungen, Substitutionen und Änderungen an der Form der hierin beschriebenen Ausführungsformen vorgenommen werden, ohne vom Geist der Erfindung abzuweichen. Die beigefügten Ansprüche und ihre Äquivalente sollen solche Formen oder Modifikationen abdecken, die innerhalb des Schutzumfangs der Erfindung fallen würden.

Claims (10)

  1. Fahrzeugdetektionsvorrichtung (100), gekennzeichnet dadurch, dass sie umfasst: eine Liniensegment-Extraktionseinheit (150), die dafür konfiguriert ist, eine Mehrzahl von Liniensegmentkomponenten, die ein Bild eines Fahrzeugs aufbauen, aus einem durch Fotografieren des Fahrzeugs gebildeten Bild zu extrahieren; eine Kandidatenerzeugungseinheit (150), die konfiguriert ist, eine Mehrzahl von Kandidaten für einen Bereich eines spezifischen Teils des Fahrzeugs zu erzeugen, durch Ausführen von polygonaler Approximation, die konfiguriert ist, eine geschlossene Schleife unter Verwendung der Mehrzahl von Liniensegmentkomponenten zu erzeugen; eine Evaluierungseinheit (150), die konfiguriert ist, eine Mehrzahl von verschiedenen Evaluierungen für jeden der Mehrzahl von Kandidaten durchzuführen; und eine spezifische Teile-Detektionseinheit (150), die konfiguriert ist, einen der Mehrzahl von Kandidaten als den spezifischen Teil zu detektieren, basierend auf Evaluierungsergebnissen der Evaluierungseinheit (150).
  2. Vorrichtung gemäß Anspruch 1, dadurch gekennzeichnet, dass die Liniensegment-Extraktionseinheit (150) das durch Fotografieren des Fahrzeugs gebildete Bild in Bereiche von jeweils identischer Farbe unterteilt, basierend auf Daten des Bildes, und Grenzen zwischen den Bereichen als Liniensegmentkomponenten extrahiert.
  3. Vorrichtung gemäß Anspruch 1, dadurch gekennzeichnet, dass die Liniensegment-Extraktionseinheit (150) eine Mehrzahl von Liniensegmentkomponenten, welche das Bild des Fahrzeugs bilden, aus jedem der Mehrzahl von durch Fotografieren des Fahrzeugs gebildeten, und in Zeithinsicht aufeinander folgend angeordneten Bildern extrahiert, und eine Vorhersage einer geometrischen Variation gleichzeitig mit der Bewegung des Fahrzeugs ausführt, basierend auf diesen in zeitlicher Hinsicht konsekutiv angeordneten Liniensegmentkomponenten, um dadurch eine Mehrzahl von das Bild des Fahrzeugs konstituierenden Liniensegmentkomponenten zu extrahieren.
  4. Vorrichtung gemäß Anspruch 1, dadurch gekennzeichnet, dass die Kandidatenerzeugungseinheit (150) umfasst: eine Speichereinheit (130), die konfiguriert ist, eine Mehrzahl von Mustern zu speichern, welche Formen von Teilen nahe an dem spezifischen Teil des Fahrzeugs anzeigen, und eine Mehrzahl von Kandidaten für den spezifischen Teil, die mit den Mustern assoziiert sind, zu speichern, eine Musterdetektionseinheit (150), die konfiguriert ist, ein dem Teil nahe dem spezifischen Teil ähnliches Muster aus der Speichereinheit (130) zu detektieren, durch Ausführen von polygonaler Approximation, die konfiguriert ist, eine geschlossene Schleife zu erzeugen, unter Verwendung der Mehrzahl von Liniensegmentkomponenten, und eine Kandidaten-Detektionseinheit (150), die konfiguriert ist, eine Mehrzahl von Kandidaten für den mit den durch die Musterdetektionseinheit (150) detektierten Mustern assoziierten spezifischen Teil aus der Speichereinheit (130) zu detektieren.
  5. Vorrichtung gemäß Anspruch 1, dadurch gekennzeichnet, dass die Kandidatenerzeugungseinheit (150) eine Mehrzahl von Kandidaten für den Bereich des spezifischen Teils des Fahrzeugs erzeugt, durch Ausführen polygonaler Approximation, die konfiguriert ist, eine geschlossene Schleife durch Ergänzen der Mehrzahl von Liniensegmentkomponenten zu erzeugen.
  6. Vorrichtung gemäß Anspruch 1, gekennzeichnet dadurch, dass sie weiter umfasst: eine Koordinaten-Detektionseinheit (150), die konfiguriert ist, basierend auf der Aufnahmezeit und der Aufnahmeposition eines durch die spezifische Teile-Detektionseinheit (150) verwendeten Bildes zum Erhalten eines Detektionsergebnisses, und einer durch die spezifische Teile-Detektionseinheit (150) detektierten Position, Koordinaten der Position auf dem echten Raum zu erhalten.
  7. Fahrzeugdetektionsvorrichtung (100), dadurch gekennzeichnet, dass sie umfasst: eine Spiegel-Detektionseinheit (150), die konfiguriert ist, die rechten und linken Seitenspiegel aus einem durch Fotografieren eines Fahrzeugs gebildeten Bild zu detektieren; eine Gesichts-Detektionseinheit (150), die konfiguriert ist, ein Gesicht eines Fahrers aus dem Bild zu detektieren; eine Lenkrad-Detektionseinheit (150), die konfiguriert ist, ein Lenkrad aus dem Bild zu detektieren, und eine spezifische Teile-Detektionseinheit (150), die konfiguriert ist, eine Position einer Windschutzscheibe im Bild zu detektieren, basierend auf einem Detektionsergebnis jeder der Spiegel-Detektionseinheit (150), der Gesichts-Detektionseinheit (150) und der Lenkrad-Detektionseinheit (150).
  8. Vorrichtung gemäß Anspruch 7, dadurch gekennzeichnet, dass sie weiter umfasst eine Koordinaten-Detektionseinheit (150), die konfiguriert ist, um basierend auf der Aufnahmezeit und der Aufnahmeposition eines Bildes, das durch die spezifische Teile-Detektionseinheit (150) verwendet wird, um ein Detektionsergebnis zu erhalten, und einer durch die spezifische Teile-Detektionseinheit (150) detektierten Position Koordinaten der Position in dem Echtraum zu erhalten.
  9. Fahrzeugdetektionsvorrichtung (100), dadurch gekennzeichnet, dass sie umfasst: eine Frontscheinwerfer-Detektionseinheit (150), die konfiguriert ist, rechte und linke Frontscheinwerfer aus einem durch Fotografieren eines Fahrzeugs gebildeten Bild zu detektieren; eine Kennzeichen-Detektionseinheit (150), die konfiguriert ist, aus dem Bild ein Kennzeichen zu detektieren; eine Breitenannahmeeinheit (150), die konfiguriert ist, eine Breite des Fahrzeugs anzunehmen, basierend auf einem Detektionsergebnis von der Frontscheinwerfer-Detektionseinheit (150) sowie der Kennzeichen-Detektionseinheit (150); eine Umriss-Detektionseinheit (150), die konfiguriert ist, einen Umriss des Fahrzeugs aus einer Mehrzahl von Bildern zu detektieren, die durch Fotografieren des Fahrzeugs gebildet werden, und die das Bild beinhalten, durch Extrahieren einer Grenze zwischen dem Fahrzeug und dem Hintergrund; und eine spezifische Teile-Detektionseinheit (150), die konfiguriert ist, eine Position einer Windschutzscheibe im Bild zu detektieren, basierend auf der durch die Breitenannahmeeinheit (150) angenommenen Breite und dem durch die Umriss-Detektionseinheit (150) detektierten Umriss.
  10. Vorrichtung gemäß Anspruch 9, dadurch gekennzeichnet, dass sie weiter umfasst eine Koordinaten-Detektionseinheit (150), die konfiguriert ist, basierend auf der Aufnahmezeit und der Aufnahmeposition eines Bildes, das durch die spezifische Teile-Detektionseinheit (150) verwendet wird, um ein Detektionsergebnis zu erhalten, und einer durch die spezifische Teile-Detektionseinheit (150) detektierten Position, Koordinaten der Position in dem Echtraum zu erhalten.
DE102011082661A 2010-09-16 2011-09-14 Fahrzeugdetektionsvorrichtung Withdrawn DE102011082661A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010208539A JP5651414B2 (ja) 2010-09-16 2010-09-16 車両検出装置
JPJP,2010-208539 2010-09-16

Publications (1)

Publication Number Publication Date
DE102011082661A1 true DE102011082661A1 (de) 2012-03-22

Family

ID=45769100

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011082661A Withdrawn DE102011082661A1 (de) 2010-09-16 2011-09-14 Fahrzeugdetektionsvorrichtung

Country Status (3)

Country Link
US (1) US20120069183A1 (de)
JP (1) JP5651414B2 (de)
DE (1) DE102011082661A1 (de)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5740241B2 (ja) 2011-08-03 2015-06-24 株式会社東芝 車両検出装置
DE102011053052B3 (de) * 2011-08-26 2013-02-28 Jenoptik Robot Gmbh Verfahren und Vorrichtung zur Identifikation von Kraftfahrzeugen zur Verkehrsüberwachung
US9129159B2 (en) * 2012-06-05 2015-09-08 Xerox Corporation Vehicle headlight state monitoring methods, systems and processor-readable media
US8824742B2 (en) * 2012-06-19 2014-09-02 Xerox Corporation Occupancy detection for managed lane enforcement based on localization and classification of windshield images
US9652851B2 (en) * 2014-04-01 2017-05-16 Conduent Business Services, Llc Side window detection in near-infrared images utilizing machine learning
US9633267B2 (en) * 2014-04-04 2017-04-25 Conduent Business Services, Llc Robust windshield detection via landmark localization
US9842266B2 (en) 2014-04-04 2017-12-12 Conduent Business Services, Llc Method for detecting driver cell phone usage from side-view images
US10579892B1 (en) 2014-06-27 2020-03-03 Blinker, Inc. Method and apparatus for recovering license plate information from an image
US9779318B1 (en) 2014-06-27 2017-10-03 Blinker, Inc. Method and apparatus for verifying vehicle ownership from an image
US10867327B1 (en) 2014-06-27 2020-12-15 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9754171B1 (en) 2014-06-27 2017-09-05 Blinker, Inc. Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website
US9760776B1 (en) 2014-06-27 2017-09-12 Blinker, Inc. Method and apparatus for obtaining a vehicle history report from an image
US9600733B1 (en) 2014-06-27 2017-03-21 Blinker, Inc. Method and apparatus for receiving car parts data from an image
US10572758B1 (en) 2014-06-27 2020-02-25 Blinker, Inc. Method and apparatus for receiving a financing offer from an image
US9892337B1 (en) 2014-06-27 2018-02-13 Blinker, Inc. Method and apparatus for receiving a refinancing offer from an image
US9607236B1 (en) 2014-06-27 2017-03-28 Blinker, Inc. Method and apparatus for providing loan verification from an image
US9594971B1 (en) 2014-06-27 2017-03-14 Blinker, Inc. Method and apparatus for receiving listings of similar vehicles from an image
US10540564B2 (en) 2014-06-27 2020-01-21 Blinker, Inc. Method and apparatus for identifying vehicle information from an image
US9563814B1 (en) 2014-06-27 2017-02-07 Blinker, Inc. Method and apparatus for recovering a vehicle identification number from an image
US9558419B1 (en) 2014-06-27 2017-01-31 Blinker, Inc. Method and apparatus for receiving a location of a vehicle service center from an image
US9818154B1 (en) 2014-06-27 2017-11-14 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US10733471B1 (en) 2014-06-27 2020-08-04 Blinker, Inc. Method and apparatus for receiving recall information from an image
US9589202B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for receiving an insurance quote from an image
US10515285B2 (en) 2014-06-27 2019-12-24 Blinker, Inc. Method and apparatus for blocking information from an image
US9589201B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for recovering a vehicle value from an image
US9773184B1 (en) 2014-06-27 2017-09-26 Blinker, Inc. Method and apparatus for receiving a broadcast radio service offer from an image
US9552524B2 (en) * 2014-09-15 2017-01-24 Xerox Corporation System and method for detecting seat belt violations from front view vehicle images
CN107113375B (zh) 2015-01-08 2020-09-18 索尼半导体解决方案公司 图像处理装置、成像装置和图像处理方法
JP6929030B2 (ja) * 2016-08-10 2021-09-01 日本信号株式会社 車両認識装置
US9953210B1 (en) * 2017-05-30 2018-04-24 Gatekeeper Inc. Apparatus, systems and methods for improved facial detection and recognition in vehicle inspection security systems
US11538257B2 (en) 2017-12-08 2022-12-27 Gatekeeper Inc. Detection, counting and identification of occupants in vehicles
JP7027978B2 (ja) * 2018-03-14 2022-03-02 富士通株式会社 検査装置、検査方法、及び検査プログラム
KR20200130602A (ko) * 2019-05-10 2020-11-19 한국전자통신연구원 영상 인식 장치, 영상 인식 장치의 동작 방법, 그리고 영상 인식 장치를 포함하는 컴퓨팅 장치
US10867193B1 (en) * 2019-07-10 2020-12-15 Gatekeeper Security, Inc. Imaging systems for facial detection, license plate reading, vehicle overview and vehicle make, model, and color detection
US11196965B2 (en) 2019-10-25 2021-12-07 Gatekeeper Security, Inc. Image artifact mitigation in scanners for entry control systems

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3505924B2 (ja) * 1996-08-09 2004-03-15 三菱電機株式会社 車両監視装置
JP3815704B2 (ja) * 1997-10-28 2006-08-30 株式会社リコー 図形分類処理方法、図形検索処理方法、図形分類システム、図形検索システム、図形分類用特徴抽出処理方法、図形分類用表作成処理方法、情報記録媒体、図形間の類似度又は相異度の評価処理方法、図形正規化処理方法、及び、図形間対応付け処理方法
US6546119B2 (en) * 1998-02-24 2003-04-08 Redflex Traffic Systems Automated traffic violation monitoring and reporting system
JP4226730B2 (ja) * 1999-01-28 2009-02-18 株式会社東芝 物体領域情報生成方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム
CN101029824B (zh) * 2006-02-28 2011-10-26 东软集团股份有限公司 基于车辆特征的车辆定位方法和装置
JP5221886B2 (ja) * 2007-03-07 2013-06-26 富士重工業株式会社 物体検出装置
EP2313863A1 (de) * 2008-07-14 2011-04-27 National ICT Australia Limited Erkennung von fahrzeugen auf bildern eines nachtszenariums
WO2010034065A1 (en) * 2008-09-25 2010-04-01 National Ict Australia Limited Detection of vehicles in an image

Also Published As

Publication number Publication date
JP2012064046A (ja) 2012-03-29
US20120069183A1 (en) 2012-03-22
JP5651414B2 (ja) 2015-01-14

Similar Documents

Publication Publication Date Title
DE102011082661A1 (de) Fahrzeugdetektionsvorrichtung
EP3183721B1 (de) Verfahren und achsenzähl-vorrichtung zur berührungslosen achsenzählung eines fahrzeugs sowie achsenzählsystem für den strassenverkehr
DE102009016568B4 (de) Trajektorien-Abschätzvorrichtung für ein bewegliches Objekt
DE102014116140B4 (de) Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug
DE102006012914B4 (de) System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug
EP2788245B1 (de) Verfahren und vorrichtung zur lokalisation einer vordefinierten parkposition
CN105539293B (zh) 车道偏离预警方法和装置及汽车驾驶辅助系统
DE102015105760B4 (de) System zum Einparken eines Fahrzeugs
EP3455785B1 (de) Verfahren zur erfassung von verkehrszeichen
EP2989594B1 (de) Vorrichtung und verfahren zum erkennen von beschriftungen auf fahrzeugreifen
EP2888604A1 (de) Verfahren zur bestimmung eines fahrspurverlaufs für ein fahrzeug
DE102013205875A1 (de) Fahrbahnmarkierungs-Erkennungsvorrichtung und -Verfahren
DE102019114622A1 (de) Erfassung und planare darstellung dreidimensionaler fahrspuren in einer strassenszene
DE102020112929A1 (de) Verkehrssignalerkennungssystem
DE102016220308A1 (de) System und Verfahren zur Erzeugung von digitalen Straßenmodellen aus Luft- oder Satellitenbildern und von Fahrzeugen erfassten Daten
DE102018129388A1 (de) Erkennungsvorrichtung für die äussere umgebung von fahrzeugen
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
DE10311240A1 (de) Verfahren und Einrichtung für die Spurführung eines Fahrzeugs
EP2208168B1 (de) Verfahren und vorrichtung zur erkennung des verlaufs einer fahrspur
DE102017106152A1 (de) Ermitteln einer Winkelstellung eines Anhängers mit optimierter Vorlage
EP3655888A1 (de) Verfahren und vorrichtung zum identifizieren von optischen merkmalen eines fahrzeugs und/oder fahrzeugteils
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
EP3659113B1 (de) Erkennungssystem, arbeitsverfahren und trainingsverfahren zum erzeugen eines 3d-modells mit referenzdaten
EP4198894A1 (de) Kamerabasierte fahrzeugkonturerfassung für fahrzeugbehandlungsanlagen
EP3259703B1 (de) Mobilgerät zum erfassen eines textbereiches auf einem identifikationsdokument

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee