DE112021005102T5 - Bildverarbeitungsvorrichtung - Google Patents

Bildverarbeitungsvorrichtung Download PDF

Info

Publication number
DE112021005102T5
DE112021005102T5 DE112021005102.4T DE112021005102T DE112021005102T5 DE 112021005102 T5 DE112021005102 T5 DE 112021005102T5 DE 112021005102 T DE112021005102 T DE 112021005102T DE 112021005102 T5 DE112021005102 T5 DE 112021005102T5
Authority
DE
Germany
Prior art keywords
image
camera
deterioration state
area
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021005102.4T
Other languages
English (en)
Inventor
Ryosuke Toki
Tatsuo Saishu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of DE112021005102T5 publication Critical patent/DE112021005102T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

Eine Bildverarbeitungsvorrichtung wird bereitgestellt, welche die Identifizierungsleistung und die Robustheit verbessern kann. Eine Bildverarbeitungsvorrichtung umfasst eine Objekterfassungseinheit 301, die ein in jedem von Bildern enthaltenes Objekt auf Basis der Bilder von einer ersten Kamera und einer zweiten Kamera erfasst, eine Objektidentifizierungseinheit 303, die einen Typ des erfassten Objekts durch Verwenden des Bildes von der ersten Kamera oder des Bildes von der zweiten Kamera spezifiziert (identifiziert), und eine Verschlechterungszustand-Bestimmungseinheit 302, die einen Verschlechterungszustand von jedem vom Bild von der ersten Kamera und Bild von der zweiten Kamera bestimmt. Die Objektidentifizierungseinheit 303 bestimmt auf Basis des Verschlechterungszustands, welches vom Bild von der ersten Kamera und Bild von der zweiten Kamera verwendet wird.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Bildverarbeitungsvorrichtung, die einen Identifizierungsprozess in einer Bordkamera ausführt.
  • Bisheriger Stand der Technik
  • Durch den Fortschritt der Fahrassistenz-Steuertechnik finden Adaptive Cruise Control (ACC), Autonomous Emergency Braking System (AEBS) und dergleichen eine weite Verbreitung. Durch die zunehmende Verbreitung der Fahrassistenz-Steuertechnik ist es erforderlich, die Betriebsgenauigkeit und die robuste Leistung zu verbessern, um eine kontinuierliche Steuerung auch bei ungünstiger Umgebung in einem gewissen Maße zu ermöglichen.
  • Herkömmlicherweise wurde, da die Verschlechterung der Erkennungsleistung (Identifizierungsleistung) aufgrund einer Verschlechterung der Bilderfassungsumgebung etwa durch Regentropfen und Gegenlicht einen stabilen Betrieb der Fahrassistenzsteuerung beeinflusst, ein Prozess zum Unterbrechen der Fahrassistenzsteuerung ausgeführt.
  • Im herkömmlichen Verfahren wie in PTL 1 offenbart wird hingegen der Grad der Verschlechterung der Bilderfassungsumgebung in drei Stufen bestimmt, und wenn der Grad der Verschlechterung gering ist, wird ein Erkennungsprozess ausgeführt, um ein Fortsetzen der Fahrassistenzsteuerung zu versuchen.
  • Liste der Anführungen
  • Patentliteratur
  • PTL 1: JP 2009-241636 A
  • Zusammenfassung der Erfindung
  • Technische Aufgabe
  • Im zuvor beschriebenen herkömmlichen Verfahren wird das Ergebnis eines Stereoprozesses verwendet, wenn der Grad der Verschlechterung eines Bildes ermittelt wird, aber der Erkennungsprozess erfolgt fest durch eine Kamera und wird ausgeführt. Daher bestehen insofern Probleme, als die Erkennungsleistung stark von der Verschlechterungssituation eines Kamerabildes an einer Seite abhängt und die Robustheit abnimmt.
  • Die vorliegende Erfindung wurde aufgrund der zuvor beschriebenen Umstände entwickelt und eine Aufgabe von dieser besteht im Bereitstellen einer Bildverarbeitungsvorrichtung, die in der Lage ist, die Identifizierungsleistung und Robustheit zu verbessern.
  • Technische Lösung
  • Zum Lösen der vorhergehenden Probleme umfasst gemäß der vorliegenden Erfindung eine Bildverarbeitungsvorrichtung eine Objekterfassungseinheit, die ein in jedem von Bildern enthaltenes Objekt auf Basis der Bilder von einer ersten Kamera und einer zweiten Kamera erfasst, eine Objektidentifizierungseinheit, die einen Typ des erfassten Objekts durch Verwenden des Bildes von der ersten Kamera oder des Bildes von der zweiten Kamera spezifiziert, und eine Verschlechterungszustand-Bestimmungseinheit, die einen Verschlechterungszustand von jedem vom Bild von der ersten Kamera und Bild von der zweiten Kamera bestimmt. Die Objektidentifizierungseinheit bestimmt auf Basis des Verschlechterungszustands, welches vom Bild von der ersten Kamera und Bild von der zweiten Kamera verwendet wird.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der vorliegenden Erfindung kann die Identifizierungsleistung durch Bestimmen eines für einen Identifizierungsprozess geeigneten Bildes, Wechseln des Bildes und Ausführen des Identifizierungsprozesses verbessert werden.
  • Aufgaben, Konfigurationen und vorteilhafte Wirkungen zusätzlich zu den zuvor beschriebenen gehen aus den Beschreibungen der folgenden Ausführungsformen hervor.
  • Figurenliste
    • [1] 1 zeigt ein Blockdiagramm zur Darstellung einer schematischen Konfiguration einer Bord-Stereokameravorrichtung, umfassend eine Bildverarbeitungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung.
    • [2] 2 zeigt ein Fließbild zum Erläutern eines Inhalts eines Stereokameraprozesses als eine Basis der Ausführungsform der vorliegenden Erfindung.
    • [3] 3 zeigt ein Blockdiagramm zur Darstellung einer Funktionsblockkonfiguration einer Rechenoperations-Verarbeitungseinheit der Bildverarbeitungsvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung.
    • [4] 4 zeigt ein Diagramm zur Darstellung eines Ergebnisses eines Objekterfassungsprozesses.
    • [5] 5 zeigt ein Diagramm zur Darstellung eines Ergebnisses der Bereichsunterteilung zum Ausführen eines Verschlechterungszustand-Bestimmungsprozesses von linker und rechter Kamera.
    • [6] 6 zeigt ein Fließbild des Verschlechterungszustand-Bestimmungsprozesses von linker und rechter Kamera.
    • [7] 7 zeigt ein Diagramm zum Erläutern eines Inhalts eines Identifizierungsbereich-Festlegungsprozesses.
    • [8] 8 zeigt ein Fließbild eines Beispiels eines Prozesses zum Wechseln zwischen linker und rechter Kamera.
    • [9] 9 zeigt ein Fließbild eines weiteren Beispiels eines Prozesses zum Wechseln zwischen linker und rechter Kamera.
    • [10] 10 zeigt ein Diagramm von jeder Prozessstufe eines Identifizierungsprozesses.
  • Beschreibung von Ausführungsformen
  • Nachfolgend ist eine Ausführungsform der vorliegenden Erfindung in Bezug auf die Zeichnungen erläutert. In den Zeichnungen sind Teile mit den gleichen Funktionen mit den gleichen Bezugszeichen bezeichnet und auf eine Wiederholung der Beschreibung hiervon wird gegebenenfalls verzichtet.
  • 1 zeigt ein Blockdiagramm zur schematischen Darstellung einer Gesamtkonfiguration einer Bord-Stereokameravorrichtung, umfassend eine Bildverarbeitungsvorrichtung gemäß der vorliegenden Ausführungsform. Eine Bord-Stereokameravorrichtung 100 in der vorliegenden Ausführungsform ist eine Vorrichtung, die an einem Fahrzeug montiert ist und eine Außenumgebung des Fahrzeugs auf der Basis der Bildinformationen eines Bilderfassungs-Zielbereichs um das Fahrzeug herum, etwa im Frontbereich des Fahrzeugs, erkennt. Die Bord-Stereokameravorrichtung 100 erkennt beispielsweise eine weiße Linie auf einer Straße, einen Fußgänger, ein Fahrzeug, andere dreidimensionale Objekte, eine Ampel, ein Schild, eine Beleuchtungslampe und dergleichen und passt eine Bremse, eine Lenkung und dergleichen des Fahrzeugs (des eigenen Fahrzeugs), an dem die Bord-Stereokameravorrichtung 100 montiert ist, an.
  • Die Bord-Stereokameravorrichtung 100 umfasst zwei Kameras 101 und 102 (ein Paar, linke Kamera 101 und rechte Kamera 102), die an der linken und rechten Seite (nebeneinander) angeordnet sind und Bildinformationen erfassen, und eine Bildverarbeitungsvorrichtung 110, die jedes Bild von Bildgebungselementen der Kameras 101 und 102 verarbeitet. Die Bildverarbeitungsvorrichtung 110 ist als ein Computer, umfassend einen Prozessor wie eine Central Processing Unit (CPU) und einen Speicher wie ein Read Only Memory (ROM), ein Random Access Memory (RAM) und ein Hard Disk Drive (HDD), ausgebildet. Jede Funktion der Bildverarbeitungsvorrichtung 110 wird vom Prozessor ausgeführt, der ein im ROM gespeichertes Programm ausführt. Der RAM speichert Daten, umfassend Zwischendaten einer Rechenoperation durch ein vom Prozessor ausgeführtes Programm. Die Bildverarbeitungsvorrichtung 110 umfasst eine Bildeingabe-Schnittstelle 103 zum Steuern der Bilderfassung der Kameras 101 und 102 und Eingeben eines erfassten Bildes. Daten des durch die Bildeingabe-Schnittstelle 103 eingegebenen Bildes werden durch einen internen Bus 109 gesendet und durch eine Bildverarbeitungseinheit 104 und eine Rechenoperations-Verarbeitungseinheit 105 verarbeitet. Ein Ergebnis in der Mitte des Prozesses, Bilddaten als ein Endergebnis und dergleichen werden in einer Speichereinheit 106 gespeichert.
  • Die Bildverarbeitungseinheit 104 vergleicht ein erstes Bild (auch als linkes Bild oder linkes Kamerabild bezeichnet), erhalten vom Bildgebungselement der Kamera 101, mit einem zweiten Bild (auch als rechtes Bild oder rechtes Kamerabild bezeichnet), erhalten vom Bildgebungselement der Kamera 102, und führt eine Bildkorrektur, etwa eine Korrektur einer für die Vorrichtung spezifische Abweichung, verursacht durch das Bildgebungselement, oder eine Interpolation des Rauschens, an jedem Bild durch. Zusätzlich speichert die Bildverarbeitungseinheit 104 ein Ergebnis der Bildkorrektur in der Speichereinheit 106. Ferner berechnet die Bildverarbeitungseinheit 104 eine Parallaxeninformation durch Berechnen der entsprechenden Punkte zwischen erstem und zweitem Bild und speichert die berechnete Parallaxeninformation in der Speichereinheit 106 wie zuvor beschrieben.
  • Die Rechenoperations-Verarbeitungseinheit 105 erkennt verschiedene zur Wahrnehmung der Umgebung um das Fahrzeug erforderliche Objekte durch Verwendung des Bildes und der Parallaxeninformation (Abstandsinformation für jeden Punkt auf dem Bild), die in der Speichereinheit 106 gespeichert sind. Die verschiedenen Objekte umfassen eine Person, ein Fahrzeug, andere Hindernisse, eine Ampel, ein Schild, ein Rücklicht, einen Scheinwerfer und dergleichen eines Fahrzeugs. Einige Erkennungsergebnisse und Zwischenberechnungsergebnisse werden in der Speichereinheit 106 auf die gleiche Weise aufgezeichnet wie zuvor beschrieben. Nachdem verschiedene Arten von Objekterkennung am erfassten Bild durchgeführt wurden, wird eine Steuerrichtlinie des Fahrzeugs durch Verwenden der Erkennungsergebnisse berechnet.
  • Die Steuerrichtlinie des Fahrzeugs und ein Abschnitt des als Ergebnis der Berechnung erhaltenen Objekterkennungsergebnisses werden an ein Bord-Netzwerk-CAN 111 durch eine CAN-Schnittstelle 107 gesendet und es wird dadurch ein Bremsen des Fahrzeugs durchgeführt. In Bezug auf diese Vorgänge überwacht eine Steuerverarbeitungseinheit 108, ob jede Verarbeitungseinheit einen anormalen Betrieb verursacht hat, ob ein Fehler zum Zeitpunkt der Datenübertragung aufgetreten ist und dergleichen, wodurch ein anormaler Betrieb verhindert wird.
  • Die Bildverarbeitungsvorrichtung 104 ist mit der Steuerverarbeitungseinheit 108, der Speichereinheit 106, der Rechenoperations-Verarbeitungseinheit 105, der Bildeingabe-Schnittstelle 103, die eine Eingabe-/Ausgabeeinheit zum Durchführen des Eingabe-/Ausgabevorgangs zum und vom Bildgebungselement ist, und der CAN-Schnittstelle 107, die eine Eingabe-/Ausgabeeinheit zum Durchführen eines Eingabe-/Ausgabevorgangs zu und von einem externen Bord-Netzwerk-CAN 111 ist, über den internen Bus 109 verbunden. Die Steuerverarbeitungseinheit 108, die Bildverarbeitungseinheit 104, die Speichereinheit 106, die Rechenoperations-Verarbeitungseinheit 105 und die Eingabe-/Ausgabeeinheiten 103 und 107 sind durch eine einzelne oder eine Vielzahl von Computereinheiten ausgebildet. Die Speichereinheit 106 umfasst beispielsweise einen Speicher, der durch die Bildverarbeitungseinheit 104 erhaltene Bildinformationen, als ein Ergebnis der Abtastung durch die Rechenoperations-Verarbeitungseinheit 105 erzeugte Bildinformationen und dergleichen speichert. Die Eingabe-/Ausgabeeinheit 107 zum Durchführen des Eingabe-/Ausgabevorgangs zum und vom externen Bord-Netzwerk-CAN 111 gibt von der Bord-Stereokameravorrichtung 100 ausgegebene Informationen an ein Steuersystem des eigenen Fahrzeugs über das Bord-Netzwerk-CAN 111 aus.
  • 2 zeigt einen Verarbeitungsablauf (das heißt den Inhalt eines Stereokameraprozesses, der die Basis der vorliegenden Ausführungsform darstellt) in der Bord-Stereokameravorrichtung 100.
  • Zunächst werden in S201 und S202 Bilder von der linken und rechten Kamera 101 und 102 erfasst und ein Bildprozess S203, etwa eine Korrektur zum Absorbieren eines spezifischen Verhaltens des Bildgebungselements, wird für jeden Teil von Bilddaten 121 und 122, erhalten durch die Bilderfassung von jeder Kamera, ausgeführt. Das Verarbeitungsergebnis wird in einem Bildpuffer 126 gespeichert. Der Bildpuffer 126 ist in der Speichereinheit 106 in 1 angeordnet. Ferner werden die zwei korrigierten Bilder zum Vergleichen der Bilder miteinander verwendet, wodurch eine Parallaxeninformation der Bilder (linkes und rechtes Bild), erhalten durch die linke und rechte Kamera, erhalten wird. Die Parallaxe zwischen linkem und rechtem Bild ergibt eindeutige Positionen eines bestimmten Punkts, der die Aufmerksamkeit auf ein Zielobjekt zieht, in Bildern der linken und rechten Kamera und der Abstand des Zielobjekts kann durch das Prinzip der Triangulation ermittelt werden. Dies wird in einem Parallaxenprozess S204 durchgeführt. Der Bildprozess S203 und der Parallaxenprozess S204 werden von der Bildverarbeitungseinheit 104 in 1 ausgeführt und das schließlich erhaltene Bild und die Parallaxeninformation werden in der Speichereinheit 106 gespeichert.
  • Ein Objekterfassungsprozess S205 zum Erfassen eines Objekts (dreidimensionalen Objekts) in einem dreidimensionalen Raum wird durch Verwenden eines wie zuvor beschrieben erhaltenen Parallaxenbildes ausgeführt. (Details sind nachfolgend beschrieben.) Ferner werden verschiedene Erkennungsprozesse S206 durch Verwenden des gespeicherten Bildes und der gespeicherten Parallaxeninformation ausgeführt. (Details sind nachfolgend beschrieben.) Beispiele des zu erkennenden Objekts umfassen eine Person, ein Fahrzeug, andere dreidimensionale Objekt, ein Schild, eine Ampel, ein Rücklicht und dergleichen und Details des Erkennungsprozesses werden durch Bedingungen bestimmt, etwa Merkmale des Ziels und die auf das System angewendete Verarbeitungszeit. Ferner wird unter Berücksichtigung des Ergebnisses der Objekterkennung des Zustands (Geschwindigkeit, Lenkwinkel und dergleichen) des eigenen Fahrzeugs in einem Fahrzeug-Steuerprozess S207 beispielsweise eine Warnung an den Insassen ausgegeben, ein Bremsen, etwa eine Anpassung des Bremsens oder Lenkwinkels des eigenen Fahrzeugs, durchführt oder eine Steuerrichtlinie zum Durchführen einer Vermeidungssteuerung des Zielobjekts durch den Fahrzeug-Steuerprozess S207 bestimmt und das Ergebnis wird als Steuerinformation des eigenen Fahrzeugs oder dergleichen -durch die CAN-Schnittstelle 107 ausgegeben (S208). Der Objekterfassungsprozess S205, die verschiedenen Erkennungsprozesse S206 und der Fahrzeug-Steuerprozess S207 werden von der Rechenoperations-Verarbeitungseinheit 105 in 1 ausgeführt und ein Ausgabeprozess an das Bord-Netzwerk-CAN 111 wird von der CAN-Schnittstelle 107 ausgeführt. Jedes der Verarbeitungsmittel ist beispielsweise durch eine einzelne oder eine Vielzahl von Computereinheiten ausgebildet und ist dazu ausgebildet, Daten aneinander und voneinander senden und empfangen zu können.
  • Die Parallaxe oder der Abstand von jedem Pixel zwischen linkem und rechtem Bild wird im Parallaxenprozess S204 ermittelt. Im Objekterfassungsprozess S205 wird die Parallaxe oder der Abstand als ein Objekt (dreidimensionales Objekt) in einem dreidimensionalen Raum gruppiert. Anschließend werden die verschiedenen Erkennungsprozesse S206 auf Basis einer Position und eines Bereichs im Bild ausgeführt. Zu diesem Zeitpunkt ist es zum stabilen Erkennen eines Objekts in den verschiedenen Erkennungsprozessen S206 erforderlich, dass ein Objektbereich im Bild mit der Reflexion des zu erkennenden Objekts übereinstimmt. In einer Stereokamera ist es aber gegebenenfalls nicht möglich, dass aufgrund der Helligkeit einer äußeren Umgebung, einer Variation in der Bildgebungsleistung zwischen den Kameras, einer Abdeckung durch Fremdpartikel auf einer Glasfläche oder dergleichen eine vollständige Übereinstimmung mit dem Objektbereich im zu erkennenden Bild erzielt wird. Dies gilt auch dann, wenn ein Millimeterwellen-Radar oder dergleichen und ein Bildsensor, etwa eine Kamera, kombiniert sind.
  • 3 zeigt eine Funktionsblockkonfiguration der Rechenoperations-Verarbeitungseinheit der Bildverarbeitungsvorrichtung gemäß der vorliegenden Ausführungsform. Die Konfiguration ist nachfolgend unter Annahme einer Stereokamera beschrieben. Die Rechenoperations-Verarbeitungseinheit 105 in der Bildverarbeitungsvorrichtung 110 umfasst eine Objekterfassungseinheit 301, eine Verschlechterungszustand-Bestimmungseinheit 302 und eine Objektidentifizierungseinheit 303. In der vorliegenden Ausführungsform wird der Objekterkennungsprozess S205 von der Objekterfassungseinheit 301 ausgeführt und die verschiedenen Erkennungsprozesse S206 werden von der Verschlechterungszustand-Bestimmungseinheit 302 und der Objektidentifizierungseinheit 303 ausgeführt.
  • (Objekterfassungseinheit)
  • Die Objekterfassungseinheit 301 führt einen im Objekterfassungsprozess S025 ausgeführten Erfassungsprozess für ein Objekt (dreidimensionales Objekt) aus und berechnet einen Bereich (Objektbereich), in dem das im durch die linke und rechte Kamera erhaltenen Bild enthaltene Objekt angeordnet ist.
  • 4 zeigt ein Ergebnis des Objekterfassungsprozesses S205 an einem Kamerabild. Ein Objektbereich 401, der ein Ergebnis des Objekterfassungsprozesses S205 ist, wird für jedes Objekt mit einer Höhe auf der Straßenoberfläche, etwa einen Fußgänger, ein Fahrzeug, einen Baum oder eine Straßenlaterne, das in einem dreidimensionalen Bereich vorhanden ist, ermittelt und als ein Bereich auf ein Bild projiziert. Der Objektbereich 401 kann ein rechteckiger Bereich wie in 4 dargestellt oder ein aus der Parallaxe oder dem Abstand ermittelter unendlicher Bereich sein. Zum Erleichtern der Handhabung durch einen Computer in den folgenden Prozessen wird der Objektbereich allgemein als ein Rechteck behandelt. Im vorliegenden Beispiel wird der Objektbereich 401 als ein Rechteck behandelt und Details von jedem Prozess sind durch Verwenden eines Fahrzeugs als ein Beispiel des Objektbereichs 401 beschrieben.
  • (Verschlechterungszustand-Bestimmungseinheit)
  • Die Verschlechterungszustand-Bestimmungseinheit 302 vergleicht die Reflexionsgrade der linken und rechten Kamera in Bezug auf das linke und rechte Kamerabild und berechnet den Verschlechterungszustand für die Kamera, deren Bild zur Verwendung im Erkennungsprozess (Identifizierungsprozess) geeignet ist.
  • Insbesondere wird in einem Verschlechterungszustand-Bestimmungsprozess S210 für die linke und rechte Kamera der im Erkennungsprozess verwendete Kamerabildwinkel in eine Vielzahl von Bereichen unterteilt, der Grad der Verschlechterung wird für jeden der unterteilten Bereiche des entsprechenden linken und rechten Kamerabildes berechnet und verglichen, der Verschlechterungszustand wird bestimmt und das Ergebnis wird für jeden der unterteilten Bereiche erzeugt. In der vorliegenden Ausführungsform ist ein Beispiel (501) beschrieben, in dem ein Bildschirm in 25 rechteckige Bereiche unterteilt ist, die nicht gleichmäßig unterteilt sind wie in 5 dargestellt. Wenn aber der Prozess effektiv ausgeführt wird, kann bei Bedarf jede beliebige Form statt einem Rechteck und eine beliebige Zahl von Unterteilungen verwendet werden oder der gesamte Bildschirm kann als ein Bereich ohne Unterteilung behandelt werden. Als ein Unterteilungsverfahren ist es beispielsweise denkbar, den Bereich fein (klein) in der Nähe der Mitte des Bildschirms entsprechend dem Fahrweg des eigenen Fahrzeugs zu unterteilen und den Bereich grob in der Nähe des Bildschirmendes zu unterteilen. Der Unterteilungszustand des Bereichs ist nicht fest und kann entsprechend gemäß der Fahrsituation geändert werden. Beispielsweise ist es denkbar, die Zahl von Unterteilungen unter der Annahme zu reduzieren, dass eine Bildverschlechterung eher nicht auftreten wird, wenn die äußere Umgebung sonnig ist, und die Zahl von Unterteilungen in einem Bereich, zulässig durch die maschinelle Verarbeitungszeit zulässig, zum feinen Identifizieren eines verschlechterten Abschnitts, wenn es anfängt zu regnen, zu erhöhen.
  • Als ein Verfahren zum Bestimmen des Verschlechterungszustands im Verschlechterungszustand-Bestimmungsprozess S210 für die linke und rechte Kamera ist in diesem Beispiel ein Verfahren zum Vergleichen der jeweiligen Kantenextraktionsprozesse im linken und rechten Bild beschrieben. In der Stereokamera wird ein Bild eines gemeinsamen Teils von der rechten Kamera 102 und der linken Kamera 101 erfasst. Somit sollte, wenn die Bilderfassungsumgebung gut ist, das Ergebnis der Kantenextraktion zwischen linkem und rechtem Bild ähnlich sein. 6 zeigt einen Verarbeitungsablauf der Verschlechterungszustand-Bestimmung für die linke und rechte Kamera, wenn die Zahlen von linken und rechten Kantenextraktionen miteinander verglichen werden. In einer linken und rechten Kantenextraktion und einem Vergleichsprozess wird der wiederholte Prozess entsprechend der Zahl von unterteilten Bereichen (der Zahl von Bereichsunterteilungen) ausgeführt. Eine Kantenextraktion eines durch das linke und rechte Bild unterteilten Bereichs (Bildes) wird durchgeführt (S601 und S602) und es wird aus der Zahl von Kantenextraktionen des linken und rechten Kamerabildes bestimmt, ob das rechte Bild (insbesondere das rechte Unterteilungsbereichsbild) oder das linke Bild (insbesondere das linke Unterteilungsbereichsbild) verschlechtert ist (S603, S604 und S605). Wenn nur das rechte Bild verschlechtert ist (die Zahl von Kantenextraktionen klein ist), wird eine Information zur Angabe, dass das rechte Bild verschlechtert ist, dem unterteilten Bereich zugewiesen (S606). Ebenso wird, wenn nur das linke Bild verschlechtert ist (die Zahl von Kantenextraktionen klein ist), die linke Bildverschlechterungsinformation den unterteilten Bereichen zugewiesen (5607). Zusätzlich wird, wenn sowohl das rechte Bild als auch das linke Bild verschlechtert ist (die Zahl von Kantenextraktionen klein ist) oder keines der beiden Bilder verschlechtert ist (die Zahl von Kantenextraktionen groß ist), eine Information zur Angabe, dass linkes und rechtes Bild einander entsprechen, dem unterteilten Bereich zugewiesen (S608). Das heißt, die Kantenextraktionsgrade werden zwischen linkem und rechtem Bild (linkem und rechtem Unterteilungsbereichsbild) verglichen (S603, S604 und S605). Wenn die Extraktionszahl des rechten Kamerabildes kleiner ist als die Kantenextraktionszahl des linken Kamerabildes, insbesondere wenn die Kantenextraktionszahl des rechten Kamerabildes kleiner ist als die Kantenextraktionszahl des linken Kamerabildes um einen vorbestimmten Schwellenwert oder mehr, wird bestimmt, dass das Bild der rechten Kamera verschlechtert ist, und eine Information zur Angabe, dass das rechte Bild verschlechtert ist, wird dem unterteilten Bereich zugewiesen (S606). Ebenso wird, wenn das Bild der linken Kamera verschlechtert ist, eine Information zur Angabe, dass das linke Bild verschlechtert ist, dem unterteilten Bereich zugewiesen (S607). Wenn die Verschlechterungsgrade des linken und rechten Kamerabildes nahezu gleich sind, insbesondere wenn der Unterschied zwischen der Zahl von Kantenextraktionen des rechten Kamerabildes und der Zahl von Kantenextraktionen des linken Kamerabildes kleiner ist als ein vorbestimmter Schwellenwert, wird eine Information zur Angabe, dass das linke und rechte Bild miteinander übereinstimmen, dem unterteilten Bereich zugewiesen (S608). Die Übereinstimmungen zwischen rechtem und linkem Bild werden selbst dann angewendet, wenn keines von rechtem und linkem Kamerabild verschlechtert ist.
  • Zusätzlich zur vorhergehenden Beschreibung kann zum Bestimmen des Grades der Verschlechterung des linken und rechten Kamerabildes ebenfalls bestimmt werden, welches von linkem und rechtem Kamerabild Regentropfen aufweist, indem eine Änderung in der Luminanzverteilung betrachtet wird. Wenn Regentropfen vorhanden sind, wird das Bild durch die Reflexion der Wassertröpfchen verwischt und somit kann ein anderes Verfahren verwendet werden, so dass der Luminanzwert im gesamten Bild zunimmt.
  • (Objektidentifizierungseinheit)
  • Die Objektidentifizierungseinheit 303 führt den Identifizierungsprozess am von der Objekterfassungseinheit 301 erfassten Objekt (dreidimensionalen Objekt) durch Verwenden des Ergebnisses der Objekterfassungseinheit 301 und des Ergebnisses der Verschlechterungszustand-Bestimmungseinheit 302 als Eingaben aus und spezifiziert den Typ des Objekts (dreidimensionalen Objekts).
  • Insbesondere wird in einem Identifikationsbereich-Festlegungsprozess S211 ein Bereich, in dem der Identifizierungsprozess ausgeführt wird, auf Basis des durch die Objekterfassungseinheit 301 (dessen Objekterfassungsprozess S205) berechneten Objektbereichs festgelegt. Wie im Ergebnis (502) der Erfassung als Objektbereich des Fahrzeugs in 5 kann, wenn der Objektbereich im Bild zum Umfassen des gesamten zu identifizierenden Objekts erfasst werden kann, der Objektbereich unverändert als ein dem Identifizierungsprozess zu unterziehender Bereich verwendet werden. Wie im Objekterfassungsergebnis (703) in 7 jedoch können Regentropfen oder dergleichen mit dem Ziel überlappen und es ist gegebenenfalls nicht möglich, das gesamte Ziel im Bild zu erfassen. In diesem Zustand wird, selbst wenn ein Identifizierungsbereich festgelegt und der Identifizierungsprozess ausgeführt wird, die Identifizierungsleistung nicht verbessert. Daher wird im Identifizierungsbereich-Festlegungsprozess S211 angenommen, dass der Erfassungsbereich nicht das gesamte zu identifizierende Fahrzeug umfasst, und der Identifizierungsbereich (kann als ein Objektbereich bezeichnet werden) wird unter Verwendung der Annahme festgelegt, dass das Identifizierungsziel ein Fahrzeug ist. Das heißt, wenn die Größe des erfassten Objektbereichs nicht der Fahrzeuggröße entspricht, wird der Identifizierungsbereich (702) so festgelegt, dass der Objektbereich auf die Fahrzeuggröße erweitert wird.
  • Im Prozess S212 zum Wechseln zwischen linker und rechter Kamera wird für jedes Objekt (dreidimensionale Objekt) bestimmt, ob eine Identifizierung durch die rechte Kamera 102 (deren Bild) oder die linke Kamera 101 (deren Bild) durchgeführt wird (das heißt, es wird bestimmt, welches vom Bild von der rechten Kamera 102 und vom Bild von der linken Kamera 101 für den Identifizierungsprozess zum Spezifizieren verwendet wird), indem der im Identifizierungsbereich-Festlegungsprozess S211 berechnete Identifizierungsbereich und der von der Verschlechterungszustand-Bestimmungseinheit 302 (deren Verschlechterungszustand-Bestimmungsprozess S210 für die linke und rechte Kamera) berechnete Verschlechterungszustand verglichen werden.
  • 8 zeigt einen spezifischen Verarbeitungsablauf der Bestimmung des Wechselns zwischen linker und rechter Kamera. Zunächst wird ein überlappender Abschnitt zwischen dem durch den Identifizierungsbereich-Festlegungsprozess S211 festgelegten Identifizierungsbereich und dem Verschlechterungszustand-Bestimmungsbereich (= eine Vielzahl von Unterteilungsbereichen von linkem und rechtem Kamerabild) durch eine Überlappungsbereichsbestimmung S801 ermittelt. Anschließend wird eine Identifizierungsverarbeitung-Bildwechselbestimmung S802 durchgeführt. Vom Verschlechterungszustand von linkem und rechtem Kamerabild im Bereich des überlappenden Abschnitts wird die Zahl von Bereichen, in denen das rechte Kamerabild verschlechtert ist (die Zahl von rechten verschlechterten Bereichen), mit der Summe der Zahl von Bereichen, in denen das linke Kamerabild verschlechtert ist (der Zahl von linken verschlechterten Bereichen), und der Zahl von Bereichen, in denen die Verschlechterungszustände von linkem und rechtem Kamerabild gleich sind (der Zahl von linken und rechten übereinstimmenden Bereichen), im Bereich des überlappenden Abschnitts verglichen (S803) und das Wechseln zwischen links und rechts wird bestimmt. Wenn die Zahl von rechten verschlechterten Bereichen größer gleich der Summe der Zahl von linken verschlechterten Bereichen und der Zahl von rechten und linken übereinstimmenden Bereichen ist, wird ein Linksbildwechsel durchgeführt (S804). Wenn die Zahl von rechten verschlechterten Bereichen kleiner ist als die Zahl von linken verschlechterten Bereichen und die Zahl von rechten und linken übereinstimmenden Bereichen, wird ein Links- und Rechtsbildwechsel nicht durchgeführt (das heißt, das rechte Bild wird als Standard im Objektidentifizierungsprozess in der folgenden Stufe verwendet) (S805).
  • 9 zeigt einen weiteren spezifischen Verarbeitungsablauf der Bestimmung des Wechselns zwischen linker und rechter Kamera. Hier wird ein überlappender Bereich zwischen dem durch den Identifizierungsbereich-Festlegungsprozess S211 festgelegten Identifizierungsbereich und jedem Verschlechterungszustand-Bestimmungsbereich (= eine Vielzahl von unterteilten Bereichen von linkem und rechtem Kamerabild) ermittelt (S901) und ein Verhältnis des überlappenden Bereichs zum Identifizierungsbereich (Identifizierungsbereich-Überlappungsverhältnis) wird berechnet (S902).
  • Anschließend wird eine Identifizierungsverarbeitung-Bildwechselbestimmung S903 durchgeführt. Die Links- und Rechtswechselpriorität (Linkswechselpriorität und Rechtswechselpriorität) wird für den Identifizierungsbereich für jedes Objekt beispielsweise durch Multiplizieren des berechneten Verhältnisses (= des Gewichts für den Verschlechterungszustand) mit dem Ergebnis des Verschlechterungszustand-Bestimmungsbereichs (für jeden Unterteilungsbereich) und einzelnes Hinzufügen des Bereichs, in dem das rechte Kamerabild verschlechtert ist, und des Bereichs, in dem das linke Kamerabild verschlechtert ist, für den gesamten Identifizierungsbereich berechnet (S904). Die Linkswechselpriorität (entsprechend dem Grad der Verschlechterung des rechten Kamerabildes) und die Rechtswechselpriorität (entsprechend dem Grad der Verschlechterung des linken Kamerabildes) werden miteinander verglichen (S9045) und es wird der Links- und Rechtswechsel bestimmt. Wenn die Linkswechselpriorität größer gleich der Rechtswechselpriorität ist, wird der Linksbildwechsel durchgeführt (S906). Wenn die Linkswechselpriorität kleiner gleich der Rechtswechselpriorität ist, wird kein Links- und Rechtsbildwechsel durchgeführt (das heißt, das rechte Bild wird als Standard im Objektidentifizierungsprozess in der folgenden Stufe verwendet) (S907).
  • Als ein mit dem Überlappungsverhältnis zu multiplizierender Wert kann ein durch die Verschlechterungszustand-Bestimmungseinheit 302 (deren Verschlechterungszustand-Bestimmungsprozess S210 für die linke und rechte Kamera) berechneter Wert (etwa die Zahl von Kantenextraktionen) verwendet werden. Zusätzlich kann die Rechenoperation durch Verwenden eines positiven vorbestimmten Werts, wenn das rechte Kamerabild verschlechtert ist, und Verwenden eines negativen vorbestimmten Werts, wenn das linke Kamerabild verschlechtert ist, vereinfacht werden.
  • Beispielsweise nimmt durch Berechnen eines numerischen Wertes, der ein positiver Wert wird, wenn das rechte Kamerabild verschlechtert ist, und ein negativer Wert wird, wenn das linke Kamerabild verschlechtert ist, Multiplizieren des Überlappungsverhältnisses als ein Gewicht (für den Verschlechterungszustand) und Berechnen und Vergleichen der Links- und Rechtswechselpriorität für den Identifizierungsbereich für jedes Objekt, selbst wenn die Zahl von Bereichen, in denen das rechte Kamerabild als verschlechtert bestimmt ist, kleiner ist als die Zahl von Bereichen, in denen das linke Kamerabild als verschlechtert bestimmt ist (siehe in 8 dargestelltes Beispiel), die Priorität des Wechselns zum linken Kamerabild zu (das heißt, das Bild von der linken Kamera 101 wird verwendet), wenn das Überlappungsverhältnis des Bereichs, in dem das rechte Kamerabild als verschlechtert bestimmt ist, zum Identifizierungsbereich groß ist, zu. Zusätzlich kann als das Gewicht für den Verschlechterungszustand ein Koeffizient, der zur Mitte des Bildes hin zunimmt und zum oberen und unteren Ende des Bild hin abnimmt, in Bezug auf jeden für die Verschlechterungszustandsbestimmung unterteilten Bereich multipliziert werden. Somit wird zusätzlich zum Verhältnis des Überlappungsbereichs die Priorität des Links-Rechts-Wechsels als hoch für ein in der Mitte angeordnetes Ziel, das heißt, das Ziel, für das die Bedeutung des Identifizierungsprozesses oder eines Nachverfolgungsprozesses hoch in der Fahrassistenzsteuerung oder dergleichen ist, berechnet und es kann der Links- und Rechtskamerawechsel erfolgen, in dem die Identifizierungsleistung zusätzlich im Identifizierungsprozess S214 verbessert werden kann.
  • In einem Koordinatensystem-Transformationsprozess S213 für die linke Kamera wird, wenn in der Links- und Rechtskamera-Wechselbestimmung bestimmt wird, dass die Kamera zur linken Kamera gewechselt wird (das Bild von der linken Kamera 101 verwendet wird), der Koordinatenwert des im Koordinatensystem für die rechte Kamera festgelegten Identifizierungsbereichs in den Koordinatenwert entsprechend der linken Kamera transformiert. Die Beziehung zwischen den Koordinatensystemen der rechten Kamera und der linken Kamera kann aus der Beziehung zwischen den Brennweiten der linken und rechten Kamera berechnet werden, wobei die internen Parameter den Bildursprung umfassen und die externen Parameter die Position und die Haltung umfassen. Ferner ist im Falle von parallelem Stereo eine Koordinatenumwandlung ebenfalls durch eine Translationsbewegung unter Verwendung von Parallaxenwerten möglich. Somit werden die Koordinaten des Identifikationsbereichs im Koordinatensystem für die rechte Kamera in das Koordinatensystem der linken Kamera transformiert (Koordinatentransformation) und der Bereich des linken Kamerabildes entsprechend dem im rechten Kamerabild festgelegten Bereich wird festgelegt. Die vorliegende Ausführungsform verwendet die rechte Kamera als Referenz und weist somit die zuvor beschriebenen Verarbeitungsinhalte auf. Wenn aber die linke Kamera als Referenz verwendet wird, wird der umgekehrte Prozess (das heißt der Koordinatensystem-Transformationsprozess für die rechte Kamera auf Basis des Koordinatensystems für die linke Kamera) ausgeführt.
  • 10 zeigt ein Verarbeitungsergebnis, wenn die vorliegende Ausführungsform im Objekterfassungsergebnis (703) von 7 angewendet wird. Das vom durch die rechte Kamera 102 erfassten rechten Kamerabild (1001) erfasste und vom durch die linke Kamera 101 erfassten linken Kamerabild (1002) erfasste Objekterfassungsergebnis (703) kann den Bereich des Fahrzeugs nicht korrekt erfassen. Der linke und rechte Verschlechterungszustand für jeden Bereich (Unterteilungsbereich), berechnet durch den Verschlechterungszustand-Bestimmungsprozess S210 für die linke und rechte Kamera, ist 1003 und der schattierte Bereich gibt einen Bereich an, in dem das rechte Kamerabild verschlechtert ist. Im in 10 dargestellten Beispiel wird der Bereich (702) für das Objekterfassungsergebnis (703) im Identifizierungsbereich-Festlegungsprozess S211 festgelegt und der Linkskamerawechsel wird durch den Links- und Rechtskamera-Wechselprozess S212 bestimmt, da der Bereich (das Verhältnis), in dem das rechte Kamerabild verschlechtert ist, größer ist als der festgelegte Bereich (702). Anschließend wird ein Bild eines Bereichs (1004), ermittelt durch Koordinatentransformation des im Identifizierungsbereich-Festlegungsprozess S211 festgelegten Bereichs (702), im Koordinatensystem-Transformationsprozess S213 für die linke Kamera im Identifizierungsprozess S214 identifiziert.
  • Im Identifizierungsprozess S214 wird der Identifizierungsprozess zum Identifizieren des Typs des erfassten Objekts (dreidimensionalen Objekts) durch Verwenden des Bildes des im Identifizierungsbereich-Festlegungsprozess S211 festgelegten Bereichs oder des Bildes des Identifizierungsbereichs der linken Kamera, welcher der Koordinatentransformation im Koordinatensystem-Transformationsprozess S213 unterzogen wurde (siehe 1004 in 10), das heißt durch Verwenden entweder des Bildes des Identifizierungsbereichs von der rechten Kamera 102 oder des Bildes des Identifizierungsbereichs von der linken Kamera 101, ausgeführt. Beispiele des Identifizierungsprozesses umfassen die folgenden Verfahren. Mustervergleich zum Vergleichen eines Identifizierungsbereichs mit einem mit einer Erkennungszielwahrscheinlichkeit erstellten Muster. Ein Verfahren unter Verwendung eines Diskriminators, in dem eine Merkmalsmenge wie ein Luminanzbild, HOG oder Haar-ähnliche mit einem maschinellen Lernverfahren, etwa eine Stützvektormaschine oder Deep Learning, etwa CNN oder Ada-Boost, kombiniert wird. Zusätzlich kann die Kantenform oder dergleichen durch eine künstlich bestimmte Schwellenbestimmung erkannt werden. Ferner kann, wenn solch eine Identifizierung durchgeführt wird, ein an eine Eingabequelle des Identifizierungsprozesses angepasstes Identifizierungsmodell, etwa ein durch das Bild der rechten Kamera gelerntes Identifizierungsmodell und ein durch die linke Kamera gelerntes Identifizierungsmodell, erstellt werden oder es kann ein an jede Kamera angepasster Schwellenwert erstellt werden.
  • Wie zuvor beschrieben umfasst die Bildverarbeitungsvorrichtung 110 in der vorliegenden Ausführungsform die Objekterfassungseinheit 301, die ein in jedem von Bildern auf Basis der Bilder von der ersten Kamera und der zweiten Kamera enthaltenes Objekt erfasst, die Objektidentifizierungseinheit 303, die den Typ des erfassten Objekts durch Verwenden des Bildes von der ersten Kamera oder des Bildes von der zweiten Kamera spezifiziert (identifiziert) und die Verschlechterungszustand-Bestimmungseinheit 302, die den Verschlechterungszustand von jedem vom Bild von der ersten Kamera und vom Bild von der zweiten Kamera bestimmt. Die Objektidentifizierungseinheit 303 bestimmt auf Basis des Verschlechterungszustands, welches vom Bild von der ersten Kamera und Bild von der zweiten Kamera verwendet wird.
  • Das heißt, der Verschlechterungszustand von linkem und rechtem Bild wird berechnet und ein im Ausführen des Identifizierungsprozesses nützlicheres Bild wird entsprechend ausgewählt (gewechselt), so dass der Identifizierungsprozess am Ziel fortgesetzt wird.
  • Zusätzlich unterteilt die Verschlechterungszustand-Bestimmungseinheit 302 das Bild von der ersten Kamera oder das Bild von der zweiten Kamera in eine Vielzahl von Bereichen und bestimmt den Verschlechterungszustand in jedem der Vielzahl von Bereichen (für jeden Bereich).
  • Ferner bestimmt die Objektidentifizierungseinheit 303 auf Basis des Verschlechterungszustands in jedem der Vielzahl von Bereichen und eines Überlappungsgrades zwischen dem erfassten Objekt und der Vielzahl von Bereichen (jedem von diesen), welches vom Bild von der ersten Kamera und Bild von der zweiten Kamera verwendet wird.
  • Zusätzlich führt die Objektidentifizierungseinheit 303 eine Koordinatentransformation zwischen dem Bild von der ersten Kamera und dem Bild von der zweiten Kamera durch und führt einen Prozess zum Identifizieren des Typs des Objekts im Bild nach der Koordinatentransformation aus.
  • Gemäß der vorliegenden Ausführungsform kann die Identifizierungsleistung durch Bestimmen eines für einen Identifizierungsprozess geeigneten Bildes, Wechseln des Bildes und Ausführen des Identifizierungsprozesses verbessert werden.
  • In der vorhergehenden Ausführungsform wurde die Bord-Stereokameravorrichtung 100, umfassend zwei Kameras, als ein Beispiel beschrieben; die Zahl von Kameras kann aber drei oder mehr betragen.
  • Die vorliegende Erfindung ist nicht auf die vorhergehende Ausführungsform beschränkt und es können verschiedene Modifikationsformen bereitgestellt werden. Beispielsweise wurde die vorhergehende Ausführungsform ausführlich beschrieben, um die vorliegende Erfindung auf eine einfach nachvollziehbare Weise zu beschrieben und die vorhergehende Ausführungsform ist nicht notwendigerweise auf einen Fall umfassend alle beschriebenen Konfigurationen beschränkt.
  • Einige oder alle der Konfigurationen, Funktionen, Verarbeitungseinheiten, Verarbeitungsmittel und dergleichen können hardwaremäßig durch Gestaltung mit beispielsweise einer integrierten Schaltung ausgeführt sein. Ferner können die zuvor beschriebenen jeweiligen Komponenten, Funktionen und dergleichen durch Software durch den Prozessor zum Interpretieren und Ausführen eines Programms zum Ausführen der jeweiligen Funktionen ausgeführt sein. Informationen wie ein Programm, eine Tabelle und eine Datei, die jede Funktion ausführt, können in einem Speicher, einer Speichervorrichtung wie einer Festplatte und einem Solid State Drive (SSD) oder einem Aufzeichnungsmedium wie einer IC-Karte, einer SD-Karte und einer DVD gespeichert sein.
  • Steuerleitungen und Informationsleitungen, die als erforderlich für die Beschreibungen erachtet werden, sind dargestellt und es sind nicht notwendigerweise alle Steuerleitungen und Informationsleitungen im Produkt dargestellt. In der Praxis kann davon ausgegangen werden, dass nahezu alle Komponenten miteinander verbunden sind.
  • Bezugszeichenliste
  • 100
    Bord-Stereokameravorrichtung
    101
    linke Kamera
    102
    rechte Kamera
    103
    Bildeingabe-Schnittstelle
    104
    Bildverarbeitungseinheit
    105
    Rechenoperations-Verarbeitungseinheit
    106
    Speichereinheit
    107
    CAN-Schnittstelle
    108
    Steuerverarbeitungseinheit
    109
    interner Bus
    110
    Bildverarbeitungsvorrichtung
    111
    Bord-Netzwerk-CAN
    301
    Objekterfassungseinheit
    302
    Verschlechterungszustand-Bestimmungseinheit
    303
    Objektidentifizierungseinheit
    401
    Objektbereich
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2009241636 A [0005]

Claims (10)

  1. Bildverarbeitungsvorrichtung, umfassend: eine Objekterfassungseinheit, die ein in jedem von Bildern enthaltenes Objekt auf Basis der Bilder von einer ersten Kamera und einer zweiten Kamera erfasst; eine Objektidentifizierungseinheit, die einen Typ des erfassten Objekts durch Verwenden des Bildes von der ersten Kamera oder des Bildes von der zweiten Kamera spezifiziert; und eine Verschlechterungszustand-Bestimmungseinheit, die einen Verschlechterungszustand von jedem vom Bild von der ersten Kamera und Bild von der zweiten Kamera bestimmt, wobei die Objektidentifizierungseinheit auf Basis des Verschlechterungszustands bestimmt, welches vom Bild von der ersten Kamera und Bild von der zweiten Kamera verwendet wird.
  2. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Verschlechterungszustand-Bestimmungseinheit das Bild von der ersten Kamera oder das Bild von der zweiten Kamera in eine Vielzahl von Bereichen unterteilt und den Verschlechterungszustand in jedem der Vielzahl von Bereichen bestimmt.
  3. Bildverarbeitungsvorrichtung nach Anspruch 2, wobei die Verschlechterungszustand-Bestimmungseinheit eine Größe von jedem der Vielzahl von Bereichen oder eine Zahl von Unterteilungen für die Vielzahl von Bereichen gemäß einer befahrenen Straße oder einer Außenumgebung eines eigenen Fahrzeugs, an dem die erste Kamera und die zweite Kamera montiert sind, ändert.
  4. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Verschlechterungszustand-Bestimmungseinheit den Verschlechterungszustand von jedem vom Bild von der ersten Kamera und Bild von der zweiten Kamera auf Basis einer Änderung in einer Zahl von Kantenextraktionen oder der Luminanzverteilung des Bildes von der ersten Kamera und des Bildes von der zweiten Kamera bestimmt.
  5. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Objektidentifizierungseinheit bestimmt, welches vom Bild von der ersten Kamera und Bild von der zweiten Kamera für jedes erfasste Objekt verwendet wird.
  6. Bildverarbeitungsvorrichtung nach Anspruch 2, wobei die Objektidentifizierungseinheit auf Basis des Verschlechterungszustands in jedem der Vielzahl von Bereichen und eines Überlappungsgrades zwischen dem erfassten Objekt und der Vielzahl von Bereichen bestimmt, welches vom Bild von der ersten Kamera und vom Bild von der zweiten Kamera verwendet wird.
  7. Bildverarbeitungsvorrichtung nach Anspruch 6, wobei die Objektidentifizierungseinheit durch Vergleichen einer Zahl von Bereichen, in denen das Bild von der ersten Kamera verschlechtert ist, mit einer Zahl von Bereichen, in denen das Bild von der zweiten Kamera verschlechtert ist, in einem überlappenden Bereich vom Verschlechterungszustand, den der Bereich aufweist, in dem das erfasste Objekt mit der Vielzahl von Bereichen überlappt, bestimmt, welches vom Bild von der ersten Kamera und Bild von der zweiten Kamera verwendet wird.
  8. Bildverarbeitungsvorrichtung nach Anspruch 6, wobei die Objektidentifizierungseinheit ein Verhältnis eines Bereichs, in dem das erfasste Objekt mit der Vielzahl von Bereichen überlappt, zu einem Bereich des erfassten Objekts berechnet und das Verhältnis als ein Gewicht für den Verschlechterungszustand verwendet.
  9. Bildverarbeitungsvorrichtung nach Anspruch 8, wobei die Objektidentifizierungseinheit jeden der Vielzahl von Bereichen, unterteilt zur Verschlechterungszustandsbestimmung durch einen Koeffizienten, der zu einer Bildmitte hin zunimmt und zu einem Bildende hin abnimmt, als das Gewicht für den Verschlechterungszustand berechnet.
  10. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Objektidentifizierungseinheit eine Koordinatentransformation zwischen dem Bild von der ersten Kamera und dem Bild von der zweiten Kamera durchführt und einen Prozess zum Identifizieren des Typs des Objekts in einem Bild nach der Koordinatentransformation ausführt.
DE112021005102.4T 2020-12-14 2021-10-21 Bildverarbeitungsvorrichtung Pending DE112021005102T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-207093 2020-12-14
JP2020207093 2020-12-14
PCT/JP2021/039003 WO2022130780A1 (ja) 2020-12-14 2021-10-21 画像処理装置

Publications (1)

Publication Number Publication Date
DE112021005102T5 true DE112021005102T5 (de) 2023-08-17

Family

ID=82059020

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021005102.4T Pending DE112021005102T5 (de) 2020-12-14 2021-10-21 Bildverarbeitungsvorrichtung

Country Status (3)

Country Link
JP (1) JP7466695B2 (de)
DE (1) DE112021005102T5 (de)
WO (1) WO2022130780A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009241636A (ja) 2008-03-28 2009-10-22 Fuji Heavy Ind Ltd 運転支援システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017092752A (ja) * 2015-11-12 2017-05-25 トヨタ自動車株式会社 撮像システム
JP6722084B2 (ja) * 2016-10-06 2020-07-15 株式会社Soken 物体検出装置
JP7033649B2 (ja) * 2018-03-22 2022-03-10 日立Astemo株式会社 車載ステレオカメラ

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009241636A (ja) 2008-03-28 2009-10-22 Fuji Heavy Ind Ltd 運転支援システム

Also Published As

Publication number Publication date
JP7466695B2 (ja) 2024-04-12
WO2022130780A1 (ja) 2022-06-23
JPWO2022130780A1 (de) 2022-06-23

Similar Documents

Publication Publication Date Title
DE102018116111B4 (de) Ein einheitliches tiefes faltendes neuronales Netzwerk für die Abschätzung von Freiraum, die Abschätzung der Objekterkennung und die der Objektstellung
DE102015121339B4 (de) Systeme und verfahren zum ermitteln eines zustands einer fahrbahn
DE102015121387B4 (de) Hinderniserkennungseinrichtung und Hinderniserkennungsverfahren
DE102015209822A1 (de) Erfassungseinrichtung, Erfassungsprogramm, Erfassungsverfahren, mit Erfassungseinrichtung ausgerüstetes Fahrzeug, Parameterberechnungseinrichtung, Parameter berechnende Parameter, Parameterberechnungsprogramm, und Verfahren zum Berechnen von Parametern
DE102015212349A1 (de) Fehlererfassungsvorrichtung und fehlererfassungsprogramm
DE102015208782A1 (de) Objekterfassungsvorrichtung, Fahrunterstützungsvorrichtung, Objekterfassungsverfahren und Objekterfassungsprogramm
EP2856390A1 (de) Verfahren und vorrichtung zur verarbeitung stereoskopischer daten
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
DE102016104730A1 (de) Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE112012004847B4 (de) Verfahren und System zum Detektieren von Linien in einem Bild und Spurdetektionssystem zum Analysieren von Straßenbildern
DE102015205505A1 (de) Verfahren und Vorrichtung zum Detektieren elliptischer Strukturen in einem Bild
DE102016207209A1 (de) Stixel-schätzung und segmentierung des verkehrsgeschehens unter anwendung des "deep learning"
DE112015003988T5 (de) Freiraumerkennungsvorrichtungsvorrichtung und Freiraumerkennungsverfahren
DE112021005102T5 (de) Bildverarbeitungsvorrichtung
DE102018114229A1 (de) Verfahren zum Bestimmen eines Bewegungszustands eines Objekts in Abhängigkeit einer erzeugten Bewegungsmaske und eines erzeugten Begrenzungsrahmens, Fahrerassistenzsystem sowie Kraftfahrzeug
EP2192550A1 (de) Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern
WO2021180679A1 (de) Festlegen eines aktuellen fokusbereichs eines kamerabildes basierend auf der position der fahrzeugkamera an dem fahrzeug und einem aktuellen bewegungsparameter
DE102007027958A1 (de) Verfahren zur Optimierung eines stereoskopischen Bildes
DE112017005670T5 (de) Parklücken-Erkennungsvorrichtung
DE112021002598T5 (de) Bildverarbeitungsvorrichtung
EP4053593A1 (de) Verarbeitung von sensordaten in einem fortbewegungsmittel
DE102016124123A1 (de) Verfahren zum Erzeugen eines Clusters von Bildbereichen zum Erfassen eines Zielobjekts in einem Bild, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug
WO2021180547A1 (de) Verfahren und vorrichtung zum verarbeiten von bildern
DE102019132012A1 (de) Verfahren und System zur Detektion von kleinen unklassifizierten Hindernissen auf einer Straßenoberfläche
DE102019129029A1 (de) System und verfahren zur objektdetektion

Legal Events

Date Code Title Description
R012 Request for examination validly filed