DE112020005059T5 - PROCESSING DEVICE - Google Patents
PROCESSING DEVICE Download PDFInfo
- Publication number
- DE112020005059T5 DE112020005059T5 DE112020005059.9T DE112020005059T DE112020005059T5 DE 112020005059 T5 DE112020005059 T5 DE 112020005059T5 DE 112020005059 T DE112020005059 T DE 112020005059T DE 112020005059 T5 DE112020005059 T5 DE 112020005059T5
- Authority
- DE
- Germany
- Prior art keywords
- parallax
- image
- control target
- value
- parallax image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Abstract
Es wird eine Verarbeitungsvorrichtung geschaffen, die eine Steuernotwendigkeit eines Steuerziels selbst in einem Zustand bestimmen kann, in dem eine Abweichung optischer Achsen einer Stereokamera auftritt. Eine Verarbeitungsvorrichtung gemäß der vorliegenden Erfindung verarbeitet ein Paar aufgenommener Bilder, die durch ein Paar Kameras aufgenommen wurden. Die Verarbeitungsvorrichtung führt folgende Verarbeitung durch: Erzeugen eines ersten Parallaxenbilds aus dem Paar aufgenommener Bilder; Erkennen eines Steuerzielkandidaten aus dem ersten Parallaxenbild; Erfassen eines ersten Parallaxenwerts in einem Kandidatenbereich, in dem der Steuerzielkandidat im erstem Parallaxenbild vorliegt; Versetzen einer relativen vertikalen Position des Paars aufgenommener Bilder und Erzeugen eines zweiten Parallaxenbilds; Erfassen eines zweiten Parallaxenwerts in einem entsprechenden Bereich des zweiten Parallaxenbilds, das dem Kandidatenbereich des ersten Parallaxenbilds entspricht; und Bestimmen unter Verwendung des ersten Parallaxenwerts und des zweiten Parallaxenwerts, ob der Steuerzielkandidat als ein Steuerziel erkannt werden soll oder nicht.A processing apparatus is provided which can determine control necessity of a control target even in a state where optical axis deviation of a stereo camera occurs. A processing device according to the present invention processes a pair of captured images captured by a pair of cameras. The processing device performs the following processing: generating a first parallax image from the pair of captured images; detecting a control target candidate from the first parallax image; acquiring a first parallax value in a candidate area where the control target candidate exists in the first parallax image; offsetting a relative vertical position of the pair of captured images and generating a second parallax image; detecting a second parallax value in a corresponding area of the second parallax image that corresponds to the candidate area of the first parallax image; and determining whether or not to recognize the control target candidate as a control target using the first parallax value and the second parallax value.
Description
Technisches Gebiettechnical field
Die vorliegende Erfindung bezieht sich auf eine Verarbeitungsvorrichtung, die ein aufgenommenes Bild, das z. B. durch eine Stereokamera, die an einem Fahrzeug montiert ist, aufgenommen wurde, verarbeitet.The present invention relates to a processing device which processes a captured image, e.g. B. was processed by a stereo camera mounted on a vehicle.
Technischer HintergrundTechnical background
Herkömmlich war eine Technik zum Schätzen, welcher Teil einer Fahrbahnmarkierung von mehreren Bildern, die mit einer Bewegung eines Trägerfahrzeugs aufgenommen wurden, abgebildet wird, bekannt (PTL 1).Conventionally, a technique for estimating which part of a lane marker is imaged from a plurality of images captured with movement of a host vehicle has been known (PTL 1).
Entgegenhaltungslistecitation list
Patentliteraturpatent literature
PTL 1:
Zusammenfassung der ErfindungSummary of the Invention
Technisches ProblemTechnical problem
Falls die Stereokamerabilder eine Fahrbahnoberfläche wie z. B. eine Pufferzone (eine Zebrastreifenzone), in der eine schräge Linie in einer Tiefenrichtung wiederholt gemalt ist, in einem Zustand, in dem eine relative vertikale Abweichung zwischen einer optischen Achse einer linken Kamera und einer optischen Achse einer rechten Kamera auftritt, abbildet, besteht die Möglichkeit, dass ein Bereich, in dem die Fahrbahnoberflächenfarbe dargestellt ist, fehlerhaft als ein dreidimensionales Objekt detektiert wird. Falls der Bereich, in dem die Fahrbahnoberflächenfarbe dargestellt ist, fehlerhaft als ein dreidimensionales Objekt detektiert wird, besteht die Möglichkeit, dass ein Sicherheitssystem wie z. B. AEB und ACC, das durch eine Stereokamera bereitgestellt wird, derart arbeitet, dass ein unnötiger Alarm, ein unnötiges Bremsen oder dergleichen derart angewendet wird, dass einem Insassen Unbehagen verursacht wird.If the stereo camera images show a road surface such as B. depicting a buffer zone (a crosswalk zone) in which an oblique line is repeatedly painted in a depth direction in a state where a relative vertical deviation occurs between an optical axis of a left camera and an optical axis of a right camera the possibility that an area in which the road surface color is displayed is erroneously detected as a three-dimensional object. If the area where the road surface color is displayed is erroneously detected as a three-dimensional object, there is a possibility that a security system such as B. AEB and ACC, which is provided by a stereo camera, works so that an unnecessary alarm, an unnecessary braking or the like is applied in such a way that an occupant is caused discomfort.
Das oben beschriebene herkömmliche Verfahren dient zum Korrigieren der vertikalen Abweichung zwischen der linken und der rechten Kamera und den Korrekturprozess durchzuführen benötigt Zeit. Falls das Fahrzeug auf einer Fahrbahnoberfläche fährt, die eine Pufferzone aufweist, besteht, bis die Korrektur der vertikalen Abweichung abgeschlossen ist, die Möglichkeit, dass die Pufferzone fehlerhaft als ein dreidimensionales Objekt detektiert wird. Deshalb ist während des Korrekturprozesses der vertikalen Abweichung z. B. ein Mechanismus erforderlich, der das System, das durch die Stereokamera bereitgestellt wird, in einen gestoppten Zustand bringt.The conventional method described above is for correcting the vertical deviation between the left and right cameras, and it takes time to perform the correction process. If the vehicle runs on a road surface having a buffer zone, until the correction of the vertical deviation is completed, there is a possibility that the buffer zone will be erroneously detected as a three-dimensional object. Therefore, during the vertical deviation correction process, e.g. For example, a mechanism is required that brings the system provided by the stereo camera into a stopped state.
Allerdings besteht dann, wenn das System, das durch die Stereokamera bereitgestellt wird, selbst vollständig gestoppt wird, die Möglichkeit, dass das Sicherheitssystem in einer tatsächlich nötigen Situation nicht arbeitet, und besteht die Möglichkeit, dass die Sicherheitsleistungsfähigkeit verschlechtert wird.However, when the system provided by the stereo camera itself is completely stopped, there is a possibility that the security system does not work in an actually necessary situation, and there is a possibility that the security performance is deteriorated.
Eine Aufgabe der vorliegenden Erfindung ist, eine Verarbeitungsvorrichtung zu schaffen, die ungeachtet dessen, ob eine vertikale Abweichung der optischen Achsen zwischen einer linken und einer rechten Kamera einer Stereokamera auftritt oder nicht, zwischen einem dreidimensionalen Objekt und einem nicht dreidimensionalen Objekt differenziert und bestimmt, ob ein Objekt, das durch die Stereokamera als das dreidimensionale Objekt erkannt wird, ein Steuerziel ist oder nicht.An object of the present invention is to provide a processing apparatus that differentiates between a three-dimensional object and a non-three-dimensional object and determines whether or not there is a vertical deviation of the optical axes between left and right cameras of a stereo camera an object recognized by the stereo camera as the three-dimensional object is a control target or not.
Lösung des Problemsthe solution of the problem
Eine Verarbeitungsvorrichtung der vorliegenden Erfindung, die das oben beschriebene Problem löst, ist eine Verarbeitungsvorrichtung, die ein Paar aufgenommener Bilder, die durch ein Paar Kameras aufgenommen wurden, verarbeitet, wobei die Verarbeitungsvorrichtung Folgendes enthält: eine erste Parallaxenbilderzeugungseinheit, die ein erstes Parallaxenbild aus dem Paar aufgenommener Bilder erzeugt; eine Steuerzielkandidaten-Erkennungseinheit, die einen Steuerzielkandidaten aus dem ersten Parallaxenbild erkennt; eine erste Parallaxenwerterfassungseinheit, die einen ersten Parallaxenwert in einem Kandidatenbereich, in dem der Steuerzielkandidat im erstem Parallaxenbild vorliegt, erfasst; eine zweite Parallaxenbilderzeugungseinheit, die eine relative vertikale Position des Paars aufgenommener Bilder versetzt und ein zweites Parallaxenbild erzeugt; eine zweite Parallaxenwerterfassungseinheit, die einen zweiten Parallaxenwert in einem entsprechenden Bereich des zweiten Parallaxenbilds, der dem Kandidatenbereich des ersten Parallaxenbilds entspricht, erfasst; und eine Steuerzielbestimmungseinheit, die unter Verwendung des ersten Parallaxenwerts und des zweiten Parallaxenwerts bestimmt, ob der Steuerzielkandidat als ein Steuerziel erkannt werden soll oder nicht.A processing device of the present invention that solves the above-described problem is a processing device that processes a pair of captured images captured by a pair of cameras, the processing device including: a first parallax image generating unit that generates a first parallax image from the pair captured images; a control target candidate recognition unit that recognizes a control target candidate from the first parallax image; a first parallax value detection unit that detects a first parallax value in a candidate area where the control target candidate exists in the first parallax image; a second parallax image generation unit that offsets a relative vertical position of the pair of captured images and generates a second parallax image; a second parallax value detection unit that detects a second parallax value in a corresponding area of the second parallax image, which corresponds to the candidate area of the first parallax image; and a control target determination unit that determines whether or not to recognize the control target candidate as a control target using the first parallax value and the second parallax value.
Vorteilhafte Wirkungen der ErfindungAdvantageous Effects of the Invention
Gemäß der vorliegenden Erfindung ist es möglich, zu bestimmen, ob ein Objekt, das durch eine Stereokamera als ein dreidimensionales Objekt erkannt wird, ein Steuerziel ist oder nicht. Ferner werden Merkmale, die mit der vorliegenden Erfindung in Beziehung stehen, aus der Beschreibung der vorliegenden Beschreibung und den begleitenden Zeichnungen deutlich. Zusätzlich werden Probleme, Konfigurationen und Wirkungen außer den oben beschriebenen aus der Beschreibung der folgenden Ausführungsformen deutlich.According to the present invention, it is possible to determine whether or not an object recognized as a three-dimensional object by a stereo camera is a control target. Further, features related to the present invention will be apparent from the description of the present specification and accompanying clear from the drawings. In addition, problems, configurations, and effects other than those described above will become apparent from the description of the following embodiments.
Figurenlistecharacter list
-
[
1 ]1 ist ein Blockdiagramm, das eine Gesamtkonfiguration einer Bildgebungsvorrichtung in einer ersten Ausführungsform veranschaulicht. [1 ]1 14 is a block diagram illustrating an overall configuration of an imaging device in a first embodiment. -
[
2 ]2 ist ein Ablaufplan, der einen Steuerzielbestimmungsprozess der Bildgebungsvorrichtung gemäß der ersten Ausführungsform veranschaulicht.[2 ]2 14 is a flowchart illustrating a control target determination process of the imaging device according to the first embodiment. -
[
3 ]3 ist ein Diagramm, das ein linkes und ein rechtes aufgenommenes Bild und ein Parallaxenbild schematisch veranschaulicht.[3 ]3 12 is a diagram schematically illustrating left and right picked-up images and a parallax image. -
[
4 ]4 ist ein Diagramm, das ein Beispiel eines Erkennungsbereichs eines Steuerziels veranschaulicht.[4 ]4 14 is a diagram illustrating an example of a detection area of a control target. -
[
5 ]5 ist ein Diagramm, das eine Differenz zwischen einer Parallaxe in der Ferne und einer Parallaxe in der Nähe in dem linken und dem rechten aufgenommenen Bild veranschaulicht.[5 ]5 Fig. 12 is a diagram illustrating a difference between a far parallax and a near parallax in the left and right captured images. -
[
6 ]6 ein Diagramm zum Erläutern eines Grunds, warum ein Fehler einer Parallaxe abhängig von einem Neigungswinkel einer Linie, die in einem Bild abgebildet ist, variiert.[6 ]6 a diagram for explaining a reason why an error of a parallax varies depending on an inclination angle of a line imaged in an image. -
[
7 ]7 ist ein Diagramm zum Erläutern einer Parallaxe, wenn eine Pufferzone durch eine Stereokamera, in der die optischen Achsen einer linken und einer rechten Kamera in einer vertikalen Richtung relativ abweichen, abgebildet wird.[7 ]7 14 is a diagram for explaining parallax when a buffer zone is imaged by a stereo camera in which the optical axes of left and right cameras relatively deviate in a vertical direction. -
[
8 ]8 ist ein Diagramm, das eine Beziehung zwischen einem Versatzbetrag und einem durchschnittlichen Parallaxenwert veranschaulicht.[8th ]8th FIG. 14 is a graph illustrating a relationship between an offset amount and an average parallax value. -
[
9 ]9 ist ein Diagramm zum Erläutern eines Beispiels, in dem eine Notwendigkeitsbestimmung des Steuerziels auf der Grundlage eines statistischen Ergebnisses durchgeführt wird.[9 ]9 14 is a diagram for explaining an example in which necessity determination of the control target is performed based on a statistical result. -
[
10 ]10 ist ein Ablaufplan, der einen Steuerzielbestimmungsprozess einer Bildgebungsvorrichtung gemäß einer zweiten Ausführungsform veranschaulicht,[10 ]10 14 is a flowchart illustrating a control target determination process of an imaging device according to a second embodiment.
Beschreibung der AusführungsformenDescription of the embodiments
Zunächst wird der Grund beschrieben, warum eine Stereokamera eine Pufferzone fehlerhaft als ein dreidimensionales Objekt detektiert. First, the reason why a stereo camera erroneously detects a buffer zone as a three-dimensional object will be described.
Wie in
In der Stereokamera wird ein dreidimensionales Objekt aus einem Parallaxenbild detektiert, wie in
In dem Beispiel, das in
Zwei vorausfahrende Fahrzeuge 511 und 521 sind sowohl in einem durch die linke Kamera aufgenommenen Bild 501 als auch einem durch die rechte Kamera aufgenommenen Bild 502 abgebildet. Aufgrund des Merkmals der Stereokamera ist, wie in
Zum Beispiel sind, falls die Linien, die in
Im Vergleich des Fehlers δ1 zum Fehler 52 ist die Neigung der schrägen Linie 613 des Bilds 603, das in
Es ist festzuhalten, dass, falls die optische Achse der linken Kamera L und die optische Achse der rechten Kamera R vollständig parallel sind und nicht in der vertikalen Richtung relativ abweichen, die Positionen in der Links-/Rechts-Richtung während des Abbildens durch die linke Kamera und während des Abbildens durch die rechte Kamera gleich sind und kein Parallaxenfehler auftritt. Der Parallaxenfehler, der in
Deshalb wird dann, wenn die optischen Achsen der linken und rechten Kamera in der vertikalen Richtung relativ abweichen, eine Messungsparallaxe in der Nähe durch Addieren der relativ großen korrekten Parallaxe 711 und des relativ kleinen Parallaxenfehlers 721 erhalten, wird eine Messungsparallaxe in der Ferne durch Addieren der relativ kleinen korrekten Parallaxe 713 und des relativ großen Parallaxenfehlers 723 erhalten und wird eine Zwischenmessungsparallaxe zwischen der Nähe und der Ferne durch Addieren der korrekten Parallaxe 712 der Zwischenmagnitude und des Parallaxenfehlers 722 der Zwischenmagnitude erhalten. Deshalb sind die Messungsparallaxen in der Nähe, der Ferne und dazwischen einander gleich, nämlich die Messungsparallaxe 703, wobei es einen Bereich gibt, der dieselbe Parallaxe in der vertikalen Richtung im Parallaxenbild besitzt, und die Möglichkeit besteht, dass das Vorliegen des dreidimensionalen Objekts fehlerhaft detektiert wird.Therefore, when the optical axes of the left and right cameras deviate relatively in the vertical direction, a near measurement parallax is obtained by adding the relatively large
Um ein derartiges Problem zu lösen, führt eine Bildgebungsvorrichtung gemäß der vorliegenden Ausführungsform einen Prozess des Differenzierens zwischen einem dreidimensionalen Objekt und einem nicht dreidimensionalen Objekt, ungeachtet davon, ob eine vertikale Abweichung der optischen Achsen zwischen der linken und der rechten Kamera der Stereokamera auftritt oder nicht, und des Bestimmens, ob ein Objekt, das durch die Stereokamera als das dreidimensionale Objekt erkannt wird, ein Steuerziel ist oder nicht, durch.In order to solve such a problem, an imaging apparatus according to the present embodiment performs a process of differentiating between a three-dimensional object and a non-three-dimensional object regardless of whether or not vertical optical axis deviation occurs between the left and right cameras of the stereo camera , and determining whether or not an object recognized by the stereo camera as the three-dimensional object is a control target.
Im Folgenden werden Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen beschrieben.In the following, embodiments of the present invention will be described with reference to the drawings.
Die Bildgebungsvorrichtung gemäß der vorliegenden Ausführungsform ist konfiguriert, einen durchschnittlichen Parallaxenwert, der erhalten wird, wenn ein Paar aufgenommener Bilder, die durch ein Paar von Bildgebungseinheiten aufgenommen werden, in der vertikalen Richtung nicht versetzt sind, und einen durchschnittlichen Parallaxenwert, der erhalten wird, wenn die aufgenommenen Bilder in der vertikalen Richtung relativ versetzt sind, zu berechnen und die Steuernotwendigkeit des Steuerziels auf der Grundlage einer Verteilungsform eines Versatzbetrags und des durchschnittlichen Parallaxenwerts zu bestimmen.The imaging device according to the present embodiment is configured, an average parallax value obtained when a pair of captured images captured by a pair of imaging units are not offset in the vertical direction, and an average parallax value obtained when the captured images are relatively offset in the vertical direction, and determine the control necessity of the control target based on a distribution form of an offset amount and the average parallax value.
<Erste Ausführungsform><First Embodiment>
Eine Bildgebungsvorrichtung 100 ist an einem Fahrzeug wie z. B. einem Personenkraftwagen montiert und ist eine Stereokamera, die einen Prozess des Abbildens der Vorderseite des Fahrzeugs durch ein Paar einer linken und einer rechten Kamera, ein Bestimmen des Vorliegens oder des Fehlens eines dreidimensionalen Objekts auf der Grundlage einer Parallaxe oder ein Erkennen des Typs des dreidimensionalen Objekts durchführt.An
Die Bildgebungsvorrichtung 100 enthält eine erste Bildgebungseinheit 11 und eine zweite Bildgebungseinheit 12, die ein Paar Kameras sind, und einer Verarbeitungsvorrichtung 1, die zwei aufgenommene Bilder, die durch die erste Bildgebungseinheit 11 und die zweite Bildgebungseinheit 12 aufgenommen wurden, verarbeitet. In der vorliegenden Ausführungsform wird ein Fall, in dem die Verarbeitungsvorrichtung 1 in der Bildgebungsvorrichtung 100, die eine Stereokamera ist, konfiguriert ist, als ein Beispiel beschrieben. Allerdings ist eine Stelle, bei der die Verarbeitungsvorrichtung 1 konfiguriert ist, nicht auf den Innenraum der Bildgebungsvorrichtung 100 beschränkt und kann die Verarbeitungsvorrichtung in einer ECU oder dergleichen konfiguriert sein, die von der Bildgebungsvorrichtung 100 getrennt vorgesehen ist.The
Die erste Bildgebungseinheit 11 und die zweite Bildgebungseinheit 12 sind bei Positionen, die in einer Fahrzeugbreitenrichtung voneinander getrennt sind, im Fahrzeuginnenraum des Personenkraftwagens angeordnet und bilden einen Überlappungsbereich vor dem Fahrzeug durch eine Windschutzscheibe ab. Die erste Bildgebungseinheit 11 und die zweite Bildgebungseinheit 12 sind z. B. durch eine Anordnung konfiguriert, die durch Kombinieren einer optischen Systemkomponente wie z. B. eines Objektivs und eines Bildgebungselements wie z. B. einer CCD oder eines CMOS erhalten wird. Die erste Bildgebungseinheit 11 und die zweite Bildgebungseinheit 12 werden derart angepasst, dass die optischen Achsen zueinander parallel sind und dieselbe Höhe besitzen. Die aufgenommenen Bilder, die durch die erste Bildgebungseinheit 11 und die zweite Bildgebungseinheit 12 aufgenommen wurden, werden in die Verarbeitungsvorrichtung 1 eingegeben.The
Die Verarbeitungsvorrichtung 1 enthält z. B. Hardware, die eine CPU, einen Speicher und dergleichen enthält, und Software, die in der Hardware installiert ist und ausgeführt wird. Die Verarbeitungsvorrichtung 1 enthält als interne Funktionen eine erste Bilderfassungseinheit 13, eine zweite Bilderfassungseinheit 14, eine erste Parallaxenbilderzeugungseinheit 15, eine Steuerzielkandidaten-Erkennungseinheit 16, eine erste Parallaxenwerterfassungseinheit 17, eine zweite Parallaxenbilderzeugungseinheit 18, eine zweite Parallaxenwerterfassungseinheit 19 und eine Steuerzielbestimmungseinheit 20.The
Die erste Bilderfassungseinheit 13 und die zweite Bilderfassungseinheit 14 erfassen aufgenommene Bilder, die durch die erste Bildgebungseinheit 11 und die zweite Bildgebungseinheit 12 gleichzeitig und periodisch aufgenommen werden. Die erste Bilderfassungseinheit 13 und die zweite Bilderfassungseinheit 14 schneiden Bilder eines vorgegebenen Bereichs, die einander überlappen, aus einem Paar aufgenommener Bilder, die durch die erste Bildgebungseinheit 11 und die zweite Bildgebungseinheit 12 gleichzeitig aufgenommen wurden, aus und erfassen die Bilder als ein erstes Bild bzw. ein zweites Bild.The first
Die erste Parallaxenbilderzeugungseinheit 15 erzeugt ein erstes Parallaxenbild unter Verwendung des Paars aufgenommener Bilder, die durch die erste Bilderfassungseinheit 13 und die zweite Bilderfassungseinheit 14 erfasst wurden. Als ein Verfahren zum Erzeugen des ersten Parallaxenbilds kann ein herkömmlicherweise allgemein bekanntes Verfahren verwendet werden. Zum Beispiel wird auf der Grundlage des ersten Bilds eine Pixelspalte des zweiten Bilds bei derselben Höhenposition in der vertikalen Richtung wie das erste Bild in der Querrichtung abgetastet, um einen mit dem ersten Bild abgeglichenen Punkt zu finden, und ein Abweichungsbetrag in der Querrichtung zwischen dem ersten Bild und dem zweiten Bild wird als eine Parallaxe berechnet, d. h. ein sogenannter Stereoabgleich wird durchgeführt.The first parallax
Die Steuerzielkandidaten-Erkennungseinheit 16 detektiert ein dreidimensionales Objekt aus dem ersten Parallaxenbild, das durch die erste Parallaxenbilderzeugungseinheit 15 erzeugt wird, und erkennt das dreidimensionale Objekt als einen Steuerzielkandidaten. Zum Beispiel wird im Vergleich zum Betrag einer Änderung der Parallaxe in der vertikalen Richtung des Bilds, das einen Zustand abbildet, in dem das dreidimensionale Objekt nicht vorhanden ist und sich eine flache Oberfläche fortsetzt, bestimmt, dass ein dreidimensionales Objekt in einem Bereich vorhanden ist, in dem der Betrag einer Änderung der Parallaxe in der vertikalen Richtung des Bilds klein ist. Falls mehrere dreidimensionale Objekte aus dem ersten Parallaxenbild detektiert werden, erkennt die Steuerzielkandidaten-Erkennungseinheit 16 jedes der dreidimensionalen Objekte als einen Steuerzielkandidaten. Die Steuerzielkandidaten-Erkennungseinheit 16 erfasst Koordinateninformationen des Kandidatenbereichs, in dem der Steuerzielkandidat im erstem Parallaxenbild erkannt wird (z. B. die Bereiche 331 und 332 in
Die erste Parallaxenwerterfassungseinheit 17 erfasst einen ersten Parallaxenwert, der ein Parallaxenberechnungswert ist, im Kandidatenbereich, in dem der Steuerzielkandidat im erstem Parallaxenbild vorliegt. Die erste Parallaxenwerterfassungseinheit 17 führt einen Prozess des Erfassens des ersten Parallaxenwerts lediglich aus, falls der Steuerzielkandidat durch die Steuerzielkandidaten-Erkennungseinheit 16 erkannt wird. Die erste Parallaxenwerterfassungseinheit 17 führt den Prozess des Erfassens des ersten Parallaxenwerts nicht durch, falls die Steuerzielkandidaten-Erkennungseinheit 16 keinen Steuerzielkandidat erkennt. Als der erste Parallaxenwert, der der Parallaxenberechnungswert ist, kann z. B. ein durchschnittlicher Parallaxenwert im Kandidatenbereich werden verwendet. Der durchschnittliche Parallaxenwert im Kandidatenbereich wird aus dem Parallaxenwert und der Anzahl von Parallaxen im Kandidatenbereich berechnet. Es ist festzuhalten, dass der Parallaxenberechnungswert nicht auf den durchschnittlichen Parallaxenwert beschränkt ist und ein Parallaxenvarianzwert, ein maximaler Parallaxenwert, ein minimaler Parallaxenwert, eine Differenz zwischen dem maximalen Parallaxenwert und dem minimalen Parallaxenwert, ein Verhältnis zwischen dem maximalen Parallaxenwert und dem minimalen Parallaxenwert, ein Durchschnittswert des maximalen Parallaxenwerts oder ein Durchschnittswert des minimalen Parallaxenwerts verwendet werden kann.The first parallax
Die zweite Parallaxenbilderzeugungseinheit 18 erzeugt mehrere zweite Parallaxenbilder unter Verwendung des Paars aufgenommener Bilder, das verwendet wird, um das erste Parallaxenbild zu erzeugen. Die zweite Parallaxenbilderzeugungseinheit 18 erzeugt das zweite Parallaxenbild unter Verwendung eines Paars versetzter Bilder, die in einem Zustand ausgeschnitten werden, in dem eine relative obere und eine relative untere Position des ersten Bilds und des zweiten Bilds für jede Koordinate in der vertikalen Richtung oder für jeden gleich unterteilten Abschnitt versetzt sind. Die zweite Parallaxenbilderzeugungseinheit 18 versetzt die Position des ersten Bilds und/oder des zweiten Bilds lediglich in einer Aufwärtsrichtung, lediglich in einer Abwärtsrichtung oder sowohl in der Aufwärts- als auch der Abwärtsrichtung und schneidet das Paar versetzter Bilder aus.The second parallax
Die zweite Parallaxenbilderzeugungseinheit 18 erzeugt mehrere Paare versetzter Bilder durch Ändern des Versatzbetrags in der vertikalen Richtung und erzeugt mehrere zweite Parallaxenbilder unter Verwendung der versetzten Bilder. Das heißt, die zweite Parallaxenbilderzeugungseinheit 18 erzeugt die mehreren Paare versetzter Bilder durch mehrmaliges Versetzen der Position des ersten Bilds und/oder des zweiten Bilds und erzeugt jeweilige zweite Parallaxenbilder aus den mehreren Paaren versetzter Bilder.The second parallax
Die zweite Parallaxenwerterfassungseinheit 19 erfasst den zweiten Parallaxenwert, der der Parallaxenberechnungswert im entsprechenden Bereich ist, aus dem entsprechenden Bereich des zweiten Parallaxenbilds. Der entsprechende Bereich des zweiten Parallaxenbilds wird bei derselben Position wie der Kandidatenbereich des ersten Parallaxenbilds eingestellt. Da die mehreren zweiten Parallaxenbilder erzeugt werden, wird ein entsprechender Bereich bei derselben Position wie der Kandidatenbereich des ersten Parallaxenbilds für jedes zweites Parallaxenbild eingestellt und wird der zweite Parallaxenwert jedes entsprechenden Bereichs erhalten. Falls mehrere Kandidatenbereiche des ersten Parallaxenbilds vorliegen, werden die entsprechenden Bereiche des zweiten Parallaxenbilds zu entsprechen jeweiligen Kandidatenbereichen eingestellt und wird der zweite Parallaxenwert jedes entsprechenden Bereichs erhalten.The second parallax
Ähnlich zum ersten Parallaxenwert kann z. B. ein durchschnittlicher Parallaxenwert im entsprechenden Bereich als der zweite Parallaxenwert verwendet werden. Der durchschnittliche Parallaxenwert im entsprechenden Bereich wird aus dem Parallaxenwert und der Anzahl von Parallaxen im entsprechenden Bereich berechnet.Similar to the first parallax value, e.g. B. an average parallax value in the corresponding area can be used as the second parallax value. The average parallax value in the corresponding area is calculated from the parallax value and the number of parallaxes in the corresponding area.
Zusätzlich kann, um einen Vergleich mit demselben Berechnungswert wie der erste Parallaxenwert durchzuführen, ein Parallaxenvarianzwert, ein maximaler Parallaxenwert, ein minimaler Parallaxenwert, eine Differenz zwischen dem maximalen Parallaxenwert und dem minimalen Parallaxenwert, ein Verhältnis zwischen dem maximalen Parallaxenwert und dem minimalen Parallaxenwert, ein Durchschnittswert des maximalen Parallaxenwerts oder ein Durchschnittswert des minimalen Parallaxenwerts verwendet werden. Der zweite Parallaxenwert wird in jedem der mehreren zweiten Parallaxenbilder berechnet.In addition, to perform a comparison with the same calculation value as the first parallax value, a parallax variance value, a maximum parallax value, a minimum parallax value, a difference between the maximum parallax value and the minimum parallax value, a ratio between the maximum parallax value and the minimum parallax value, an average value of the maximum parallax value or an average value of the minimum parallax value can be used. The second parallax value is calculated in each of the plurality of second parallax images.
Unter Verwendung des ersten Parallaxenbilds, das durch die erste Parallaxenbilderzeugungseinheit 15 erzeugt wird, und der mehreren zweiten Parallaxenbilder, die durch die zweite Parallaxenbilderzeugungseinheit 18 erzeugt werden, bestimmt die Steuerzielbestimmungseinheit 20 die Notwendigkeit des Steuerobjekts, d. h., ob der Steuerzielkandidat, der als das dreidimensionale Objekt detektiert wird, als das Steuerobjekt erkannt wird oder nicht. Die Steuerzielbestimmungseinheit 20 führt die Notwendigkeitsbestimmung des Steuerziels auf der Grundlage des Parallaxenberechnungswerts, der in jedem des ersten Parallaxenbilds und der mehreren zweiten Parallaxenbilder berechnet wird, durch.Using the first parallax image generated by the first parallax
In Schritt S201 wird eine Bilderfassung durchgeführt. Hier wird ein Paar aufgenommener Bilder, die durch die erste Bildgebungseinheit 11 und die zweite Bildgebungseinheit 12 gleichzeitig aufgenommen wurden, durch die erste Bilderfassungseinheit 13 und die zweite Bilderfassungseinheit 14 erfasst. Dann wird in Schritt S202 das erste Parallaxenbild erzeugt. Das erste Parallaxenbild wird durch die erste Parallaxenbilderzeugungseinheit 15 unter Verwendung des Paars aufgenommener Bilder, die durch die erste Bilderfassungseinheit 13 und die zweite Bilderfassungseinheit 14 erfasst wurden, erzeugt.In step S201, image acquisition is performed. Here, a pair of captured images captured by the
In Schritt S203 wird bestimmt, ob der Steuerzielkandidat vorhanden ist oder nicht. Ob der Steuerzielkandidat vorhanden ist oder nicht, wird abhängig davon bestimmt, ob ein dreidimensionales Objekt aus dem ersten Parallaxenbild detektiert wird oder nicht. Hier wird, falls mindestens ein dreidimensionales Objekt detektiert wird, bestimmt, dass der Steuerzielkandidat vor dem Trägerfahrzeug vorhanden ist (JA in Schritt S203), und der Prozess schreitet fort zu Schritt S204.In step S203, it is determined whether or not the control target candidate is present. Whether or not the control target candidate is present is determined depending on whether or not a three-dimensional object is detected from the first parallax image. Here, if at least one three-dimensional object is detected, it is determined that the control target candidate exists in front of the host vehicle (YES in step S203), and the process proceeds to step S204.
Andererseits wird, falls kein dreidimensionales Objekt detektiert wird, bestimmt, dass kein Steuerzielkandidat vor dem Trägerfahrzeug vorhanden ist (NEIN in Schritt S203), und der Prozess kehrt zurück zu Schritt S201. Das heißt, in Schritt S203 wird ein Prozess durchgeführt, der zwischen dem dreidimensionalen Objekt und dem nicht dreidimensionalen Objekt differenziert und lediglich an dem Objekt, das als das dreidimensionale Objekt erkannt wird, eine Bestimmung dahingehend durchführt, ob das Objekt in und nach Schritt S204 als das Steuerziel betrachtet wird oder nicht.On the other hand, if no three-dimensional object is detected, it is determined that there is no control target candidate in front of the host vehicle (NO in step S203), and the process returns to step S201. That is, in step S203, a process is performed that differentiates between the three-dimensional object and the non-three-dimensional object and makes a determination on only the object recognized as the three-dimensional object as to whether the object in and after step S204 as the control target is considered or not.
In Schritt S204 wird ein Prozess des Versetzens von Bildern in der vertikalen Richtung durchgeführt. Hier wird ein Prozess durchgeführt, in dem ein Paar versetzter Bilder aus dem Paar aufgenommener Bilder, die während der Erzeugung des ersten Parallaxenbilds verwendet werden, erfasst wird, indem das erste Bild und das zweite Bild für jede Koordinate in der vertikalen Richtung oder für jeden gleich unterteilten Abschnitt relativ versetzt werden.In step S204, a process of shifting images in the vertical direction is performed. Here, a process is performed in which a pair of offset images is acquired from the pair of captured images used during generation of the first parallax image by using the first image and the second image for each coordinate in the vertical direction or the same for each divided section can be offset relatively.
In Schritt S205 wird eine Parallaxe durch einen Stereoabgleich unter Verwendung des Paars versetzter Bilder berechnet, um das zweite Parallaxenbild zu erzeugen. In Schritt S206 wird bestimmt, ob mehrere Parallaxenbilder vorliegen oder nicht. Dann wird, falls die Anzahl zweiter Parallaxenbilder kleiner als eine voreingestellte vorgegebene Anzahl von zwei oder mehr ist, bestimmt, dass nicht mehrere Parallaxenbilder vorliegt (NEIN in Schritt S206), und der Prozess kehrt zurück zu Schritt S204. Dann wird in den Schritten S204 und S205 der Versatzbetrag des Paars von Bildern in der vertikalen Richtung geändert, um ein weiteres Paar versetzter Bilder, die verschiedene Versatzbeträge besitzen, zu erzeugen und ferner ein weiteres zweites Parallaxenbild zu erzeugen. Dann wird, bis in Schritt S206 bestimmt wird, dass die vorgegebene Anzahl oder mehr zweiter Parallaxenbilder vorliegen (JA in Schritt S206), ein Prozess des Erzeugens des zweiten Parallaxenbilds aus dem Paar von Bildern, die durch Ändern des Versatzbetrags erhalten werden, durchgeführt.In step S205, a parallax is calculated by stereo matching using the pair of offset images to generate the second parallax image. In step S206, it is determined whether or not there are multiple parallax images. Then, if the number of second parallax images is less than a preset predetermined number of two or more, it is determined that there are not plural parallax images (NO in step S206), and the process returns to step S204. Then, in steps S204 and S205, the offset amount of the pair of images in the vertical direction is changed to generate another pair of offset images having different offset amounts and further generate another second parallax image. Then, until it is determined in step S206 that there are the predetermined number or more of second parallax images (YES in step S206), a process of generating the second parallax image from the pair of images obtained by changing the offset amount is performed.
Der Versatzbetrag kann z. B. ein Betrag, der um ein Pixel oder mehrere Pixel versetzt wird, sein. Zusätzlich ist es ausreichend, wenn eine Versatzrichtung z. B. eine Ober- und/oder Unterseite des zweiten Bilds in Bezug auf das erste Bild ist. In der vorliegenden Ausführungsform wird ein Paar versetzter Bilder durch Versetzen des zweiten Bild sowohl zu der Ober- als auch der Unterseite in Bezug auf das erste Bilds erzeugt und werden die zweiten Parallaxenbilder jeweils aus den mehreren Paaren versetzter Bilder erzeugt.The offset amount can e.g. B. an amount offset by one or more pixels. In addition, it is sufficient if an offset direction z. B. is a top and/or bottom of the second image with respect to the first image. In the present embodiment, a pair of offset images is formed by offsetting the second image to both the top and bottom in generated with respect to the first image, and the second parallax images are generated from the multiple pairs of offset images, respectively.
In Schritt S207 wird eine Verteilung durchschnittlicher Parallaxenwerte erstellt. Hier werden der erste Parallaxenwert des Kandidatenbereichs im erstem Parallaxenbild und des zweiten Parallaxenwerts des entsprechenden Bereichs in den mehreren zweiten Parallaxenbildern berechnet und wird eine Näherungsgerade aus der Verteilung dieser Parallaxenwerte erhalten.In step S207, a distribution of average parallax values is created. Here, the first parallax value of the candidate area in the first parallax image and the second parallax value of the corresponding area in the plurality of second parallax images are calculated, and an approximate straight line is obtained from the distribution of these parallax values.
In Schritt S208 wird die Steigung der Näherungsgerade der Verteilung, die in Schritt S207 erhalten wird, mit dem voreingestellten Schwellenwert verglichen. Falls der Steuerzielkandidat ein korrekt erkanntes dreidimensionales Objekt ist, ändert sich der Parallaxenwert im Erkennungsbereich des Steuerzielkandidaten aufgrund der vertikalen Abweichung nicht und ist somit die Verteilung eine Näherungsgerade mit einer Steigung von null. Andererseits wird, falls die Steigung der Näherungsgerade der Verteilung größer als der Schwellenwert ist, bestimmt, dass sich der Parallaxenwert des entsprechenden Bereich aufgrund der vertikalen Abweichung zwischen dem ersten Bild und den mehreren zweiten Bildern ändert.In step S208, the slope of the approximate straight line of the distribution obtained in step S207 is compared with the preset threshold. If the control target candidate is a correctly recognized three-dimensional object, the parallax value in the recognition area of the control target candidate does not change due to the vertical deviation, and thus the distribution is an approximate straight line with zero slope. On the other hand, if the slope of the approximate straight line of the distribution is larger than the threshold value, it is determined that the parallax value of the corresponding area changes due to the vertical deviation between the first image and the plurality of second images.
Wenn der Steuerzielkandidat, der im erstem Parallaxenbild durch die Steuerzielkandidaten-Erkennungseinheit 16 als das dreidimensionale Objekt erkannt wird, ein echtes dreidimensionales Objekt wie z. B. ein vorausfahrendes Fahrzeug, ein Fahrrad oder ein Fußgänger ist, ändert sich der Parallaxenwert zwischen dem Steuerzielkandidatenbereich und dem entsprechenden Bereich nicht, ohne durch das Vorliegen oder das Fehlen des Auftretens der vertikalen Abweichung beeinflusst zu werden. Andererseits besitzen dann, wenn der Steuerzielkandidat, der im erstem Parallaxenbild durch die Steuerzielkandidaten-Erkennungseinheit 16 als das dreidimensionale Objekt erkannt wird, ein nicht dreidimensionales Objekt wie z. B. eine Pufferzone (Zebrazone) einer Fahrbahnoberfläche ist, der Parallaxenwert des Kandidatenbereichs und des Parallaxenwert des entsprechenden Bereichs ein Merkmal des sich Änderns abhängig davon, ob eine vertikale Abweichung auftritt oder nicht.When the control target candidate recognized as the three-dimensional object in the first parallax image by the control target
In Schritt S209 wird ein Prozess ausgeführt, in dem bestimmt wird, dass der Steuerzielkandidat, der in Schritt S208 derart bestimmt wurde, dass die Steigung der Näherungsgerade der Verteilung größer als der Schwellenwert im Vergleichsergebnis ist, ein Ziel ist, das nicht gesteuert werden muss, und es aus dem Steuerziel ausgeschlossen wird. Dann wird bestimmt, dass der Steuerzielkandidat, der verbleibt, ohne aus den Steuerzielkandidaten ausgeschlossen zu werden, ein Steuerziel ist, der gesteuert werden muss, und es werden Informationen über das Steuerziel ausgegeben.In step S209, a process is executed in which it is determined that the control target candidate determined in step S208 such that the slope of the approximate straight line of the distribution is larger than the threshold value in the comparison result is a target that does not need to be controlled. and it is excluded from the tax target. Then, it is determined that the control target candidate remaining without being excluded from the control target candidates is a control target that needs to be controlled, and information about the control target is output.
Zum Beispiel wird, wie in
Andererseits wird, wie in
Es ist festzuhalten, dass ein Beispiel beschrieben ist, in dem die Verteilung des durchschnittlichen Parallaxenwerts in Schritt S207 erstellt wird, und auf der Grundlage der Steigung der Näherungsgerade der Verteilung in Schritt S208 bestimmt wird, ob der Steuerzielkandidat aus dem Steuerziel ausgeschlossen wird oder nicht. Allerdings ist die vorliegende Erfindung nicht auf dieses Beispiel beschränkt. Zum Beispiel kann als eine weitere Änderung statt der Steigung der Verteilungsnäherungsgerade ein Parallaxenvarianzwert, ein maximaler Parallaxenwert, ein minimaler Parallaxenwert, eine Differenz zwischen dem maximalen Parallaxenwert und dem minimalen Parallaxenwert, ein Verhältnis zwischen dem maximalen Parallaxenwert und dem minimalen Parallaxenwert, ein Durchschnittswert des maximalen Parallaxenwerts oder ein Durchschnittswert des minimalen Parallaxenwerts verwendet werden.Note that an example is described in which the distribution of the average parallax value is prepared in step S207, and whether or not the control target candidate is excluded from the control target is determined based on the slope of the approximate straight line of the distribution in step S208. However, the present invention is not limited to this example. For example, as another change, instead of the slope of the distribution approximation line, a parallax variance value, a maximum parallax value, a minimum parallax value, a difference between the maximum parallax value and the minimum parallax value, a ratio between the maximum parallax value and the minimum parallax value, an average value of the maximum parallax value or a through intersection value of the minimum parallax value can be used.
In dem Beispiel, das in
Die Bildgebungsvorrichtung 100 gemäß der vorliegenden Ausführungsform erfasst das erste Bild und das zweite Bild aus dem Paar aufgenommener Bilder, erzeugt das erste Parallaxenbild unter Verwendung des ersten Bilds und des zweiten Bilds, detektiert das dreidimensionale Objekt aus dem ersten Parallaxenbild, um das dreidimensionale Objekt als den Steuerzielkandidaten zu erkennen, und erfasst den Parallaxenwert in dem Kandidatenbereich, in dem der Steuerzielkandidat als der erste Parallaxenwert vorhanden ist. Dann wird das Paar versetzter Bilder, in denen die relative Positionsbeziehung in der vertikalen Richtung in Bezug auf das erste Bild und das zweite Bild versetzt ist, aus dem Paar aufgenommener Bilder, aus dem das erste Bild und das zweite Bild erfasst wurden, erfasst, wird das zweite Parallaxenbild aus dem Paar versetzter Bilder erzeugt, wird der entsprechende Bereich, der dem Kandidatenbereich des ersten Parallaxenbilds im zweitem Parallaxenbild entspricht, eingestellt und wird der Parallaxenwert im entsprechenden Bereich als der zweite Parallaxenwert erfasst.The
Dann wird das Paar versetzter Bilder, in denen der Versatzbetrag geändert wurde, aus dem Paar aufgenommener Bilder, aus dem das erste Bild und das zweite Bild erfasst wurden, erfasst, wird das zweite Parallaxenbild erzeugt, wird der entsprechende Bereich eingestellt, wird der zweite Parallaxenwert im entsprechenden Bereich erfasst und werden die mehreren zweiten Parallaxenwerte, die verschiedene Versatzbeträge besitzen, erfasst. Dann wird aus der Verteilungssituation des ersten Parallaxenwerts und der mehreren zweiten Parallaxenwerte bestimmt, ob der Steuerzielkandidat derart fehlerhaft detektiert wird, dass die Pufferzone das dreidimensionale Objekt ist, oder nicht, und falls bestimmt wird, dass der Steuerzielkandidat fehlerhaft detektiert wurde, wird ein Prozess durchgeführt, der den Steuerzielkandidaten aus dem Steuerziel ausschließt. Zum Beispiel wird, falls der erste Parallaxenwert und die mehreren zweiten Parallaxenwerte im Wesentlichen derselbe Wert sind, bestimmt, dass eine korrekte Detektion vorgenommen wurde, und wird, falls sich die mehreren zweiten Parallaxenwerte in Bezug auf den ersten Parallaxenwert abhängig vom Versatzbetrag ändern, bestimmt, dass eine fehlerhafte Detektion vorgenommen wurde.Then, the pair of offset images in which the offset amount has been changed is acquired from the pair of captured images from which the first image and the second image were acquired, the second parallax image is generated, and the corresponding area is set, the second parallax value becomes in the corresponding area are detected and the plurality of second parallax values having different offset amounts are detected. Then, from the distribution situation of the first parallax value and the plurality of second parallax values, it is determined whether or not the control target candidate is erroneously detected such that the buffer zone is the three-dimensional object, and if it is determined that the control target candidate has been erroneously detected, a process is performed , which excludes the control target candidate from the control target. For example, if the first parallax value and the plurality of second parallax values are substantially the same value, it is determined that a correct detection has been made, and if the plurality of second parallax values change with respect to the first parallax value depending on the offset amount, it is determined that that an erroneous detection was made.
Gemäß der Bildgebungsvorrichtung 100 der vorliegenden Ausführungsform ist es möglich, die Steuernotwendigkeit des Steuerziels selbst in einem Zustand zu bestimmen, in dem die Abweichung optischer Achsen in der linken und der rechten Kamera auftritt. Deshalb kann bestimmt werden, dass die Pufferzone fehlerhaft als ein dreidimensionales Objekt detektiert wurde und sie aus dem Steuerziel ausgeschlossen werden, ist es möglich, zu verhindern, dass ein Sicherheitssystem wie z. B. AEB oder ACC derart arbeitet, dass es einen unnötigen Alarm oder ein unnötiges Bremsen anwendet, und ist es möglich, zu verhindern, einem Fahrer Unbehagen zu bereiten.According to the
<Zweite Ausführungsform><Second embodiment>
Ein kennzeichnendes Merkmal der vorliegenden Ausführungsform ist, dass ein dreidimensionales Objekt, das ein Merkmal eines wiederholten Musters besitzt, wie z. B. ein Zaun oder eine Sperre als ein Steuerziel erkannt wird. Zum Beispiel besitzt selbst ein dreidimensionales Objekt, das ein Merkmal eines wiederholten Muster besitzt, wie z. B. ein Zaun oder eine Sperre ein Merkmal, dass sich der Parallaxenwert im entsprechenden Bereich des zweiten Parallaxenbilds, das in Schritt S205 erhalten wird, ändert, wenn die vertikale Abweichung des Paars von Kameras auftritt.A characteristic feature of the present embodiment is that a three-dimensional object having a feature of a repeated pattern, e.g. B. a fence or barrier is recognized as a control target. For example, even a three-dimensional object that has a feature of a repeated pattern, such as B. a fence or a barrier, a feature that the parallax value in the corresponding area of the second parallax image obtained in step S205 changes when the vertical deviation of the pair of cameras occurs.
Allerdings tritt, da der Zaun oder die Sperre das Steuerziel ist, das durch das Sicherheitssystem gesteuert werden muss, ein Prozess auf, um die Zäune oder die Sperre nicht aus dem Steuerziel auszuschließen. Im Folgenden wird ein Ablauf des Prozesses, um den Zaun oder die Sperre nicht aus dem Steuerziel auszuschließen, auf der Grundlage des Ablaufplans von
Falls in Schritt S203 bestimmt wird, dass ein Steuerzielkandidat vorhanden ist, wird in Schritt S210 bestimmt, ob die Trägerfahrzeuggeschwindigkeit größer als ein Schwellenwert ist oder nicht. Wenn der Zaun oder die Sperre als das Steuerziel erkannt wird, kann bestimmt werden, dass der Zaun oder die Sperre auf dem Fahrpfad des Trägerfahrzeugs positioniert ist, und es kann geschätzt werden, dass das Trägerfahrzeug mit einer niedrigen Geschwindigkeit fährt. Deshalb schreitet lediglich dann, wenn die Trägerfahrzeuggeschwindigkeit größer als der voreingestellte Fahrzeuggeschwindigkeitsschwellenwert ist (JA in Schritt S210), der Prozess zu Schritt S204 fort und wird dann, wenn die Trägerfahrzeuggeschwindigkeit [, bei der die Bildgebungsvorrichtung 100 montiert ist,] gleich oder kleiner als der Fahrzeuggeschwindigkeitsschwellenwert ist (NEIN in Schritt S210), die Erzeugung des zweiten Parallaxenbilds nicht durchgeführt.If it is determined in step S203 that there is a control target candidate, it is determined in step S210 whether or not the host vehicle speed is greater than a threshold value. When the fence or barrier is recognized as the control target, it can be determined that the fence or barrier is running on the carrier's travel path vehicle, and it can be estimated that the host vehicle is running at a low speed. Therefore, only when the host vehicle speed is greater than the preset vehicle speed threshold value (YES in step S210), the process proceeds to step S204 and then becomes when the host vehicle speed [at which the
Gemäß der vorliegenden Erfindung ist es dann, wenn aufgrund der vertikalen Abweichung der optischen Achsen, die zwischen der linken und der rechten Kamera erzeugt wird, die Pufferzone fehlerhaft als das dreidimensionale Objekt detektiert wird, möglich, zu bestimmen, dass die Pufferzone nicht das dreidimensionale Objekt ist, und zu verhindern, dass das Sicherheitssystem arbeitet.According to the present invention, when the buffer zone is erroneously detected as the three-dimensional object due to the vertical deviation of the optical axes generated between the left and right cameras, it is possible to determine that the buffer zone is not the three-dimensional object and prevent the security system from working.
Obwohl die Ausführungsformen der vorliegenden Erfindung oben genau beschrieben wurden, ist die vorliegende Erfindung nicht auf die oben beschriebenen Ausführungsformen beschränkt und verschiedene Entwurfsänderungen können vorgenommen werden, ohne vom Geist der vorliegenden Erfindung, die in den Ansprüchen beschrieben ist, abzuweichen. Zum Beispiel wurden die oben beschriebenen Ausführungsformen zum einfachen Verständnis der Erfindung genau beschrieben und sind nicht notwendigerweise auf die beschränkt, die alle beschriebenen Konfigurationen besitzen. Zusätzlich kann ein Teil der Konfiguration einer bestimmten Ausführungsform durch die Konfiguration einer weiteren Ausführungsform ersetzt werden und kann die Konfiguration einer weiteren Ausführungsform zur Konfiguration einer bestimmten Ausführungsform hinzugefügt werden. Ferner ist es möglich, weitere Konfigurationen zu einem Teil der Konfiguration jeder Ausführungsform hinzuzufügen, sie aus ihm zu entfernen und ihn durch sie zu ersetzen.Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various design changes can be made without departing from the spirit of the present invention described in the claims. For example, the above-described embodiments have been described in detail for easy understanding of the invention, and are not necessarily limited to those having all the configurations described. In addition, part of the configuration of a specific embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of a specific embodiment. Further, it is possible to add other configurations to, delete them from, and replace part of the configuration of each embodiment.
BezugszeichenlisteReference List
- 100100
- Bildgebungsvorrichtungimaging device
- 1111
- Erste BildgebungseinheitFirst imaging unit
- 1212
- Zweite BildgebungseinheitSecond imaging unit
- 1313
- Erste BilderfassungseinheitFirst image acquisition unit
- 1414
- Zweite BilderfassungseinheitSecond image acquisition unit
- 1515
- Erste ParallaxenbilderzeugungseinheitFirst parallax imaging unit
- 1616
- Steuerzielkandidaten-Erkennungseinheitcontrol target candidate recognition unit
- 1717
- Erste ParallaxenwerterfassungseinheitFirst parallax value acquisition unit
- 1818
- Zweite ParallaxenbilderzeugungseinheitSecond parallax imaging unit
- 1919
- Zweite ParallaxenwerterfassungseinheitSecond parallax value acquisition unit
- 2020
- Steuerzielbestimmungseinheitcontrol target determination unit
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- JP 2010107435 A [0003]JP2010107435A [0003]
Claims (7)
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020038552 | 2020-03-06 | ||
JP2020-038552 | 2020-03-06 | ||
PCT/JP2020/048694 WO2021176819A1 (en) | 2020-03-06 | 2020-12-25 | Processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112020005059T5 true DE112020005059T5 (en) | 2022-07-21 |
Family
ID=77613225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112020005059.9T Pending DE112020005059T5 (en) | 2020-03-06 | 2020-12-25 | PROCESSING DEVICE |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7250211B2 (en) |
DE (1) | DE112020005059T5 (en) |
WO (1) | WO2021176819A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010107435A (en) | 2008-10-31 | 2010-05-13 | Hitachi Automotive Systems Ltd | Feature position recognition device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2602761A4 (en) | 2010-08-03 | 2017-11-01 | Panasonic Intellectual Property Management Co., Ltd. | Object detection device, object detection method, and program |
JP5600220B2 (en) * | 2011-10-28 | 2014-10-01 | 富士フイルム株式会社 | 3D measuring device |
JP5906272B2 (en) * | 2014-03-28 | 2016-04-20 | 富士重工業株式会社 | Stereo image processing apparatus for vehicle |
WO2019003771A1 (en) * | 2017-06-26 | 2019-01-03 | 日立オートモティブシステムズ株式会社 | Imaging device |
-
2020
- 2020-12-25 JP JP2022504989A patent/JP7250211B2/en active Active
- 2020-12-25 DE DE112020005059.9T patent/DE112020005059T5/en active Pending
- 2020-12-25 WO PCT/JP2020/048694 patent/WO2021176819A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010107435A (en) | 2008-10-31 | 2010-05-13 | Hitachi Automotive Systems Ltd | Feature position recognition device |
Also Published As
Publication number | Publication date |
---|---|
WO2021176819A1 (en) | 2021-09-10 |
JPWO2021176819A1 (en) | 2021-09-10 |
JP7250211B2 (en) | 2023-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018116111B4 (en) | A unified deep convolutional neural network for free space estimation, object recognition estimation, and object pose estimation | |
DE102009005861B4 (en) | Vehicle environment detection system | |
DE60308782T2 (en) | Device and method for obstacle detection | |
DE102009005860B4 (en) | Environment Recognition System | |
DE102010020867B4 (en) | Road shape recognition device | |
DE102008053460B4 (en) | Object detection system | |
DE10029423B4 (en) | Object recognition system | |
DE102008034304B4 (en) | imaging device | |
DE102011053002B4 (en) | Lane line judging device | |
DE102015104453A1 (en) | Stereo image processing device for a vehicle | |
DE102013110615B3 (en) | 3D camera according to the stereoscopic principle and method for acquiring depth maps | |
DE102014209137B4 (en) | Method and device for calibrating a camera system of a motor vehicle | |
DE102013205952B4 (en) | Reconfigurable system and method for the detection of a free path | |
DE102010012262A1 (en) | Image processing device | |
DE102008012840A1 (en) | Object detection system | |
DE102012101014A1 (en) | Vehicle detection device | |
DE102013207575A1 (en) | OBJECT DETECTION DEVICE | |
DE102010035812B4 (en) | Road marking line detection device for vehicles | |
WO2013178407A1 (en) | Method and device for processing stereoscopic data | |
DE102017117593A1 (en) | Vehicle driving assistance device | |
DE102018123861A1 (en) | Target estimator | |
DE102018124032A1 (en) | Parallaxenberechnungsvorrichtung | |
EP2736017A2 (en) | Method for determining the movement of a motor vehicle | |
DE112021004200T5 (en) | object detection device | |
DE112020005059T5 (en) | PROCESSING DEVICE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |