DE112022001667T5 - DATA PROCESSING DEVICE, MONITORING SYSTEM AND PARALLAX CALCULATION METHOD - Google Patents

DATA PROCESSING DEVICE, MONITORING SYSTEM AND PARALLAX CALCULATION METHOD Download PDF

Info

Publication number
DE112022001667T5
DE112022001667T5 DE112022001667.1T DE112022001667T DE112022001667T5 DE 112022001667 T5 DE112022001667 T5 DE 112022001667T5 DE 112022001667 T DE112022001667 T DE 112022001667T DE 112022001667 T5 DE112022001667 T5 DE 112022001667T5
Authority
DE
Germany
Prior art keywords
similarity
information
correction
parallax
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112022001667.1T
Other languages
German (de)
Inventor
Keisuke Inata
Masashi Takada
Shinichi Nonaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of DE112022001667T5 publication Critical patent/DE112022001667T5/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Eine Datenverarbeitungsvorrichtung ist mit einer ersten Bilderfassungseinheit und einer zweiten Bilderfassungseinheit verbunden und erzeugt Parallaxeninformationen eines ersten, durch die erste Bilderfassungseinheit erfassten Bilds und eines zweiten, durch die zweite Bilderfassungseinheit erfassten Bilds, indem sie in Einheiten vorher festgelegter übereinstimmender Blöcke sucht, wobei die Datenverarbeitungsvorrichtung eine Ähnlichkeitserzeugungseinheit, welche eine erste Ähnlichkeit mit einem übereinstimmenden Block in einem Suchbereich des zweiten Bildes in Bezug auf einen übereinstimmenden Block im ersten Bild in Einheiten übereinstimmender Blöcke erzeugt; eine Ähnlichkeitskorrektureinheit, welche die erste Ähnlichkeit unter Verwendung mindestens erster Korrekturinformationen, welche basierend auf einer ersten Ähnlichkeit eines beliebigen benachbarten übereinstimmenden Blocks innerhalb eines Suchbereichs des zweiten Bilds erzeugt wird, und/oder zweiter Korrekturinformationen, welche basierend auf den Parallaxeninformation erzeugt werden, korrigiert, um eine zweite Ähnlichkeit zu erzeugen; und eine Ähnlichkeitsermittlungseinheit, welche Parallaxeninformationen basierend auf der zweiten Ähnlichkeit erzeugt, aufweist.A data processing device is connected to a first image capture unit and a second image capture unit and generates parallax information of a first image captured by the first image capture unit and a second image captured by the second image capture unit by searching in units of predetermined matching blocks, the data processing device being a similarity generation unit , which produces a first similarity to a matching block in a search area of the second image with respect to a matching block in the first image in units of matching blocks; a similarity correction unit that corrects the first similarity using at least first correction information generated based on a first similarity of any adjacent matching block within a search area of the second image and/or second correction information generated based on the parallax information to create a second similarity; and a similarity determination unit that generates parallax information based on the second similarity.

Description

Technisches GebietTechnical area

Die vorliegende Erfindung betrifft eine Datenverarbeitungsvorrichtung, ein Überwachungssystem und ein Parallaxenberechnungsverfahren.The present invention relates to a data processing device, a monitoring system and a parallax calculation method.

Stand der TechnikState of the art

Ein Verfahren zum Berechnen eines Abstands zwischen einer Kamera und einem Betrachtungsobjekt unter Verwendung einer Stereokamera und mit dem Ausführen eines Prozesses zum Erkennen des Betrachtungsobjekts ist bekannt. PTL 1 offenbart eine Informationsverarbeitungsvorrichtung aufweisend eine Ähnlichkeitsdatenerzeugungseinheit, welche jeden einer Mehrzahl von Bereichen, welche durch Aufteilen eines Bildes in ein linkes und ein rechtes fotografiertes Bild, welche durch eine Stereokamera, welche einen selben Raum von einem linken und einem rechten Blickwinkel erfasst, erfasst worden sind, als einen Referenzblock festlegt, einen Suchbereich im jeweils anderen Bild für jeden Referenzblock festlegt und Ähnlichkeitsdaten erzeugt, welche durch Verknüpfen der Ähnlichkeit eines Bildes mit dem Referenzblock und einer Position innerhalb des Suchbereichs in Bezug auf die Position innerhalb des Suchbereichs berechnet werden, eine Ähnlichkeitskorrektureinheit, welche die Ähnlichkeitsdaten in einer Raumrichtung basierend auf Ähnlichkeitsdaten, welche für eine vorher festgelegte Anzahl von Referenzblöcken an einem Umfang eines betreffenden Referenzblocks erzeugt worden sind, glättet, eine Ergebnisauswerteeinheit, welche eine Position erfasst, an welcher die Ähnlichkeit in allen geglätteten Ähnlichkeitsdaten einen Maximalwert aufweist, eine Tiefenbilderzeugungseinheit, welche unter Verwendung des Erfassungsergebnisses der Ergebnisauswerteeinheit eine Parallaxe für jeden der Referenzblöcke erlangt und durch Berechnen einer Position eines Objekts in einer Tiefenrichtung auf Grundlage der Berechnung und Verknüpfung der Position mit einer Bildebene ein Tiefenbild erzeugt, und eine Ausgabeinformationserzeugungseinheit, welche eine vorher festgelegte Informationsverarbeitung basierend auf der Position des Objekts in einem dreidimensionalen Raum unter Verwendung des Tiefenbilds vornimmt und ein Ergebnis derselben ausgibt.A method of calculating a distance between a camera and a viewing object using a stereo camera and executing a process of recognizing the viewing object is known. PTL 1 discloses an information processing apparatus including a similarity data generating unit that captures each of a plurality of areas captured by dividing an image into a left and a right photographed image captured by a stereo camera that captures a same space from a left and a right viewing angle are, as a reference block, sets a search area in the other image for each reference block and generates similarity data which is calculated by linking the similarity of an image to the reference block and a position within the search area with respect to the position within the search area, a similarity correction unit , which smoothes the similarity data in a spatial direction based on similarity data which has been generated for a predetermined number of reference blocks on a circumference of a relevant reference block, a result evaluation unit which detects a position at which the similarity in all smoothed similarity data has a maximum value , a depth image generation unit that obtains a parallax for each of the reference blocks using the detection result of the result evaluation unit and generates a depth image by calculating a position of an object in a depth direction based on the calculation and linking the position with an image plane, and an output information generation unit that previously performs specified information processing based on the position of the object in a three-dimensional space using the depth image and outputs a result thereof.

QuellenangabenSources

PatentliteraturPatent literature

PTL 1: Veröffentlichte japanische Patentanmeldung Nr. 2016-039618 PTL 1: Published Japanese Patent Application No. 2016-039618

Zusammenfassung der ErfindungSummary of the invention

Technische AufgabeTechnical task

Die in PTL 1 beschriebene Erfindung weist Verbesserungsbedarf in Bezug auf die Berechnung der Parallaxe auf.The invention described in PTL 1 has a need for improvement with regard to the calculation of the parallax.

Lösung des Problemsthe solution of the problem

Eine Datenverarbeitungsvorrichtung im Einklang mit einem ersten Aspekt der vorliegenden Erfindung ist eine Datenverarbeitungsvorrichtung, welche mit einer ersten Bilderfassungseinheit und einer zweiten Bilderfassungseinheit verbunden ist und Parallaxeninformationen eines ersten, durch die erste Bilderfassungseinheit erfassten Bilds und eines zweiten, durch die zweite Bilderfassungseinheit erfassten Bilds erzeugt, indem sie in Einheiten vorher festgelegter übereinstimmender Blöcke sucht, wobei die Datenverarbeitungsvorrichtung eine Ähnlichkeitserzeugungseinheit, welche eine erste Ähnlichkeit mit einem übereinstimmenden Block in einem Suchbereich des zweiten Bildes in Bezug auf einen übereinstimmenden Block im ersten Bild in Einheiten übereinstimmender Blöcke erzeugt; eine Ähnlichkeitskorrektureinheit, welche die erste Ähnlichkeit unter Verwendung mindestens erster Korrekturinformationen, welche basierend auf einer ersten Ähnlichkeit eines ersten beliebigen benachbarten übereinstimmenden Blocks innerhalb eines Suchbereichs des zweiten Bilds erzeugt wird, und/oder zweiter Korrekturinformationen, welche basierend. auf den Parallaxeninformationen erzeugt werden, korrigiert, um eine zweite Ähnlichkeit zu erzeugen; und eine Ähnlichkeitsermittlungseinheit, welche Parallaxeninformationen basierend auf der zweiten Ähnlichkeit erzeugt, aufweist.A data processing device in accordance with a first aspect of the present invention is a data processing device which is connected to a first image capture unit and a second image capture unit and generates parallax information of a first image captured by the first image capture unit and a second image captured by the second image capture unit by searches it in units of predetermined matching blocks, the data processing device comprising a similarity generating unit which generates a first similarity to a matching block in a search area of the second image with respect to a matching block in the first image in units of matching blocks; a similarity correction unit that generates the first similarity using at least first correction information based on a first similarity of a first arbitrary adjacent matching block within a search area of the second image, and/or second correction information based. on which parallax information is generated, corrected to produce a second similarity; and a similarity determination unit that generates parallax information based on the second similarity.

Ein Überwachungssystem im Einklang mit einem zweiten Aspekt der vorliegenden Erfindung weist die oben beschriebene Datenverarbeitungsvorrichtung, die erste Bilderfassungseinheit; und die zweite Bilderfassungseinheit, auf.A surveillance system in accordance with a second aspect of the present invention comprises the data processing device described above, the first image capture unit; and the second image capture unit.

Ein Parallaxenberechnungsverfahren im Einklang mit einem dritten Aspekt der vorliegenden Erfindung betrifft ein Parallaxenberechnungsverfahren, welches durch eine Datenverarbeitungsvorrichtung ausgeführt wird, wobei die Datenverarbeitungsvorrichtung mit einer ersten Bilderfassungseinheit und einer zweiten Bilderfassungseinheit verbunden ist und Parallaxeninformationen eines ersten, durch die erste Bilderfassungseinheit erfassten Bilds und eines zweiten, durch die zweite Bilderfassungseinheit erfassten Bilds erzeugt, indem sie in Einheiten vorher festgelegter übereinstimmender Blöcke sucht, wobei das Verfahren das Erzeugen einer ersten Ähnlichkeit mit einem übereinstimmenden Block in einem Suchbereich des zweiten Bilds in Bezug auf einen übereinstimmenden Block im ersten Bild in Einheiten übereinstimmender Blöcke; das Korrigieren der ersten Ähnlichkeit unter Verwendung mindestens erster Korrekturinformationen, welche basierend auf der ersten Ähnlichkeit eines ersten beliebigen benachbarten übereinstimmenden Blocks innerhalb eines Suchbereichs des zweiten Bilds erzeugt werden, und/oder zweiter Korrekturinformationen, welche basierend auf den Parallaxeninformation erzeugt werden, um eine zweite Ähnlichkeit zu erzeugen; und das Erzeugen von Parallaxeninformationen basierend auf der zweiten Ähnlichkeit umfasst.A parallax calculation method in accordance with a third aspect of the present invention relates to a parallax calculation method carried out by a data processing device, the data processing device being connected to a first image capture unit and a second image capture unit, and parallax information of a first image captured by the first image capture unit and a second, image captured by the second image capture unit by searching in units of predetermined matching blocks, the method comprising generating a first similarity to a matching block in a search area of the second image with respect to a matching block in the first image in units of matching blocks; correcting the first similarity using at least first correction information generated based on the first similarity of a first arbitrary adjacent matching block within a search area of the second image and/or second correction information generated based on the parallax information by a second similarity to create; and generating parallax information based on the second similarity.

Vorteilhafte Wirkungen der ErfindungAdvantageous effects of the invention

Im Einklang mit der vorliegenden Erfindung ist es möglich, fehlerhafte Übereinstimmungen zu reduzieren und die Parallaxenberechnungsgenauigkeit zu.verbessern.In accordance with the present invention, it is possible to reduce erroneous matches and improve parallax calculation accuracy.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

  • [1] 1 ist ein Konfigurationsdiagramm eines Überwachungssystems aufweisend eine Datenverarbeitungsvorrichtung.[ 1 ] 1 is a configuration diagram of a monitoring system having a data processing device.
  • [2] 2 ist ein Konfigurationsdiagramm einer Ähnlichkeitskorrektureinheit.[ 2 ] 2 is a configuration diagram of a similarity correction unit.
  • [3] 3 ist ein Diagramm zum Erläutern erster Ähnlichkeitsinformationen und erster Korrekturinformationen.[ 3 ] 3 is a diagram for explaining first similarity information and first correction information.
  • [4] 4 ist ein Diagramm, welches ein erstes Beispiel von Parallaxeninformationen, welche zum Erzeugen zweiter Korrekturinformationen verwendet werden, darstellt.[ 4 ] 4 is a diagram illustrating a first example of parallax information used to generate second correction information.
  • [5] 5 ist ein Diagramm, welches ein zweites Beispiel von Parallaxeninformationen, welche zum Erzeugen zweiter Korrekturinformationen verwendet werden, darstellt.[ 5 ] 5 is a diagram illustrating a second example of parallax information used to generate second correction information.
  • [6] 6 ist ein Diagramm zum Erläutern eines Korrekturkoeffizienten.[ 6 ] 6 is a diagram for explaining a correction coefficient.
  • [7] 7 ist ein Diagramm zum Erläutern eines konkreten Beispiels eines Verfahrens zum Erzeugen eines Korrekturkoeffizienten.[ 7 ] 7 is a diagram for explaining a concrete example of a method of generating a correction coefficient.
  • [8] 8 ist ein Konfigurationsdiagramm einer Korrekturausführungseinheit im Einklang mit einer zweiten Ausführungsform.[ 8th ] 8th is a configuration diagram of a correction execution unit in accordance with a second embodiment.
  • [9] 9 ist ein Konfigurationsdiagramm einer Ähnlichkeitskorrektureinheit im Einklang mit einer dritten Ausführungsform.[ 9 ] 9 is a configuration diagram of a similarity correction unit in accordance with a third embodiment.

Beschreibung von AusführungsformenDescription of embodiments

-Erste Ausführungsform--First embodiment-

Im Folgenden ist eine erste Ausführungsform eines Überwachungssystems unter Bezugnahme auf die 1 bis 7 beschrieben.The following is a first embodiment of a monitoring system with reference to 1 until 7 described.

1 ist ein Konfigurationsdiagramm eines Überwachungssystems S aufweisend eine Datenverarbeitungsvorrichtung 1. Ein Fahrzeugumfeldüberwachungssystem S weist eine Datenverarbeitungsvorrichtung 1, eine erste Bilderfassungseinheit 2, eine zweite Bilderfassungseinheit 3, eine Erkennungsverarbeitungseinheit 4 und eine Fahrzeugsteuereinheit 5 auf. Das Fahrzeugumfeldüberwachungssystem S ist am Fahrzeug C angebracht. Die Datenverarbeitungsvorrichtung 1 ist mit der ersten Bilderfassungseinheit 2, der zweiten Bilderfassungseinheit 3 und der Erkennungsverarbeitungseinheit 4 verbunden. Die Erkennungsverarbeitungseinheit 4 ist mit der Datenverarbeitungsvorrichtung 1 und der Fahrzeugsteuereinheit 5 verbunden. 1 is a configuration diagram of a monitoring system S having a data processing device 1. A vehicle environment monitoring system S has a data processing device 1, a first image capture unit 2, a second image capture unit 3, a recognition processing unit 4 and a vehicle control unit 5. The vehicle environment monitoring system S is attached to the vehicle C. The data processing device 1 is connected to the first image capture unit 2, the second image capture unit 3 and the recognition processing unit 4. The recognition processing unit 4 is connected to the data processing device 1 and the vehicle control unit 5.

Die Datenverarbeitungsvorrichtung 1, die Erkennungsverarbeitungseinheit 4 und die Fahrzeugsteuereinheit 5 sind jeweils eine elektronische Steuereinheit (ECU), welche am Fahrzeug C angebracht sind. Statt einzelner ECUs können jedoch zwei oder mehr der Elemente aus der Gruppe umfassend die Datenverarbeitungsvorrichtung 1, die Erkennungsverarbeitungseinheit 4 und die Fahrzeugsteuereinheit 5 durch dieselbe ECU realisiert sein.The data processing device 1, the recognition processing unit 4 and the vehicle control unit 5 are each an electronic control unit (ECU) attached to the vehicle C. However, instead of individual ECUs, two or more of the elements from the group including the data processing device 1, the recognition processing unit 4 and the vehicle control unit 5 may be implemented by the same ECU.

Die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 sind jeweils eine Kamera und geben jeweils ein fotografiertes Bild, welches ein durch Erfassen erlangtes Bild ist, an die Datenverarbeitungsvorrichtung 1 aus. Das von der ersten Bilderfassungseinheit 2 ausgegebene fotografierte Bild wird als ein erstes fotografiertes Bild 100 bezeichnet, und das von der zweiten Bilderfassungseinheit 3 ausgegebene fotografierte Bild wird als ein zweites fotografiertes Bild 101 bezeichnet. Die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 sind durch eine vorher festgelegte Grundlinienlänge in der Querrichtung in derselben Richtung in Bezug auf das Fahrzeug C voneinander getrennt. Es ist zu beachten, dass die Querrichtung, in welcher die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 angeordnet sind, in dieser Beschreibung im Folgenden auch als eine „Grundlinienrichtung“ bezeichnet wird. Basierend auf dem ersten fotografierten Bild 100 und dem zweiten fotografierten Bild 101 erzeugt die Datenverarbeitungsvorrichtung 1 Parallaxeninformationen 106 mittels eines später beschriebenen Verfahrens, und gibt die Parallaxeninformationen 106 an die Erkennungsverarbeitungseinheit 4 aus.The first image capture unit 2 and the second image capture unit 3 are each a camera, and each outputs a photographed image, which is an image acquired by capture, to the data processing device 1. The photographed image output from the first image capture unit 2 is referred to as a first photographed image 100, and the photographed image output from the second image capture unit 3 is referred to as a second photographed image 101. The first image capture unit 2 and the second image capture unit 3 are separated from each other by a predetermined baseline length in the transverse direction in the same direction with respect to the vehicle C. It should be noted that the transverse direction in which the first image capture unit 2 and the second image capture unit 3 are arranged is also referred to as a “baseline direction” in this description. Based on the first photographed image 100 and the second photographed image 101, the data processing device 1 generates parallax information 106 using a method described later driving, and outputs the parallax information 106 to the recognition processing unit 4.

Die Datenverarbeitungsvorrichtung 1 weist eine Eingabeeinheit 10, eine Ähnlichkeitserzeugungseinheit 11, eine Ähnlichkeitskorrektureinheit 12 und eine Ähnlichkeitsermittlungseinheit 13 auf. Die Eingabeeinheit 10 ist durch eine Hardwareschnittstelle mit der ersten Bilderfassungseinheit 2 und der zweiten Bilderfassungseinheit 3 sowie eine arithmetische Verarbeitungseinheit realisiert. Die Ähnlichkeitserzeugungseinheit 11, die Ähnlichkeitskorrektureinheit 12 und die Ähnlichkeitsermittlungseinheit 13 sind durch eine arithmetische Verarbeitungseinheit realisiert. Die Hardwareschnittstelle ist zum Beispiel eine RJ45-Verbindung oder eine Kameraverbindung.The data processing device 1 has an input unit 10, a similarity generation unit 11, a similarity correction unit 12 and a similarity determination unit 13. The input unit 10 is implemented by a hardware interface with the first image capture unit 2 and the second image capture unit 3 as well as an arithmetic processing unit. The similarity generation unit 11, the similarity correction unit 12 and the similarity determination unit 13 are implemented by an arithmetic processing unit. The hardware interface is, for example, an RJ45 connection or a camera connection.

Die arithmetische Verarbeitungseinheit weist zum Beispiel eine CPU, welche eine zentrale Verarbeitungseinheit ist, ein ROM, welches eine Nur-Lese-Speichervorrichtung ist, und ein RAM, welches eine auslesbare/beschreibbare Speichervorrichtung ist, auf, und die CPU führt eine später beschriebene Berechnung aus, indem sie ein im ROM gespeichertes Programm im RAM aufbaut und das Programm ausführt. Anstatt durch die Kombination der CPU, des ROM und des RAM kann die arithmetische Verarbeitungseinheit durch eine feldprogrammierbare Gate-Matrix (FPGA), welche eine wiederbeschreibbare Logikschaltung ist, oder eine anwendungsspezifische integrierte Schaltung (ASIC), welche eine anwendungsspezifische integrierte Schaltung ist, realisiert sein. Anstatt durch die Kombination der CPU, des ROM und des RAM kann die arithmetische Verarbeitungseinheit darüber hinaus auch durch eine Kombination unterschiedlicher Konfigurationen, zum Beispiel eine Kombination einer CPU, eines ROM, eines RAM und einer FPGA, realisiert sein.The arithmetic processing unit includes, for example, a CPU, which is a central processing unit, a ROM, which is a read-only memory device, and a RAM, which is a readable/writable memory device, and the CPU executes a calculation described later , by building a program stored in ROM in RAM and executing the program. Instead of the combination of the CPU, the ROM and the RAM, the arithmetic processing unit may be implemented by a field programmable gate matrix (FPGA), which is a rewritable logic circuit, or an application specific integrated circuit (ASIC), which is an application specific integrated circuit . Furthermore, instead of the combination of the CPU, the ROM and the RAM, the arithmetic processing unit can also be realized by a combination of different configurations, for example a combination of a CPU, a ROM, a RAM and an FPGA.

Die Eingabeeinheit 10 stellt der Ähnlichkeitserzeugungseinheit 11 ein erstes, durch Ausführen einer Bildverarbeitung am ersten fotografierten Bild 100 erlangtes Bild 102 und ein zweites, durch Ausführen einer Bildverarbeitung am zweiten fotografierten Bild 101 erlangtes Bild 103 bereit. Diese Bildverarbeitung wird zum Beispiel unter Verwendung eines internen Parameters oder eines externen Parameters der Kamera ausgeführt, um eine nachteilige Auswirkung auf die Bildverarbeitung zu unterbinden. Beispiele für die Bildverarbeitung umfassen Korrektur einer Linsenverzerrung, eine Fehlerkorrektur einer Befestigungsposition und Befestigungsausrichtung und dergleichen. Da der Prozess in der Eingabeeinheit 10 in der vorliegenden Ausführungsform jedoch nicht wesentlich ist, können das erste fotografierte Bild 100 und das erste Bild 102 als dasselbe Bild betrachtet werden, und/oder das zweite fotografierte Bild 1021 und das zweite Bild 103 können als dasselbe Bild betrachtet werden.The input unit 10 provides the similarity generation unit 11 with a first image 102 obtained by performing image processing on the first photographed image 100 and a second image 103 obtained by performing image processing on the second photographed image 101. This image processing is carried out using, for example, an internal parameter or an external parameter of the camera to prevent an adverse effect on the image processing. Examples of image processing include correction of lens distortion, error correction of mount position and mount orientation, and the like. However, since the process in the input unit 10 is not essential in the present embodiment, the first photographed image 100 and the first image 102 may be considered as the same image, and/or the second photographed image 1021 and the second image 103 may be regarded as the same image to be viewed as.

Die Ähnlichkeitserzeugungseinheit 11 empfängt das von der Eingabeeinheit 10 bereitgestellte erste Bild 102 und das von der Eingabeeinheit 10 bereitgestellte zweite Bild 103, erzeugt die ersten Ähnlichkeitsinformationen 104, und stellt der Ähnlichkeitskorrektureinheit 12 die ersten Ähnlichkeitsinformationen 104 bereit. Die Ähnlichkeitskorrektureinheit 12 behandelt Informationen, welche Ähnlichkeiten zwischen dem übereinstimmenden Block im ersten Bild 102 und dem übereinstimmenden Block im zweiten Bild 103 anzeigen. Die ersten Ähnlichkeitsinformationen 104 sind zum Beispiel eine Leuchtdichtenänderungsmenge jedes der Bildpunkte im übereinstimmenden Block des ersten Bilds 102 und einem Bildpunkt im übereinstimmenden Block des entsprechenden zweiten Bilds 103. Zum Beispiel kann ein Berechnungsverfahren, wie die Summe absoluter Differenz (SAD), die durchschnittliche Nullsumme absoluter Differenz (ZSAD), die Summe der Abweichungsquadrate (SSD), die normalisierte Kreuzkorrelation (NCC) oder die durchschnittliche normalisierte Nullkreuzkorrelation (ZNCC), als die Leuchtdichtenabweichungsmenge verwendet werden.The similarity generation unit 11 receives the first image 102 provided by the input unit 10 and the second image 103 provided by the input unit 10, generates the first similarity information 104, and provides the first similarity information 104 to the similarity correction unit 12. The similarity correction unit 12 handles information indicating similarities between the matching block in the first image 102 and the matching block in the second image 103. The first similarity information 104 is, for example, a luminance change amount of each of the pixels in the matching block of the first image 102 and a pixel in the matching block of the corresponding second image 103. For example, a calculation method such as sum of absolute difference (SAD) may calculate the average zero absolute sum Difference (ZSAD), the sum of squares of deviation (SSD), the normalized cross-correlation (NCC) or the average normalized zero cross-correlation (ZNCC) can be used as the luminance deviation amount.

Die ersten Ähnlichkeitsinformationen 104 können eine Leuchtdichtenabweichungsmenge, eine Leuchtdichtenabweichungsrichtung oder ein Leuchtdichtenabweichungsmuster für jeden der Bildpunkte und die Umgebungsbildpunkte desselben im übereinstimmenden Block des ersten Bilds 102 und des zweiten Bilds 103 sein. Ein Beispiel für das Leuchtdichtenabweichungsmuster ist ein Zunahme-/Abnahme-Muster von der linken Seite in Bezug auf drei horizontale Bildpunkte, welche den linken und den rechten benachbarten Bildpunkt eines Zielbildpunkts aufweisen. Wenn der Wert des linken benachbarten Bildpunkts zum Beispiel 10 ist, der Wert des Zielbildpunkts 25 ist, und der Wert des rechten benachbarten Bildpunkts 80 ist, so lautet das Zunahme-/Abnahme-Muster „Zunahme → Zunahme“.The first similarity information 104 may be a luminance deviation amount, a luminance deviation direction, or a luminance deviation pattern for each of the pixels and the surrounding pixels thereof in the matching block of the first image 102 and the second image 103. An example of the luminance variation pattern is an increase/decrease pattern from the left side with respect to three horizontal pixels that include the left and right adjacent pixels of a target pixel. For example, if the value of the left neighboring pixel is 10, the value of the target pixel is 25, and the value of the right neighboring pixel is 80, the increase/decrease pattern is “increase → increase”.

Die Ähnlichkeitskorrektureinheit 12 erzeugt zweite Ähnlichkeitsinformationen 105 erlangt durch Korrigieren der ersten Ähnlichkeitsinformationen 104 basierend auf den ersten Ähnlichkeitsinformationen 104 oder den Parallaxeninformationen 106. Die Ähnlichkeitsermittlungseinheit 13 erfasst eine Position, welche basierend auf den zweiten Ähnlichkeitsinformationen 105 die höchste Ähnlichkeit innerhalb des Suchbereichs aufweist, und erzeugt Parallaxeninformationen 106 basierend auf den Positionsinformationen. Die Ähnlichkeitsermittlungseinheit 13 gibt die erzeugten Parallaxeninformationen 106 an die Erkennungsverarbeitungseinheit 4 und die Ähnlichkeitskorrektureinheit 12 aus.The similarity correction unit 12 generates second similarity information 105 obtained by correcting the first similarity information 104 based on the first similarity information 104 or the parallax information 106. The similarity determination unit 13 detects a position having the highest similarity within the search area based on the second similarity information 105 and generates parallax information 106 based on the position information. The similarity determination unit 13 outputs the generated parallax information 106 to the recognition processing unit 4 and the similarity correction unit 12.

Die Erkennungsverarbeitungseinheit 4 führt verschiedene Erkennungsprozesse mit den Parallaxeninformationen 106 als Eingabe aus. Ein Beispiel für den Erkennungsprozess in der Erkennungsverarbeitungseinheit 4 ist dreidimensionale Objekterfassung unter Verwendung der Parallaxeninformationen 106. Weitere Beispiele für das Erkennen des Ziels durch die Erkennungsverarbeitungseinheit 4 sind Positionsinformationen, Typeninformationen, Bewegungsinformationen und Gefahreninformationen des Objekts. Ein Beispiel für die Positionsinformationen weist eine Richtung und einen Abstand vom Trägerfahrzeug auf. Beispiele für die Typeninformationen sind ein Fußgänger, ein Erwachsener, ein Kind, eine ältere Person, ein Tier, ein heruntergefallender Felsen, ein Fahrrad, ein Fahrzeug im Umfeld, eine Struktur im Umfeld und ein Randstein. Beispiele für die Bewegungsinformationen sind Schlingern, Herausspringen, Überqueren, Bewegungsrichtung, Bewegungsgeschwindigkeit und Bewegungsbahn eines Fußgängers oder eines Fahrrads. Beispiele für die Gefahreninformationen sind Herausspringen eines Fußgängers, Herunterfallen eines Felsens und abnormale Betriebsvorgänge von Fahrzeugen im Umfeld, wie zum Beispiel plötzliches Anhalten, plötzliches Abbremsen und plötzliche Lenkvorgänge. Die durch die Erkennungsverarbeitungseinheit 4 erzeugten Erkennungsinformationen 107 werden der Fahrzeugsteuereinheit 5 bereitgestellt.The recognition processing unit 4 carries out various recognition processes with the parallas xeninformation 106 as input. An example of the recognition process in the recognition processing unit 4 is three-dimensional object detection using the parallax information 106. Other examples of the recognition of the target by the recognition processing unit 4 are position information, type information, motion information and danger information of the object. An example of the position information includes a direction and a distance from the host vehicle. Examples of the type information include a pedestrian, an adult, a child, an elderly person, an animal, a fallen rock, a bicycle, a surrounding vehicle, a surrounding structure, and a curb. Examples of the motion information include lurching, jumping out, crossing, moving direction, moving speed and trajectory of a pedestrian or a bicycle. Examples of the danger information include a pedestrian jumping out, a rock falling, and abnormal operations of surrounding vehicles such as sudden stopping, sudden braking, and sudden steering. The recognition information 107 generated by the recognition processing unit 4 is provided to the vehicle control unit 5.

Die Fahrzeugsteuereinheit 5 führt verschiedene Steuerungsvorgänge des Fahrzeugs C basierend auf den Erkennungsinformationen 107 aus. Beispiele für Fahrzeugsteuerungsvorgänge, welche durch die Fahrzeugsteuereinheit 5 ausgeführt werden, sind Bremssteuerung, Lenkradsteuerung, Beschleunigungsvorrichtungssteuerung, Steuerung von Lampen im Fahrzeug, Warntonerzeugung, Steuerung der Kamera im Fahrzeug und Informationsausgabe in Bezug auf ein Betrachtungsobjekt rund um die Bilderfassungsvorrichtung an ein Fahrzeug im Umfeld oder eine stationäre Zentralvorrichtung, welche über ein Netzwerk angeschlossen ist. Spezifische Beispiele sind Geschwindigkeits- und Bremssteuerung im Einklang mit den Parallaxeninformationen 106 eines vor dem Fahrzeug vorhandenen Hindernisses.The vehicle control unit 5 performs various control operations of the vehicle C based on the recognition information 107. Examples of vehicle control operations carried out by the vehicle control unit 5 are brake control, steering wheel control, accelerator control, control of lamps in the vehicle, warning sound generation, control of the camera in the vehicle, and outputting information related to a viewing object around the image capture device to a surrounding vehicle or a vehicle stationary central device, which is connected via a network. Specific examples include speed and braking control in accordance with the parallax information 106 of an obstacle present in front of the vehicle.

Es ist zu beachten, dass die Abstandsinformationen basierend auf den Parallaxeninformationen erzeugt und anstelle der Parallaxeninformationen 106 verwendet werden können. Obwohl in der vorliegenden Ausführungsform nicht beschrieben, kann die Fahrzeugsteuereinheit 5 einen Objekterfassungsprozess basierend auf dem Bildverarbeitungsergebnis unter Verwendung des ersten Bilds 102 und des zweiten Bilds 103 ausführen. Ferner kann die Fahrzeugsteuereinheit 5 ein über die erste Bilderfassungseinheit 2 oder die zweite Bilderfassungseinheit 3 erlangtes Bild oder eine Anzeige anzeigen, welche dem Betrachter erlaubt, ein Hindernis an der Anzeigevorrichtung, welche mit der Fahrzeugsteuereinheit 5 verbunden ist, zu erkennen. Ferner kann die Fahrzeugsteuereinheit 5 Informationen über das erfasste Betrachtungsobjekt basierend auf dem Bilderarbeitungsergebnis an eine Informationsvorrichtung liefern, welche Verkehrsinformationen, wie zum Beispiel Straßenkarteninformationen und Verkehrsüberlastungsinformationen, verarbeitet.Note that the distance information can be generated based on the parallax information and used in place of the parallax information 106. Although not described in the present embodiment, the vehicle control unit 5 may execute an object detection process based on the image processing result using the first image 102 and the second image 103. Furthermore, the vehicle control unit 5 can display an image or a display acquired via the first image capture unit 2 or the second image capture unit 3, which allows the viewer to recognize an obstacle on the display device which is connected to the vehicle control unit 5. Further, the vehicle control unit 5 may provide information about the detected observation object based on the image processing result to an information device that processes traffic information such as road map information and traffic congestion information.

2 ist ein Konfigurationsdiagramm der Ähnlichkeitskorrektureinheit 12. Die Ähnlichkeitskorrektureinheit 12 weist eine erste Korrekturinformationserzeugungseinheit 20, eine zweite Korrekturinformationserzeugungseinheit 21 und eine Korrekturausführungseinheit 22 auf. Die erste Korrekturinformationserzeugungseinheit 20 erzeugt erste Korrekturinformationen 200 basierend auf den ersten Ähnlichkeitsinformationen 104. Die zweite Korrekturinformationserzeugungseinheit 21 erzeugt zweite Korrekturinformationen 201 basierend auf den Parallaxeninformationen 106. Die Korrekturausführungseinheit 22 korrigiert die ersten Ähnlichkeitsinformationen 104 basierend auf den ersten Korrekturinformationen 200 und den zweiten Korrekturinformationen 201, um die zweiten Ähnlichkeitsinformationen 105 zu erzeugen. 2 is a configuration diagram of the similarity correction unit 12. The similarity correction unit 12 includes a first correction information generation unit 20, a second correction information generation unit 21, and a correction execution unit 22. The first correction information generation unit 20 generates first correction information 200 based on the first similarity information 104. The second correction information generation unit 21 generates second correction information 201 based on the parallax information 106. The correction execution unit 22 corrects the first similarity information 104 based on the first correction information 200 and the second correction information 201 to generate the second similarity information 105.

Beschrieben wird eine Konfiguration der ersten Korrekturinformationserzeugungseinheit 20. Die erste Korrekturinformationserzeugungseinheit 20 weist eine Korrekturermittlungseinheit 40 und eine erste Erzeugungseinheit 41 auf. Die Korrekturermittlungseinheit 40 erzeugt erste Informationen in Bezug auf die Gültigkeit einer Korrektur 400, welche die Notwendigkeit der Erzeugung der ersten Korrekturinformationen 200 basierend auf den ersten Ähnlichkeitsinformationen 104 anzeigen. Zum Beispiel ermittelt, die Korrekturermittlungseinheit 40, dass die Erzeugung der ersten Korrekturinformationen 200 notwendig ist, wenn die folgende erste Ermittlungsbedingung erfüllt ist, und ermittelt, dass die Erzeugung der ersten Korrekturinformationen 200 nicht notwendig ist, wenn die erste Ermittlungsbedingung nicht erfüllt ist.
( A ¨ hnlichkeit S ( i 1 ) A ¨ hnlichkeit S ( i ) ) > TH 0,

Figure DE112022001667T5_0001
und ( A ¨ hnlichkeit S ( i + 1 ) A ¨ hnlichkeit S ( i ) ) > TH 1
Figure DE112022001667T5_0002
A configuration of the first correction information generation unit 20 will be described. The first correction information generation unit 20 has a correction determination unit 40 and a first generation unit 41. The correction determination unit 40 generates first information regarding the validity of a correction 400, which indicates the need for generating the first correction information 200 based on the first similarity information 104. For example, the correction determination unit 40 determines that the generation of the first correction information 200 is necessary when the following first determination condition is satisfied, and determines that the generation of the first correction information 200 is not necessary when the first determination condition is not satisfied.
( A ¨ Similarity S ( i 1 ) A ¨ Similarity S ( i ) ) > TH 0,
Figure DE112022001667T5_0001
and ( A ¨ Similarity S ( i + 1 ) A ¨ Similarity S ( i ) ) > TH 1
Figure DE112022001667T5_0002

Es ist zu beachten, dass die Ähnlichkeit A(i) eine Ähnlichkeit an der Suchposition A(i) ist, welche innerhalb des Suchbereichs festzulegen ist, die Ähnlichkeit A(i - 1) eine Ähnlichkeit an der Suchposition A(i - 1) angrenzend an die linke Seite der Suchposition A(i) ist, und die Ähnlichkeit A(i + 1) eine Ähnlichkeit an der Suchposition A(i + 1) angrenzend an die rechte Seite der Suchposition A(i) ist. TH0 und TH1 sind vorher festgelegte Schwellenwerte. Ferner kann die Datengrößenermittlung in der ersten Ermittlungsbedingung derart abgeändert werden, dass die Bedingung in einem Fall, in welchem die Größen gleich sind, erfüllt ist.Note that the similarity A(i) is a similarity at the search position A(i) to be set within the search area, the similarity A(i - 1) is a similarity at the search position A(i - 1) adjacent to the left side of the search position A(i), and the similarity A(i + 1) is a similarity at the search position A(i + 1) adjacent to the right side of the search position A(i). TH0 and TH1 are predetermined threshold values. Further, the data size determination in the first determination condition may be modified such that the condition is satisfied in a case where the sizes are equal.

Der Grund für das Bezugnehmen auf die rechte und die linke Seite anstatt nach oben und unten in der ersten Ermittlungsbedingung, das heißt, der Grund für das Abtasten in der seitlichen Richtung besteht darin, dass die Grundlinienrichtung quer verläuft. Die erste Ermittlungsbedingung kann ermittelt werden, indem nicht nur drei Punkte, sondern auch fünf Ähnlichkeitspunkte verwendet werden, wie nachfolgend beschrieben. Hierbei werden TH2 bis TH5 verwendet, bei welchen es sich um vorher festgelegte Schwellenwerte handelt.
( A ¨ hnlichkeit S ( i 2 ) A ¨ hnlichkeit S ( i 1 ) ) > TH 2,

Figure DE112022001667T5_0003
und ( A ¨ hnlichkeit S ( i 1 ) A ¨ hnlichkeit S ( i ) ) > TH 3,  und
Figure DE112022001667T5_0004
( A ¨ hnlichkeit S ( i + 1 ) A ¨ hnlichkeit S ( i ) ) > TH 4,  und
Figure DE112022001667T5_0005
( A ¨ hnlichkeit S ( i + 2 ) A ¨ hnlichkeit S ( i + 1 ) ) > TH 5
Figure DE112022001667T5_0006
The reason for referring to the right and left sides instead of up and down in the first detection condition, that is, the reason for scanning in the lateral direction is that the baseline direction is transverse. The first determination condition can be determined by using not only three points but also five similarity points, as described below. TH2 to TH5 are used here, which are predetermined threshold values.
( A ¨ Similarity S ( i 2 ) A ¨ Similarity S ( i 1 ) ) > TH 2,
Figure DE112022001667T5_0003
and ( A ¨ Similarity S ( i 1 ) A ¨ Similarity S ( i ) ) > TH 3, and
Figure DE112022001667T5_0004
( A ¨ Similarity S ( i + 1 ) A ¨ Similarity S ( i ) ) > TH 4, and
Figure DE112022001667T5_0005
( A ¨ Similarity S ( i + 2 ) A ¨ Similarity S ( i + 1 ) ) > TH 5
Figure DE112022001667T5_0006

Die erste Erzeugungseinheit 41 empfängt eine Eingabe der ersten Ähnlichkeitsinformationen 104 und der Informationen in Bezug auf die Gültigkeit einer Korrektur 400, und erzeugt die ersten Korrekturinformationen 200 basierend auf den Informationen in Bezug auf die Gültigkeit einer Korrektur 400. Die ersten Korrekturinformationen 200 sind zum Beispiel eine Kombination aus einer Suchposition, welche zu korrigieren ist, und Ähnlichkeitsinformationen nach der Korrektur, oder eine Kombination aus einer neu erzeugten Suchposition und Ähnlichkeitsinformationen. Die Korrekturausführungseinheit 22 korrigiert die Ähnlichkeit unter Bezugnahme auf die ersten Korrekturinformationen 200. Ein Vorgang der ersten Korrekturinformationserzeugungseinheit 20 wird unter Bezugnahme auf 3 beschrieben.The first generation unit 41 receives an input of the first similarity information 104 and the correction validity information 400, and generates the first correction information 200 based on the correction validity information 400. The first correction information 200 is, for example, Combination of a search position to be corrected and similarity information after correction, or a combination of a newly generated search position and similarity information. The correction execution unit 22 corrects the similarity with reference to the first correction information 200. An operation of the first correction information generation unit 20 is explained with reference to 3 described.

3 ist ein Diagramm zum Erläutern der ersten Ähnlichkeitsinformationen 104 und der ersten Korrekturinformationen 200. Der obere Teil von 3 stellt die gesamte Ähnlichkeitskurve 1010 dar, und der untere Teil von 3 stellt Details des Positionsabschnitts der Ähnlichkeitskurve 1010 dar. Insbesondere zeigt die Ähnlichkeitskurve 1012, welche im unteren Teil von 3 gezeigt ist, einen Bereich einer Bezugsziffer 1011 im oberen Teil von 3. In der Ähnlichkeitskurve 1010 und der Ähnlichkeitskurve 1012 stellt die horizontale Achse die Suchposition in der Querrichtung innerhalb des Suchbereichs dar, und die vertikale Achse stellt die Ähnlichkeit dar, wobei die Ähnlichkeit zum unteren Teil der vertikalen Achse hin größer ist. 3 is a diagram for explaining the first similarity information 104 and the first correction information 200. The upper part of 3 represents the entire similarity curve 1010, and the lower part of 3 illustrates details of the position portion of the similarity curve 1010. In particular, the similarity curve 1012 shows which is in the lower part of 3 is shown, an area of a reference numeral 1011 in the upper part of 3 . In the similarity curve 1010 and the similarity curve 1012, the horizontal axis represents the search position in the transverse direction within the search area, and the vertical axis represents the similarity, with the similarity being greater towards the lower part of the vertical axis.

Ein schwarzer Kreis, welcher in der Ähnlichkeitskurve 1012, welche im unteren Teil von 3 dargestellt ist, zu sehen ist, zeigt die Ähnlichkeit an jeder der Suchpositionen an. Da die Ähnlichkeitserzeugungseinheit 11 eine Suche in einer vorher festgelegten Bildpunkteinheit durchführt, ist die Ähnlichkeit in der Ähnlichkeitskurve 1012 in den Abständen der Suchbildpunkteinheit angezeigt. Die Suchbildpunkteinheit kann beliebig festgelegt werden, kann jedoch nicht weniger als einen Bildpunkt betragen. Die Suchpositionen in der Mitte der Zeichnung sind von links mit 1003, 1001, 1000, 1002 und 1004 gekennzeichnet.A black circle that appears in the similarity curve 1012, which is in the lower part of 3 shown shows the similarity at each of the search positions. Since the similarity generation unit 11 performs a search in a predetermined pixel unit, the similarity is displayed in the similarity curve 1012 at the distances of the search pixel unit. The search pixel unit can be set arbitrarily, but cannot be less than one pixel. The search positions in the middle of the drawing are labeled 1003, 1001, 1000, 1002 and 1004 from the left.

Die Ähnlichkeit S0 an der Suchposition 1000 der Ähnlichkeitskurve 1012 ist größer als die Ähnlichkeit der linken und der rechten Suchpositionen. Daher, erfüllt die Suchposition 1000 die erste oben beschriebene Ermittlungsbedingung. Als ein Beispiel für ein Verfahren zum Korrigieren der Ähnlichkeitskurve 1012, gibt es ein Verfahren des Ersetzens der Ähnlichkeit SO an der Suchposition 1000 durch die Ähnlichkeit S1. Als ein weiteres Beispiel für das Verfahren gibt es ein Verfahren des Erzeugens einer neuen Ähnlichkeit S1 an einer Suchposition rund um die Suchposition 1000, zum Beispiel an der Suchposition 1003.The similarity S0 at the search position 1000 of the similarity curve 1012 is greater than the similarity of the left and right search positions. Therefore, the search position 1000 satisfies the first determination condition described above. As an example of a method of correcting the similarity curve 1012, there is a method of replacing the similarity SO at the search position 1000 with the similarity S1. As another example of the method, there is a method of generating a new similarity S1 at a search position around the search position 1000, for example at the search position 1003.

Dass die Suchposition 1003 in der Ähnlichkeitskurve 1012 die Ähnlichkeit S1 aufweist, ist ein Beispiel der ersten Korrekturinformationen 200. Als ein Beispiel für ein Verfahren zum Erzeugen der Ähnlichkeit S1 gibt es ein Verfahren des Berechnens der Ähnlichkeit S1 durch Polynominterpolation, wie zum Beispiel lineare Annäherung oder SSD-Parabelanpassung basierend auf einer Mehrzahl von Ähnlichkeitsstufen in der Nähe. Als ein Beispiel für die Mehrzahl von Ähnlichkeiten, welche in der Nähe angeordnet sind, gibt es drei Ähnlichkeiten der Suchpositionen 1000, 1001 und 1002. Die Suchposition 1003 ist eine Suchposition mit einer Bruchgenauigkeit, welche zwischen der Suchposition 1000 und der Suchposition 1002 angeordnet ist.That the search position 1003 in the similarity curve 1012 has the similarity S1 is an example of the first correction information 200. As an example of a method for generating the similarity S1, there is a method of calculating the similarity S1 by polynomial interpolation, such as linear approximation or SSD parabola matching based on a plurality of nearby similarity levels. As an example of the plurality of similarities arranged nearby, there are three similarities of the search positions 1000, 1001 and 1002. The search position 1003 is a search position with a fractional precision located between the search position 1000 and the search position 1002.

Wie oben beschrieben tastet die erste Korrekturinformationserzeugungseinheit 20 in der Grundlinienrichtung ab, um nach einem Wendepunkt zu suchen, an welchem sich das Zeichen des Unterschieds der Ähnlichkeiten rund um den Wendepunkt umdreht, berechnet eine neue Ähnlichkeit, indem sie die Ähnlichkeit rund um den Wendepunkt verwendet, und berechnet eine Kombination aus der Position des Wendepunkts und der neuen Ähnlichkeit als erste Korrekturinformationen 200.As described above, the first correction information generation unit 20 scans in the baseline direction to search for a turning point at which the sign of the difference of similarities around the turning point turns around, calculates a new similarity using the similarity around the turning point, and calculates a combination of the position of the turning point and the new similarity as first correction information 200.

Es gibt mindestens die folgenden drei Verfahren als Verfahren für die Korrekturausführungseinheit 22 zum Korrigieren der Ähnlichkeit unter Verwendung der ersten Korrekturinformationen 200, wenn die ersten Korrekturinformationen 200 die Suchposition 1003 und die Ähnlichkeit S1 aufweisen. Das erste Verfahren ist ein Verfahren des Überschreibens der Informationen der Suchposition 1000 und der Ähnlichkeit S0 mit den Informationen der Suchposition 1003 und der Ähnlichkeit S1. Das zweite Verfahren ist ein Verfahren des Hinzufügens der Informationen der Suchposition 1003 und der Ähnlichkeit S1 zu den vorliegenden Informationen der Suchposition 1000 und der Ähnlichkeit S0. Das dritte Verfahren ist ein Verfahren des Überschreibens des Werts der Ähnlichkeit S0 mit dem Wert von S1 ohne die Position der Suchposition 1000 zu verändern. Wenn das dritte Verfahren angewendet wird, können die Informationen der Suchposition 1003 durch Dreipunktnäherung oder dergleichen berechnet werden.There are at least the following three methods as the method for corrective execution unit 22 for correcting the similarity using the first correction information 200 when the first correction information 200 has the search position 1003 and the similarity S1. The first method is a method of overwriting the information of the search position 1000 and the similarity S0 with the information of the search position 1003 and the similarity S1. The second method is a method of adding the information of the search position 1003 and the similarity S1 to the present information of the search position 1000 and the similarity S0. The third method is a method of overwriting the similarity value S0 with the value of S1 without changing the position of the search position 1000. When the third method is adopted, the information of the search position 1003 can be calculated by three-point approximation or the like.

Nochmals bezugnehmend auf 2 wird nachfolgend die Konfiguration der zweiten Korrekturinformationserzeugungseinheit 21 beschrieben. Die zweite Korrekturinformationserzeugungseinheit 21 weist eine periphere Parallaxenkontinuitätsermittlungseinheit 50 und eine zweite Erzeugungseinheit 51 auf und erzeugt die zweiten Korrekturinformationen 301 basierend auf den Parallaxeninformationen 106 oder den Parallaxengrenzinformationen 300.Referring again to 2 The configuration of the second correction information generating unit 21 will be described below. The second correction information generation unit 21 has a peripheral parallax continuity determination unit 50 and a second generation unit 51, and generates the second correction information 301 based on the parallax information 106 or the parallax boundary information 300.

Die 4 und 5 sind Diagramme, welche Beispiele der Parallaxeninformationen 106, welche von der zweiten Korrekturinformationserzeugungseinheit 21 verwendet werden, um die zweiten Korrekturinformationen 201 zu erzeugen, darstellen. Da die Parallaxeninformationen 106 in .Übereinstimmung mit jeder der Positionen, zum Beispiel jedem Block von Bildpunkten, festgelegt werden, wird im Folgenden der Bereich, welcher den Parallaxeninformationen 106, welche die zweite Korrekturinformationserzeugungseinheit 21 dazu verwendet, die zweiten Korrekturinformationen 201 zu erzeugen, entspricht, als ein „peripherer Parallaxenreferenzbereich“ bezeichnet.The 4 and 5 are diagrams illustrating examples of the parallax information 106 used by the second correction information generating unit 21 to generate the second correction information 201. Hereinafter, since the parallax information 106 is set in accordance with each of the positions, for example, each block of pixels, the area corresponding to the parallax information 106, which the second correction information generating unit 21 uses to generate the second correction information 201, referred to as a “peripheral parallax reference area”.

4 ist eine Ansicht, welche ein erstes Beispiel der Parallaxeninformationen 106, welche zum Erzeugen der zweiten Korrekturinformationen 201 verwendet werden, darstellt. Mit anderen Worten ist 4 ein Diagramm, welches ein erstes Beispiel des Bestimmens des peripheren Parallaxenreferenzbereichs darstellt. 4 stellt einen Prozess des Berechnens der Parallaxe des Parallaxenerzeugungszielblocks 801 im aktuellen Einzelbild 800, welches das zuletzt fotografierte Bild ist, dar. Das Gitter in 4 ist ein Block in Einheiten zum Berechnen der Parallaxe. Die Größe des Blocks kann 1 Bildpunkt, 4 Bildpunkte mit einer Breite von 2 Bildpunkten und einer Höhe von 2 Bildpunkten, 16 Bildpunkten mit einer Breite von 4 Bildpunkten und einer Höhe von 4 Bildpunkten, ein Quadrat mit 5 oder mehr Bildpunkten an einer Seite oder ein Rechteck, welches eine beliebige Anzahl von Bildpunkten aufweist, sein. 4 is a view illustrating a first example of the parallax information 106 used to generate the second correction information 201. In other words is 4 a diagram illustrating a first example of determining the peripheral parallax reference range. 4 represents a process of calculating the parallax of the parallax generation target block 801 in the current frame 800, which is the last photographed image. The grid in 4 is a block in units for calculating parallax. The size of the block can be 1 pixel, 4 pixels with a width of 2 pixels and a height of 2 pixels, 16 pixels with a width of 4 pixels and a height of 4 pixels, a square with 5 or more pixels on one side or a Be a rectangle that has any number of pixels.

Im Beispiel, welches in 4 dargestellt ist, wird zunächst die Parallaxe des oberen linken Blocks in der Zeichnung berechnet, das Verarbeitungsziel wird nach der Reihe nach rechts verschoben, wie durch einen Pfeil angezeigt, dann wird das Verarbeitungsziel auf die zweite Stufe verschoben, wenn sämtliche Parallaxen in der obersten Stufe berechnet worden sind, und auch hier wird das Verarbeitungsziel der Reihe nach von links nach rechts verschoben. Wenn die Parallaxe des mit der Bezugsziffer 801 gekennzeichneten Blocks berechnet worden ist, ist die Berechnung sämtlicher Parallaxen der dargestellten ersten bis dritten Stufen somit abgeschlossen, und die Berechnung der vierten Stufe ist an der linken Seite des Parallaxenerzeugungszielblocks 801 ebenfalls abgeschlossen. Der schraffierte Bereich in 4 ist ein Bereich, welcher fünf Bildpunkte an jeder Seite aufweist und welcher zentriert auf den Parallaxenerzeugungszielblock 801, in welchem die Parallaxe bereits zum Zeitpunkt des Berechnens der Parallaxe des Parallaxenerzeugungszielblocks 801 berechnet worden ist, ausgerichtet ist. Die Parallaxeninformationen 106 in diesem Bereich werden als „periphere Referenzparallaxe 802“ bezeichnet. Im Beispiel von 4 wird die periphere Referenzparallaxe 802 dazu verwendet,die zweiten Korrekturinformationen 201 zu erzeugen. Das bedeutet, im ersten Beispiel, welches in 4 dargestellt ist, ist der periphere Parallaxenreferenzbereich die periphere Referenzparallaxe 802.In the example, which in 4 As shown, the parallax of the upper left block in the drawing is first calculated, the processing target is sequentially moved to the right as indicated by an arrow, then the processing target is moved to the second stage when all the parallaxes in the top stage are calculated and here too the processing target is shifted sequentially from left to right. When the parallax of the block indicated by reference numeral 801 has been calculated, the calculation of all parallaxes of the illustrated first to third stages is thus completed, and the fourth stage calculation is also completed on the left side of the parallax generation target block 801. The shaded area in 4 is a region which has five pixels on each side and which is centered on the parallax generation target block 801 in which the parallax has already been calculated at the time of calculating the parallax of the parallax generation target block 801. The parallax information 106 in this area is referred to as “peripheral reference parallax 802”. In the example of 4 the peripheral reference parallax 802 is used to generate the second correction information 201. This means, in the first example, which in 4 As shown, the peripheral parallax reference range is the peripheral reference parallax 802.

5 ist eine Ansicht, welche ein zweites Beispiel der Parallaxeninformationen 106, welche zum Erzeugen der zweiten Korrekturinformationen 201 verwendet werden, darstellt. Mit anderen Worten ist 5 ein Diagramm, welches ein zweites Beispiel des Bestimmens des peripheren Parallaxenreferenzbereichs darstellt. 5 stellt drei Bilder dar, welche zu verschiedenen Zeiten aufgenommen worden sind, wobei das aktuelle Einzelbild 800 das letzte Einzelbild ist, ein erstes vorheriges Einzelbild 901 ein Einzelbild ist, welches im Verarbeitungszyklus unmittelbar davor erfasst worden ist, und ein zweites vorheriges Einzelbild 902 ein Einzelbild ist, welches im Verarbeitungszyklus zwei Zyklen davor erfasst worden ist. Der Block 801 des aktuellen Einzelbilds 800 ist der Parallaxenerzeugungszielblock, und die Blöcke im vorherigen Einzelbild, welches diesem entspricht, sind der Block 903 und der Block 904. 5 is a view illustrating a second example of the parallax information 106 used to generate the second correction information 201. In other words is 5 a diagram illustrating a second example of determining the peripheral parallax reference range. 5 represents three images captured at different times, where the current frame 800 is the last frame, a first previous frame 901 is a frame captured in the processing cycle immediately before, and a second previous frame 902 is a frame , which was recorded two cycles before in the processing cycle. Block 801 of the current frame 800 is the parallax generation target block, and the blocks in the previous frame corresponding to it are block 903 and block 904.

Die Parallaxe im schraffierten Bereich im ersten vorherigen Einzelbild 901 wird als die „erste vorherige periphere Referenzparallaxe 905“ bezeichnet, und die Parallaxe im schraffierten Bereich im zweiten vorherigen Einzelbild 902 wird als „zweite vorherige periphere Referenzparallaxe 906“ bezeichnet. Die erste vorherige periphere' Referenzparallaxe 905 und die zweite vorherige periphere Referenzparallaxe 906 sind zweite Beispiele für die Parallaxeninformationen 106, welche dazu verwendet werden, die zweiten Körrekturinformationen 201 zu erzeugen. Da das vorherige Einzelbild die Parallaxeninformationen aufweist, sind die Parallaxeninformationen zum Zeitpunkt der Erzeugung des Parallaxenerzeugungszielblocks 801 bereits berechnet worden, und sind die Parallaxeninformationen des Umfangs der Blöcke 903 und 904 im vorherigen Block, welcher dem Parallaxenerzeugungszielblock 801 entspricht. Das bedeutet, im zweiten Beispiel, welches in 5 gezeigt ist, ist der periphere Parallaxenreferenzbereich nur die erste vorherige periphere Referenzparallaxe 905, oder sowohl die erste vorherige periphere Referenzparallaxe 905 und die zweite vorherige periphere Referenzparallaxe 906. Im Beispiel von 5 wird auf zwei vorherige Einzelbilder Bezug genommen, es kann jedoch auch auf nur ein vorheriges Einzelbild oder auf drei oder mehr vorherige Einzelbilder Bezug genommen werden.The parallax in the hatched area in the first previous frame 901 is referred to as the "first previous peripheral reference parallax 905", and the parallax in the hatched area in the second previous frame 902 is referred to as the "second previous peripheral reference parallax 906”. The first prior peripheral reference parallax 905 and the second prior peripheral reference parallax 906 are second examples of the parallax information 106 used to generate the second correction information 201. Since the previous frame has the parallax information, the parallax information has already been calculated at the time of generating the parallax generation target block 801, and is the parallax information of the perimeter of the blocks 903 and 904 in the previous block corresponding to the parallax generation target block 801. This means, in the second example, which in 5 As shown, the peripheral parallax reference range is only the first previous peripheral reference parallax 905, or both the first previous peripheral reference parallax 905 and the second previous peripheral reference parallax 906. In the example of 5 refers to two previous frames, but may also refer to just one previous frame or to three or more previous frames.

Basierend auf den Parallaxeninformationen 106 erzeugt die periphere Parallaxenkontinuitätsbestimmungseinheit 50 zweite Korrekturnotwendigkeitsinformationen 500, welche die Notwendigkeit anzeigen, die zweiten Korrekturinformationen 301 zu erzeugen. Beispiele für die zweiten Korrekturnotwendigkeitsinformationen 500 weisen periphere Parallaxeninformationen und Korrekturnotwendigkeitsinformationen auf.Based on the parallax information 106, the peripheral parallax continuity determination unit 50 generates second correction necessity information 500 indicating the need to generate the second correction information 301. Examples of the second correction necessity information 500 include peripheral parallax information and correction necessity information.

Ein Beispiel für die peripheren Parallaxeninformationen ist ein Durchschnittswert der Parallaxenwerte im peripheren Parallaxenreferenzbereich. Beispiele für das Verfahren zum Berechnen der Parallaxenwerte umfassen einen durchschnittlichen Parallaxenwert der peripheren Referenzparallaxe 802, welche in 4 gezeigt ist, einen durchschnittlichen Parallaxenwert der ersten vorherigen peripheren Referenzparallaxe 905, welche in 5 gezeigt ist, und einen durchschnittlichen Parallaxenwert der ersten vorherigen peripheren Referenzparallaxe 905 und der zweiten vorherigen peripheren Referenzparallaxe 906, welche in 5 gezeigt sind, auf. Ferner kann nur auf den Parallaxenwert in der horizontalen Richtung Bezug genommen werden, oder nur auf den Parallaxenwert in der vertikalen Richtung Bezug genommen werden. Die im peripheren Parallaxenreferenzbereich isolierte Parallaxe kann von der Referenzzielparallaxe ausgeschlossen werden. Als ein Beispiel für ein Verfahren des Erfassens einer isolierten Parallaxe besteht ein Verfahren des Ermittelns einer isolierten Parallaxe, wenn eine Differenz zwischen einem Wert der Erfassungszielparallaxe und einem Wert der Parallaxe des Umfangs der Erfassungszielparallaxe einen vorher festgelegten Wert übersteigt.An example of the peripheral parallax information is an average of the parallax values in the peripheral parallax reference area. Examples of the method for calculating the parallax values include an average parallax value of the peripheral reference parallax 802, which is in 4 is shown, an average parallax value of the first previous peripheral reference parallax 905, which in 5 is shown, and an average parallax value of the first previous peripheral reference parallax 905 and the second previous peripheral reference parallax 906, which in 5 are shown on. Further, only the parallax value in the horizontal direction may be referred to, or only the parallax value in the vertical direction may be referred to. The parallax isolated in the peripheral parallax reference area can be excluded from the reference target parallax. As an example of a method of detecting an isolated parallax, there is a method of detecting an isolated parallax when a difference between a value of the detection target parallax and a value of the parallax of the extent of the detection target parallax exceeds a predetermined value.

Die zweiten Korrekturnotwendigkeitsinformationen 500 sind Informationen, welche das Vorhandensein oder Nichtvorhandensein einer Erzeugung der zweiten Korrekturinformationen 301 in der zweiten Erzeugungseinheit 51 anzeigen. Wenn die zweiten Korrekturnotwendigkeitsinformationen 500 anzeigen „Erzeugung: notwendig“, so korrigiert die Korrekturausführungseinheit 22 die Ähnlichkeit unter Verwendung der zweiten Korrekturinformationen 301. Wenn die zweiten Korrekturnotwendigkeitsinformationen 301 anzeigen „Erzeugung: nicht notwendig“, so korrigiert die Korrekturausführungseinheit 22 die Ähnlichkeit nicht unter Verwendung der zweiten Korrekturinformationen 301.The second correction necessity information 500 is information indicating the presence or absence of generation of the second correction information 301 in the second generation unit 51. When the second correction necessity information 500 indicates "Generation: necessary", the correction execution unit 22 corrects the similarity using the second correction information 301. When the second correction necessity information 301 indicates "Generation: not necessary", the correction execution unit 22 does not correct the similarity using the second correction information 301.

Zum Beispiel berechnet die periphere Parallaxenkontinuitätsbestimmungseinheit 50 den Grad der Abweichung in der Parallaxe im peripheren Parallaxenreferenzbereich und setzt die zweiten Korrekturnotwendigkeitsinformationen 500 auf „Erzeugung; nicht notwendig“, wenn der Abweichungsgrad hoch ist. Beispiele für den Abweichungsgrad sind eine Differenzsumme eines Durchschnitts von Parallaxenwerten im peripheren Parallaxenreferenzbereich und jedem der Parallaxenwerte, und ein Abweichungswert im peripheren Parallaxenreferenzbereich. Zur Erzeugung des Abweichungsgrads kann entweder nur auf den Parallaxenwert in der horizontalen Richtung Bezug genommen werden oder nur auf den Parallaxenwert in der vertikalen Richtung Bezug genommen werden. Als ein weiteres Beispiel für das Verfahren zum Erzeugen der Korrekturnotwendigkeitsinformationen wird die Kontinuität der. Parallaxe im peripheren Parallaxenreferenzbereich berechnet, und die Korrekturnotwendigkeitsinformationen können nicht korrigiert werden, wenn die Kontinuität gering ist. Ein Beispiel der Kontinuität weist einen Durchschnitt der Differenzwerte zwischen den jeweiligen Parallaxen und einen Abweichungswert im peripheren Parallaxenreferenzbereich auf. Zur Erzeugung der Kontinuität kann entweder nur auf den Parallaxenwert in der horizontalen Richtung Bezug genommen werden oder nur auf den Parallaxenwert in der vertikalen Richtung Bezug genommen werden.For example, the peripheral parallax continuity determination unit 50 calculates the degree of deviation in parallax in the peripheral parallax reference range and sets the second correction necessity information 500 to “Generation; not necessary” if the degree of deviation is high. Examples of the deviation degree are a difference sum of an average of parallax values in the peripheral parallax reference area and each of the parallax values, and a deviation value in the peripheral parallax reference area. To generate the degree of deviation, either only the parallax value in the horizontal direction can be referenced or only the parallax value in the vertical direction can be referred to. As another example of the method for generating the correction necessity information, the continuity of the. Parallax is calculated in the peripheral parallax reference area, and the correction need information cannot be corrected when the continuity is low. An example of continuity includes an average of the difference values between the respective parallaxes and a deviation value in the peripheral parallax reference region. To create continuity, either only the parallax value in the horizontal direction can be referenced or only the parallax value in the vertical direction can be referred to.

Die zweite Erzeugungseinheit 51 erzeugt die zweiten Korrekturinformationen 301 basierend auf den zweiten Korrekturnotwendigkeitsinformationen 500. Ein Beispiel für die zweiten Korrekturinformationen 301 weist einen Korrekturkoeffizienten K auf, welcher der Suchposition entspricht. Die Rolle des Korrekturkoeffizienten K wird unter Bezugnahme auf 6 beschrieben. Ein Verfahren für das Berechnen des Korrekturkoeffizienten K wird später beschrieben.The second generation unit 51 generates the second correction information 301 based on the second correction necessity information 500. An example of the second correction information 301 has a correction coefficient K corresponding to the search position. The role of the correction coefficient K is discussed with reference to 6 described. A method for calculating the correction coefficient K will be described later.

6 ist ein Diagramm zum Erläutern des Korrekturkoeffizienten K. Eine Grafik 1110, welche im oberen Teil von 6 dargestellt ist, ist ein Beispiel für die zweiten Korrekturinformationen 301 und ist ein Satz von Korrekturkoeffizienten K für jede der Suchpositionen. Eine Grafik 1111, welche im unteren Teil von 6 dargestellt ist, zeigt die Ähnlichkeit für jede der Suchpositionen und zeigt dieselbe Art von Informationen wie jene in 3. In 6 ist die Ähnlichkeit vor der Korrektur jedoch durch eine durchgezogene Linie dargestellt, und der Korrekturkoeffizient nach der Korrektur ist durch eine gestrichelte Linie dargestellt. Der obere Teil und der untere Teil von 6 werden der Reihe nach beschrieben. 6 is a diagram for explaining the correction coefficient K. A graph 1110, which in the upper part of 6 is an example of the second correction information 301, and is a set of correction coefficients K for each of the search positions. A graphic 1111, which is in the lower part of 6 is shown shows the similarity for each of the search positions and shows the same type of information as that in 3 . In 6 However, the similarity before correction is represented by a solid line, and the correction coefficient after correction is represented by a dashed line. The upper part and the lower part of 6 are described in turn.

Im oberen Teil von 6 stellt die horizontale Achse der Grafik 1110 die Suchposition innerhalb des Suchbereichs dar, und die Vertikalachse stellt den Korrekturkoeffizient K für die ersten Ähnlichkeitsinformationen 104 dar. Der Korrekturkoeffizient K0 ist ein Wert in einem Fall, in welchem die ersten Ähnlichkeitsinformationen 104 nicht korrigiert werden. Wenn der Korrekturkoeffizient kleiner ist als der Korrekturkoeffizient K0, werden die ersten Ähnlichkeitsinformationen 104 derart korrigiert, dass die Ähnlichkeit größer wird. Wenn der Korrekturkoeffizient hingegen größer ist als der Korrekturkoeffizient K0, werden die ersten Ähnlichkeitsinformationen 104 derart korrigiert, dass die Ähnlichkeit kleiner wird.In the upper part of 6 the horizontal axis of the graph 1110 represents the search position within the search area, and the vertical axis represents the correction coefficient K for the first similarity information 104. The correction coefficient K0 is a value in a case where the first similarity information 104 is not corrected. When the correction coefficient is smaller than the correction coefficient K0, the first similarity information 104 is corrected so that the similarity becomes larger. On the other hand, if the correction coefficient is larger than the correction coefficient K0, the first similarity information 104 is corrected such that the similarity becomes smaller.

In einem Fall, in welchem der Korrekturkoeffizient K vor der Korrektur mit den ersten Ähnlichkeitsinformationen 104 multipliziert und verwendet wird, zum Beispiel wenn der Korrekturkoeffizient K0 gleich „1“ ist, so ist der Korrekturkoeffizient K1 eine reelle Zahl kleiner als „1“ und größer als „0“, und der Korrekturkoeffizient K2 ist eine reelle Zahl-größer als „1“. In einem Fall, in welchem der Korrekturkoeffizient K vor der Korrektur mit den ersten Ähnlichkeitsinformationen 104 multipliziert und verwendet wird, zum Beispiel wenn der Korrekturkoeffizient K0 gleich „1“ ist, so ist der Korrekturkoeffizient K1 eine reelle Zahl kleiner als „1“ und größer als „0“, und der Korrekturkoeffizient K2 ist eine reelle Zahl größer als „1“.Wenn der Korrekturkoeffizient K vor der Korrektur zu den ersten Ähnlichkeitsinformationen 104 addiert und verwendet wird, zum Beispiel wenn der Korrekturkoeffizient K0 gleich „0“ ist, so ist der Korrekturkoeffizient K1 eine positive reelle Zahl, und der Korrekturkoeffizient K2 ist eine negative reelle Zahl.In a case where the correction coefficient K is multiplied and used by the first similarity information 104 before correction, for example, when the correction coefficient K0 is "1", the correction coefficient K1 is a real number smaller than "1" and larger than “0”, and the correction coefficient K2 is a real number greater than “1”. In a case where the correction coefficient K is multiplied and used by the first similarity information 104 before correction, for example, when the correction coefficient K0 is "1", the correction coefficient K1 is a real number smaller than "1" and larger than “0”, and the correction coefficient K2 is a real number greater than “1”. If the correction coefficient K is added to the first similarity information 104 before correction and used, for example if the correction coefficient K0 is equal to “0”, then the Correction coefficient K1 is a positive real number, and the correction coefficient K2 is a negative real number.

Im unteren Teil von 6 stellt die horizontale Achse der Grafik 1111 die Suchposition innerhalb des Suchbereichs dar, und die Vertikalachse stellt die Ähnlichkeit dar. Eine erste Ähnlichkeitskurve 1104, welche durch eine durchgezogene Linie angezeigt ist, ist eine Ähnlichkeitskurve, welche unter Verwendung der gegebenen Ähnlichkeitsinformationen 104 erzeugt wird. Eine zweite Ähnlichkeitskurve 1105, welche durch eine gestrichelte Linie angezeigt ist, ist eine Ähnlichkeitskurve, welche unter Verwendung der zweiten Korrekturinformationen 1100 und der zweiten Ähnlichkeitsinformationen 105, welche basierend auf den ersten Ähnlichkeitsinformationen 104 erzeugt worden ist, erstellt wurde.In the lower part of 6 the horizontal axis of the graph 1111 represents the search position within the search area, and the vertical axis represents the similarity. A first similarity curve 1104, which is indicated by a solid line, is a similarity curve which is generated using the given similarity information 104. A second similarity curve 1105, which is indicated by a broken line, is a similarity curve created using the second correction information 1100 and the second similarity information 105 generated based on the first similarity information 104.

Wie in der Grafik 1110 dargestellt, ist der Korrekturkoeffizient K an der Suchposition A1 gleich „K0“, wie durch ein Element 1101 der zweiten Korrekturinformationen 301 angezeigt. Wie durch ein Element 1106 an der zweiten Ähnlichkeitskurve 1105 angezeigt, sind somit der Wert der ersten Ähnlichkeitskurve 1104 und der Wert der zweiten Ähnlichkeitskurve 1105 an der Suchposition A1 dieselben.As shown in the graph 1110, the correction coefficient K at the search position A1 is “K0” as indicated by an element 1101 of the second correction information 301. Thus, as indicated by an element 1106 on the second similarity curve 1105, the value of the first similarity curve 1104 and the value of the second similarity curve 1105 at the search position A1 are the same.

Der Korrekturkoeffizient K an der Suchposition A2 ist gleich „K1“, welcher einem Wert kleiner als K0 entspricht, wie durch ein Element 1102 der zweiten Korrekturinformationen 301 angezeigt. Wie durch ein Element 1107 an der zweiten Ähnlichkeitskurve 1105 angezeigt, ist daher an der Suchposition A2 die zweite Ähnlichkeit größer als die erste Ähnlichkeit. Der Korrekturkoeffizient an der Suchposition A3 ist gleich „K2“, welcher einem Wert größer als K0 entspricht, wie durch ein Element 1103 der zweiten Korrekturinformationen 301 angezeigt. Wie durch ein Element 1108 an der zweiten Ähnlichkeitskurve 1105 angezeigt, ist daher an der Suchposition A3 die zweite Ähnlichkeit geringer als die erste Ähnlichkeit.The correction coefficient K at the search position A2 is equal to “K1”, which corresponds to a value smaller than K0, as indicated by an element 1102 of the second correction information 301. Therefore, as indicated by an element 1107 on the second similarity curve 1105, at the search position A2, the second similarity is greater than the first similarity. The correction coefficient at the search position A3 is equal to “K2”, which corresponds to a value larger than K0, as indicated by an item 1103 of the second correction information 301. Therefore, as indicated by an element 1108 on the second similarity curve 1105, at the search position A3, the second similarity is less than the first similarity.

Unter Verwendung des Korrekturkoeffizienten K ist die Korrektur der ersten Ähnlichkeitsinformationen 104 zum Beispiel wie folgt.
Sa ( Ai ) = Sb ( Ai ) × K ( i )

Figure DE112022001667T5_0007
For example, using the correction coefficient K, the correction of the first similarity information 104 is as follows.
Sat ( Ai ) = Sb ( Ai ) × K ( i )
Figure DE112022001667T5_0007

Sb (i) ist die Ähnlichkeit an der Suchposition (i) an der ersten Ähnlichkeitskurve 1104, Sa(i) ist die Ähnlichkeit an der Suchposition (i) an der zweiten Ähnlichkeitskurve 1105, und K(i) ist der Korrekturkoeffizient K auf den zweiten Korrekturinformationen 1100 an der Suchposition (i). In diesem Fall weist die Ähnlichkeit an der Suchposition A2 in 6 die folgende Beziehung auf.
S 1 = S 0 × K 1

Figure DE112022001667T5_0008
Sb (i) is the similarity at the search position (i) on the first similarity curve 1104, Sa(i) is the similarity at the search position (i) on the second similarity curve 1105, and K(i) is the correction coefficient K on the second Correction information 1100 at the search position (i). In this case, the similarity at the search position A2 points in 6 the following relationship.
S 1 = S 0 × K 1
Figure DE112022001667T5_0008

Die Korrekturausführungseinheit 22 liest den Korrekturkoeffizienten K für jede der Suchpositionen unter Bezugnahme auf die zweiten Korrekturinformationen 301 ein und korrigiert die erste. Ähnlichkeit, wie in der obigen Gleichung durch Multiplizieren des Korrekturkoeffizienten K mit der Ähnlichkeit, welche der Position entspricht. Die Korrekturausführungseinheit 22 korrigiert die Ähnlichkeit unter Verwendung der zweiten Korrekturinformationen 301 nach dem Korrigieren der Ähnlichkeit unter Verwendung der ersten Korrekturinformationen 200.The correction execution unit 22 reads the correction coefficient K for each of the search positions with reference to the second correction information 301 and corrects the first. Similarity, as in the above equation by multiplying the correction coefficient K by the similarity corresponding to the position. The correction execution unit 22 corrects the similarity using the second correction information 301 after correcting the similarity using the first correction information 200.

Ein spezifisches Beispiel für ein Verfahren des Erzeugens der zweiten Korrekturinformationen 301 durch die zweite Erzeugungseinheit 51, insbesondere ein Verfahren des Erzeugens des Korrekturkoeffizienten K entsprechend der Suchposition, wird unter Bezugnahme auf 7 beschrieben. 7(a) ist ein Diagramm, welches ein erstes Beispiel für das Berechnen des Korrekturkoeffizienten K darstellt. Die erste Stufe gibt die Parallaxenposition an, die zweite Stufe gibt den Parallaxenwert an, die dritte Stufe gibt die Kontinuität an, die vierte Stufe gibt die Funktion an, und die fünfte Stufe gibt den Korrekturkoeffizienten K an. Wenn hier die Differenz vom links angrenzenden Parallaxenwert geringer als oder gleich „2“ ist, was einen vorher festgelegten Schwellenwert darstellt, ist ermittelt worden, dass die Parallaxenwerte kontinuierlich sind und sich die Kontinuität um „1“ erhöht, und wenn die Differenz größer als oder gleich dem Schwellenwert ist, verringert sich die Kontinuität um „1“, wobei die festgelegte Obergrenze für die Kontinuität auf „3“ gesetzt ist.A specific example of a method of generating the second correction information 301 by the second generating unit 51, particularly a method of generating the correction coefficient K corresponding to the search position, will be described with reference to 7 described. 7(a) is a diagram showing a first example of calculating the correction coefficient K. The first stage indicates the parallax position, the second stage indicates the parallax value, the third stage indicates the continuity, the fourth stage indicates the function, and the fifth stage indicates the correction coefficient K. Here, if the difference from the left adjacent parallax value is less than or equal to "2", which is a predetermined threshold value, it is determined that the parallax values are continuous and the continuity increases by "1", and if the difference is greater than or is equal to the threshold, the continuity decreases by "1", with the specified continuity upper limit set to "3".

Darüber hinaus bedeutet für die Funktion „0“ keine Korrektur, „1“ bedeutet schwache Korrektur, und „2“ bedeutet starke Korrektur. Im Fall einer Kontinuität von „0“ und „1“ wird die Funktion auf „0“ gesetzt, im Fall einer Kontinuität von „2“ wird die Funktion auf „1“ gesetzt, und im Fall einer Kontinuität von „3“ wird die Funktion auf „2“ gesetzt. Im Unterschied zu 6 ist der Korrekturkoeffizient K zur einfacheren Darstellung durch einen numerischen Wert angegeben, wobei- „5“ in 6 „K0“ entspricht, „3“ in 6 „K1“ entspricht, und „4“ zwischen „K“ und „K0“ in 6 entspricht. Der Korrekturkoeffizient wird im Einklang mit dem Wert der Funktion gesetzt, wobei der Korrekturkoeffizient K auf „5“ gesetzt wird, wenn die Funktion „0“ ist, der Korrekturkoeffizient K auf „4“ gesetzt wird, wenn die Funktion „1“ ist, und der Korrekturkoeffizient K auf „3“ gesetzt wird, wenn die Funktion „2“ ist.In addition, for the function, “0” means no correction, “1” means weak correction, and “2” means strong correction. In case of continuity of "0" and "1" the function is set to "0", in case of continuity of "2" the function is set to "1", and in case of continuity of "3" the function is set to “2”. In contrast to 6 For ease of representation, the correction coefficient K is given by a numerical value, where- “5” in 6 “K0” corresponds to “3” in 6 “K1” corresponds, and “4” between “K” and “K0” in 6 corresponds. The correction coefficient is set in accordance with the value of the function, where the correction coefficient K is set to "5" when the function is "0", the correction coefficient K is set to "4" when the function is "1", and the correction coefficient K is set to “3” when the function is “2”.

Im Beispiel von 7(a) sind die Parallaxenwerte „8“ an den Parallaxenpositionen A bis G kontinuierlich. Daher erhöht sich die Kontinuität vom ursprünglichen Wert „0“, gefolgt vom Maximalwert „3“. Da der Parallaxenwert an und nach der Parallaxenposition H auf „2“ geschaltet wird, ist die Differenz von „8“ größer als der Schwellenwert „2“, und somit wird die Kontinuität an den Parallaxenpositionen H, I und J um „1“ verringert und erreicht bei Position J eine Kontinuität von „0“. Da sich der Parallaxenwert „2“ danach fortsetzt, beginnt sich die Kontinuität zu erhöhen, und es folgt der Maximalwert „3“ unter der Annahme, dass die Kontinuität eine Kontinuität auf dem Wert „2“ bedeutet. Da die Funktion mit der Kontinuität in Verbindung steht und der Korrekturkoeffizient K mit der Funktion in Verbindung steht, variiert der Wert der Funktion im Einklang mit der Kontinuität, und der Wert des Korrekturkoeffizienten K variiert auch im Einklang mit dem Wert der Funktion in 7 (a) .In the example of 7(a) The parallax values “8” are continuous at the parallax positions A to G. Therefore, the continuity increases from the original value “0” followed by the maximum value “3”. Since the parallax value at and after the parallax position H is switched to “2”, the difference of “8” is greater than the threshold value “2”, and thus the continuity at the parallax positions H, I and J is reduced by “1” and reaches a continuity of “0” at position J. Since the parallax value “2” continues thereafter, the continuity begins to increase and the maximum value “3” follows, assuming that the continuity means continuity at the value “2”. Since the function is related to the continuity and the correction coefficient K is related to the function, the value of the function varies in accordance with the continuity, and the value of the correction coefficient K also varies in accordance with the value of the function in 7 (a) .

7(b) ist ein Diagramm, welches ein zweites Beispiel für das Berechnen des Korrekturkoeffizienten K darstellt. Die erste Stufe gibt die Parallaxenposition an, die zweite Stufe gibt den Parallaxenwert an, die dritte Stufe gibt die Kontinuität A an, die vierte Stufe gibt die Kontinuität B an, die fünfte Stufe gibt die maximale Kontinuität an, die sechste Stufe gibt die Funktion an, und die siebte Stufe gibt den Korrekturkoeffizienten K an. Die Kontinuität A und die Kontinuität B zählen einen kontinuierlichen Zustand unterschiedlicher Parallaxenwerte. Die maximale Kontinuität ist ein größerer Wert der Kontinuität A und der Kontinuität B. In diesem Beispiel wird die Funktion mit der maximalen Kontinuität in Verbindung gesetzt. 7(b) is a diagram showing a second example of calculating the correction coefficient K. The first level indicates the parallax position, the second level indicates the parallax value, the third level indicates the continuity A, the fourth level indicates the continuity B, the fifth level indicates the maximum continuity, the sixth level indicates the function , and the seventh stage gives the correction coefficient K. The continuity A and the continuity B count a continuous state of different parallax values. Maximum continuity is a larger value of continuity A and continuity B. In this example, the function is related to maximum continuity.

Im Beispiel von 7(b) ist der Parallaxenwert „8“ an den Parallaxenpositionen A bis G kontinuierlich, der Parallaxenwert „2“ ist an den Parallaxenpositionen H bis M kontinuierlich, und der Parallaxenwert „5“ ist an den Parallaxenpositionen N bis Q kontinuierlich. Daher erhöht sich die Kontinuität A an den Parallaxenpositionen A bis G ähnlich der Kontinuität in 7(a) und bleibt auf dem maximalen Wert von „3“. Zu diesem Zeitpunkt weist die Kontinuität B nur einen Parallaxenwert auf und wird nicht verwendet, wobei ein Sternchen anzeigt, dass kein Wert angeschrieben wird.In the example of 7(b) The parallax value “8” is continuous at the parallax positions A to G, the parallax value “2” is continuous at the parallax positions H to M, and the parallax value “5” is continuous at the parallax positions N to Q. Therefore, the continuity A increases at the parallax positions A to G similar to the continuity in 7(a) and remains at the maximum value of “3”. At this point, continuity B has only a parallax value and is not used, with an asterisk indicating that no value is written.

Wenn der Parallaxenwert an der Parallaxenposition H auf „2“ geschaltet wird, ist die Differenz vom vorherigen Parallaxenwert „8“ größer als der Schwellenwert „2“, und somit verringert sich die Kontinuität A in diesem Beispiel bis zur Untergrenze „0“. Die Kontinuität B wird an der Parallaxenposition H zu einem ursprünglichen Wert „0“, und steigt danach an, da sich der Parallaxenwert „2“ fortsetzt, und erreicht an der Parallaxenposition K den maximalen Wert „3“. Wenn sich in der Folge der Parallaxenwert an der Parallaxenposition N auf „5“ ändert, verringert sich die Kontinuität B, und die Kontinuität A steigt an, um die Kontinuität B zu ersetzen. Da die maximale Kontinuität der maximale Wert der Kontinuität A und der Kontinuität B ist, wie oben beschrieben, ist die maximale Kontinuität dieselbe wie die Kontinuität A bis zur Parallaxenposition G, wo der Wert der Kontinuität B nicht existiert, und der größere Wert, oder die Kontinuität B, wird an den Parallaxenpositionen J bis N zur maximalen Kontinuität. Der Wert der Funktion wird gemäß der maximalen Kontinuität ermittelt, und der Wert des Korrekturkoeffizienten K wird gemäß dem Wert der Funktion ermittelt.When the parallax value at the parallax position H is switched to "2", the difference from the previous parallax value "8" is greater than the threshold value "2", and thus the continuity A in this example decreases to the lower limit "0". The continuity B becomes an initial value “0” at the parallax position H, and thereafter increases as the parallax value “2” continues, and reaches the maximum value “3” at the parallax position K. As a result, when the parallax value at the parallax position N changes to “5”, the continuity B decreases and the continuity A increases to replace the continuity B. Since the maximum continuity is the maximum value of the continuity A and the continuity B, as described above, the maximum continuity is the same as the continuity A up to the parallax position G, where the value of the continuity B does not exist, and the larger value, or the Continuity B, becomes maximum continuity at parallax positions J to N. The value of the function is determined according to the maximum continuity, and the value of the correction coefficient K is determined according to the value of the function.

Es ist zu beachten, dass in dem Beispiel, welches in 7 dargestellt ist, der Korrekturkoeffizient K nur Werte annimmt, welche K0 bis K1 entsprechen, dass der Korrekturkoeffizient K jedoch Werte von K0 bis K2 annehmen kann, indem die Beziehung zwischen der Funktion und dem Korrekturkoeffizient K wie folgt geändert wird. Zum Beispiel wird der Korrekturkoeffizient K auf „7“ gesetzt, das heißt auf K2, wenn die Funktion „0“ lautet, der Korrekturkoeffizient K wird auf „5“ gesetzt, das heißt auf K0, wenn die Funktion „1“ lautet, und der Korrekturkoeffizient K wird auf „3“ gesetzt, das heißt auf K1, wenn die Funktion „2“ lautet.It should be noted that in the example given in 7 is shown, the correction coefficient K only assumes values which correspond to K0 to K1, but the correction coefficient K has values from K0 to K2 by changing the relationship between the function and the correction coefficient K as follows. For example, the correction coefficient K is set to "7", that is, to K2, when the function is "0", the correction coefficient K is set to "5", that is, to K0, when the function is "1", and the Correction coefficient K is set to “3”, that is, to K1 if the function is “2”.

Im Betrieb weist die erste oben beschriebene Ausführungsform die folgenden Wirkungen auf.
(1) Die Datenverarbeitungsvorrichtung 1 ist mit der ersten Bilderfassungseinheit 2 und der zweiten Bilderfassungseinheit 3 verbunden und erzeugt durch Suchen in Einheiten vorher festgelegter übereinstimmender. Blöcke Parallaxeninformationen des ersten Bilds 100, welches durch die erste Bilderfassungseinheit 2 erfasst worden ist, und des zweiten Bilds 101, welches durch die zweite Bilderfassungseinheit 3 erfasst worden ist. Die Datenverarbeitungsvorrichtung 1 weist eine Ähnlichkeitserzeugungseinheit 11, welche eine erste Ähnlichkeit zwischen einem übereinstimmenden Block im ersten Bild 100 und einem übereinstimmenden Block in einem Suchbereich des zweiten Bilds 101 in Einheiten übereinstimmender Blöcke erzeugt, eine Ähnlichkeitskorrektureinheit 12, welche die ersten Ähnlichkeitsinformationen 104 unter Verwendung mindestens entweder erster Korrekturinformationen 200, welche basierend auf der ersten Ähnlichkeit eines beliebigen angrenzenden übereinstimmenden Blocks innerhalb des Suchbereichs des zweiten Bilds 101 erzeugt worden sind, und/oder zweiter Korrekturinformationen 301, welche basierend auf Parallaxeninformationen 106 erzeugt worden sind, um die zweiten Ähnlichkeitsinformationen 105 zu erzeugen, und eine Ähnlichkeitsermittlungseinheit 13, welche die Parallaxeninformationen 106 basierend auf den zweiten Ähnlichkeitsinformationen 105 erzeugt, auf. Somit ist es möglich, eine fehlerhafte Zuordnung zu vermeiden und die Berechnungsgenauigkeit der Parallaxe zu verbessern, indem die Ähnlichkeit unter Verwendung der ersten Korrekturinformationen 200 und der zweiten Korrekturinformationen 301 korrigiert wird.
In operation, the first embodiment described above has the following effects.
(1) The data processing device 1 is connected to the first image capture unit 2 and the second image capture unit 3 and produces predetermined matching units by searching. Blocks parallax information of the first image 100 captured by the first image capture unit 2 and the second image 101 captured by the second image capture unit 3. The data processing device 1 has a similarity generation unit 11, which generates a first similarity between a matching block in the first image 100 and a matching block in a search area of the second image 101 in units of matching blocks, a similarity correction unit 12, which the first similarity information 104 using at least either first correction information 200 generated based on the first similarity of any adjacent matching block within the search area of the second image 101, and/or second correction information 301 generated based on parallax information 106 to generate the second similarity information 105, and a similarity determination unit 13, which generates the parallax information 106 based on the second similarity information 105. Thus, it is possible to avoid erroneous association and improve the calculation accuracy of parallax by correcting the similarity using the first correction information 200 and the second correction information 301.

(2) Die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 erzeugen ein erstes Bild 100 beziehungsweise ein zweites Bild 101 in vorher festgelegten Verarbeitungszyklen. Wie in den 4 und 5 dargestellt, weist die Datenverarbeitungsvorrichtung 1 eine zweite Korrekturinformationserzeugungseinheit 21, welche die zweiten Korrekturinformationen erzeugt, auf, wobei die zweiten Korrekturinformationen der Korrekturkoeffizient K sind, welcher mit der Ähnlichkeit basierend auf den Parallaxeninformationen 106 im Umfangsbereich des übereinstimmenden Blocks im letzten ersten Bild 100 und im letzten zweiten Bild 101, oder im ersten Bild 100 eines vorher festgelegten vorhergehenden Zyklus und im zweiten Bild 101 eines vorher festgelegten vorhergehenden Zyklus zu multiplizieren ist. Wenn das zuletzt fotografierte Bild verwendet wird, kann der Korrekturkoeffizient K somit basierend auf den Parallaxeninformationen 106, welche keine Positionsverschiebung aufweisen, berechnet werden, und wenn das zuvor fotografierte Bild verwendet wird, kann der Korrekturkoeffizient unter Verwendung der Parallaxeninformationen des gesamten Einzelbilds berechnet werden.(2) The first image capture unit 2 and the second image capture unit 3 generate a first image 100 and a second image 101, respectively, in predetermined processing cycles. Like in the 4 and 5 As shown, the data processing device 1 has a second correction information generation unit 21 which generates the second correction information, the second correction information being the correction coefficient K which corresponds to the similarity based on the parallax information 106 in the peripheral area of the matching block in the last first image 100 and in the last second image 101, or in the first image 100 of a predetermined previous cycle and in the second image 101 of a predetermined previous cycle is to be multiplied. Thus, when the last photographed image is used, the correction coefficient K can be calculated based on the parallax information 106 which has no position shift, and when the previously photographed image is used, the correction coefficient can be calculated using the parallax information of the entire frame.

(3) Wie in der Suchposition A2 in 6 weisen- die zweiten Korrekturinformationen 301 einen Korrekturkoeffizienten zum Vornehmen einer Korrektur auf, um die erste Ähnlichkeit entsprechend den Parallaxeninformationen im Umfangsbereich zu erhöhen, wenn die Kontinuität der Parallaxeninformationen im Umfangsbereich größer als der oder gleich dem Schwellenwert ist. Somit ist es möglich, eine fehlerhafte Zuordnung zu vermeiden und die Berechnungsgenauigkeit der Parallaxe zu verbessern, indem die Ähnlichkeit des übereinstimmenden Blocks, welcher eine Parallaxe ähnlich seiner Umgebung aufweist und erwartungsgemäß ähnlich seiner Umgebung ist, vergrößert wird.(3) As in the search position A2 in 6 The second correction information 301 has a correction coefficient for making a correction to increase the first similarity corresponding to the parallax information in the peripheral area when the continuity of the parallax information in the peripheral area is greater than or equal to the threshold value. Thus, it is possible to avoid erroneous matching and improve the calculation accuracy of the parallax by increasing the similarity of the matching block, which has a parallax similar to its surroundings and is expected to be similar to its surroundings.

(4) Wie in der Suchposition A3 in 6 weisen die zweiten Korrekturinformationen 301 einen Korrekturkoeffizienten zum Vornehmen einer Korrektur auf, um die erste Ähnlichkeit entsprechend den Parallaxeninformationen im Umfangsbereich zu verringern, wenn die Kontinuität der Parallaxeninformationen im Umfangsbereich niedriger als der oder gleich dem Schwellenwert ist. Somit ist es möglich, eine fehlerhafte Zuordnung zu vermeiden und die Berechnungsgenauigkeit der Parallaxe zu verbessern, indem die Ähnlichkeit des übereinstimmenden Blocks, welcher eine Parallaxe, welche seiner Umgebung nicht ähnlich ist, aufweist und das Zuordnen schwierig macht, verringert wird.(4) As in the search position A3 in 6 the second correction information 301 has a correction coefficient for making a correction to reduce the first similarity corresponding to the parallax information in the peripheral area when the continuity of the parallax information in the peripheral area is lower than or equal to the threshold value. Thus, it is possible to avoid erroneous matching and improve the calculation accuracy of the parallax by reducing the similarity of the matching block, which has a parallax not similar to its surroundings and makes matching difficult.

(5) Die Korrekturausführungseinheit 22 der Ähnlichkeitskorrektureinheit 12 korrigiert erste Ähnlichkeitsinformationen 104 basierend auf den ersten Korrekturinformationen 200, und korrigiert dann zusätzlich die ersten Ähnlichkeitsinformationen 104 basierend auf den zweiten Korrekturinformationen 301, um die zweite Ähnlichkeit zu erzeugen. Somit kann die Datenverarbeitungsvorrichtung 1 das Ergebnis der ersten Korrektur zum Korrigieren der lokalen Ähnlichkeit für die zweite Korrektur zum Korrigieren der Ähnlichkeit in einem großen Bereich verwenden.(5) The correction execution unit 22 of the similarity correction unit 12 corrects first similarity information 104 based on the first correction information 200, and then additionally corrects the first similarity information 104 based on the second correction information 301 to generate the second similarity. Thus, the data processing device 1 can use the result of the first correction for correcting the local similarity for the second correction for correcting the similarity in a large area.

(6) Die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 sind in der Grundlinienrichtung angeordnet. Die erste Korrekturinformationserzeugungseinheit 20 ist bereitgestellt, welche in der Grundlinienrichtung abtastet, um nach einem Wendepunkt zu suchen, an welchem sich das Zeichen der Differenz der Ähnlichkeiten umdreht, eine neue Ähnlichkeit unter Verwendung der Ähnlichkeit rund um den Wendepunkt berechnet, und eine Kombination der Position des Wendepunkts und der neuen Ähnlichkeit als die ersten Korrekturinformationen 200 berechnet. Somit kann die Ähnlichkeit feiner korrigiert werden als mit der Ähnlichkeitsberechnungseinheit. In einem Fall, in welchen die Ähnlichkeit für jeden Bildpunkt berechnet wird, weist die Suchposition 1003 zum Beispiel einen fraktionellen Koordinatenwert auf, wodurch gesagt werden kann, dass die Ähnlichkeit mit der Genauigkeit von Subbildpunkten berechnet werden kann.(6) The first image capture unit 2 and the second image capture unit 3 are arranged in the baseline direction. The first correction information generating unit 20 is provided, which scans in the baseline direction to search for a turning point at which the time is chen of the difference in similarities, calculates a new similarity using the similarity around the turning point, and calculates a combination of the position of the turning point and the new similarity as the first correction information 200. The similarity can therefore be corrected more finely than with the similarity calculation unit. For example, in a case where the similarity is calculated for each pixel, the search position 1003 has a fractional coordinate value, whereby it can be said that the similarity can be calculated with the precision of sub-pixels.

(7) Das Überwachungssystem S weist die Datenverarbeitungsvorrichtung 1, die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 auf. Somit gibt es im Überwachungssystem S wenig fehlerhafte Zuordnung, und die Berechnungsgenauigkeit der Parallaxe ist hoch.(7) The monitoring system S has the data processing device 1, the first image capture unit 2 and the second image capture unit 3. Thus, in the monitoring system S, there is little misallocation, and the calculation accuracy of parallax is high.

(Erstes modifiziertes Beispiel)(First modified example)

In der ersten oben beschriebenen Ausführungsform weist die Ähnlichkeitskorrektureinheit 12 der Datenverarbeitungsvorrichtung 1 die erste Korrekturinformationserzeugungseinheit 20 und die zweite Korrekturinformationserzeugungseinheit 21 auf. Die Ähnlichkeitskorrektureinheit 12 kann jedoch auch nur eine der Einheiten aus der Gruppe umfassend die erste Korrekturinformationserzeugungseinheit 20 und die zweite Korrekturinformationserzeugungseinheit 21 aufweisen.In the first embodiment described above, the similarity correction unit 12 of the data processing device 1 includes the first correction information generation unit 20 and the second correction information generation unit 21. However, the similarity correction unit 12 can also have only one of the units from the group comprising the first correction information generation unit 20 and the second correction information generation unit 21.

(Zweites modifiziertes Beispiel)(Second modified example)

Da in der ersten oben beschriebenen Ausführungsform die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 nebeneinander angeordnet sind, ist die Grundlinienrichtung horizontal, und die erste Erzeugungseinheit 41 tastet die Ähnlichkeit in Querrichtung ab, wie in 3 dargestellt. Die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 können jedoch auch übereinander oder schräg gegeneinander versetzt angeordnet sein. In diesem Fall kann die erste Erzeugungseinheit 41 die Ähnlichkeit in der Grundlinienrichtung, das heißt, entlang der Epipolarlinie abtasten.In the first embodiment described above, since the first image capture unit 2 and the second image capture unit 3 are arranged side by side, the baseline direction is horizontal, and the first generation unit 41 scans the similarity in the transverse direction, as shown in FIG 3 shown. However, the first image capture unit 2 and the second image capture unit 3 can also be arranged one above the other or offset diagonally from one another. In this case, the first generation unit 41 may sample the similarity in the baseline direction, that is, along the epipolar line.

-Zweite Ausführungsform--Second embodiment-

Eine zweite Ausführungsform eines Überwachungssystems wird unter Bezugnahme auf 8 beschrieben. In der folgenden Beschreibung kennzeichnen dieselben Bezugsziffern dieselben Komponenten wie in der ersten Ausführungsform, und beschrieben werden in erster Linie die Unterschiede. Die Punkte, welche nicht näher beschrieben sind, entsprechen der ersten Ausführungsform. Die vorliegende Ausführungsform unterscheidet sich von der ersten Ausführungsform hauptsächlich dadurch, dass eine Korrekturinformationsannullierungseinheit bereitgestellt ist.A second embodiment of a monitoring system is described with reference to 8th described. In the following description, the same reference numerals denote the same components as in the first embodiment, and the differences will be primarily described. The points that are not described in more detail correspond to the first embodiment. The present embodiment differs from the first embodiment mainly in that a correction information cancellation unit is provided.

8 ist ein Konfigurationsdiagramm einer Korrekturausführungseinheit 22A in der zweiten Ausführungsform. Die Korrekturausführungseinheit 22A weist eine Korrekturinformationsannullierungseinheit 60 und eine Korrektureinheit 61 auf. Die Korrektureinheit 61 weist eine erste Korrektureinheit 70 und eine zweite Korrektureinheit 71 auf. 8th is a configuration diagram of a correction execution unit 22A in the second embodiment. The correction execution unit 22A includes a correction information cancellation unit 60 and a correction unit 61. The correction unit 61 has a first correction unit 70 and a second correction unit 71.

In der ersten Ausführungsform werden die ersten Ähnlichkeitsinformationen 104, die ersten Korrekturinformationen 200 und die zweiten Korrekturinformationen 301 in die Korrekturausführungseinheit 22 eingegeben, während in der vorliegenden Ausführungsform der Korrekturausführungseinheit 22A zusätzlich zu den obigen drei Einzelinformationen ferner eine Annullierungsanweisung 602 eingegeben wird. Die Korrekturausführungseinheit 22A führt den Korrekturprozess der ersten Ähnlichkeitsinformationen 104 basierend auf der Annullierungsanweisung 602, den ersten . Korrekturinformationen 200 und den zweiten Korrekturinformationen 301 aus, um die zweiten Ähnlichkeitsinformationen 105 zu erzeugen.In the first embodiment, the first similarity information 104, the first correction information 200 and the second correction information 301 are input to the correction execution unit 22, while in the present embodiment, the correction execution unit 22A is further inputted with an annulment instruction 602 in addition to the above three items of information. The correction execution unit 22A performs the correction process of the first similarity information 104 based on the cancellation instruction 602, the first. Correction information 200 and the second correction information 301 to generate the second similarity information 105.

Die Korrekturinformationsannullierungseinheit 60 kann mindestens entweder die ersten Korrekturinformationen 200 und/oder die zweiten Korrekturinformationen 301 basierend auf der Annullierungsanweisung 602 annullieren. Zum Beispiel kann die Korrekturinformationsannullierungseinheit 60 sowohl die ersten Korrekturinformationen 200 als auch die zweiten Korrekturinformationen 301 annullieren, kann nur die einen oder die anderen annullieren, oder kann keine davon annullieren. Beispiele für die Annullierungsanweisung 602 weisen Informationen, welche die Gültigkeit oder Ungültigkeit der ersten Korrekturinformationen 200 angeben, und Informationen, welche die Gültigkeit oder Ungültigkeit der zweiten Korrekturinformationen 301 angeben, auf. Das bedeutet, die Korrekturinformationsannullierungseinheit 60 empfängt die Ausgabe der ersten Korrekturinformationen 200 von der ersten Korrekturinformationserzeugungseinheit 20 und die Ausgabe der zweiten Korrekturinformationen 301 von der zweiten Korrekturinformationserzeugungseinheit 31 als die zweiten gültigen Korrekturinformationen 601.The correction information cancellation unit 60 may cancel at least one of the first correction information 200 and the second correction information 301 based on the cancellation instruction 602. For example, the correction information invalidation unit 60 may invalidate both the first correction information 200 and the second correction information 301, may invalidate only one or the others, or may invalidate none of them. Examples of the cancellation instruction 602 include information indicating the validity or invalidity of the first correction information 200 and information indicating the validity or invalidity of the second correction information 301. That is, the correction information cancellation unit 60 receives the output of the first correction information 200 from the first correction information generation unit 20 and the output of the second correction information 301 from the second correction information generation unit 31 as the second valid correction information 601.

Wenn sie die Annullierungsanweisung 602 empfängt, welche angibt, dass die ersten Korrekturinformationen 200 gültig sind und die zweiten Korrekturinformationen 301 ungültig sind, führt die Korrekturinformationsannullierungseinheit 60 zum Beispiel den folgenden Prozess durch. Und zwar gibt die Korrekturinformationsannullierungseinheit 60 die ersten Korrekturinformationen 200 als die ersten gültigen Korrekturinformationen 600 aus, und gibt die zweiten gültigen Korrekturinformationen 601 als die durch Annullieren der zweiten Korrekturinformationen 301 erlangten Informationen aus.When it receives the cancellation instruction 602 indicating that the first correction information 200 is valid and the second correction information 301 is invalid, the correction information cancellation unit 60 performs the following process, for example. Namely, the correction information cancellation unit 60 gives the first ones outputs correction information 200 as the first valid correction information 600, and outputs the second valid correction information 601 as the information obtained by canceling the second correction information 301.

Die Korrektureinheit 61 führt den Korrekturprozess der ersten Ähnlichkeitsinformationen 104 basierend auf den ersten gültigen Korrekturinformationen 600 und den zweiten gültigen Korrekturinformationen 601 durch, um die zweiten Ähnlichkeitsinformationen 105 zu erzeugen. Als ein Beispiel für den Korrekturprozess an den ersten gültigen Korrekturinformationen 600 gibt es ein Verfahren des Erzeugens der zweiten Ähnlichkeitsinformationen 105 durch Ersetzen der Ähnlichkeit an der zu korrigierenden Suchposition oder durch Einfügen der Ähnlichkeit an der neuen Suchposition unter Verwendung der ersten Korrekturinformationen 200. Als ein Beispiel für den Korrekturprozess an den zweiten gültigen Korrekturinformationen 601 gibt es ein Verfahren des Erzeugens der oben unter Bezugnahme auf 6 beschriebenen zweiten Ähnlichkeitskurve 1105. Ferner wird der Korrekturprozess unter Verwendung der ersten Korrekturinformationen 200 nicht durchgeführt, wenn die ersten Korrekturinformationen 200 in den ersten gültigen Korrekturinformationen 600 annulliert worden sind. Ferner wird der Korrekturprozess unter Verwendung der ersten Korrekturinformationen 200 nicht durchgeführt, wenn die ersten Korrekturinformationen 200 in den zweiten gültigen Korrekturinformationen 601 annulliert worden sind.The correction unit 61 performs the correction process of the first similarity information 104 based on the first valid correction information 600 and the second valid correction information 601 to generate the second similarity information 105. As an example of the correction process on the first valid correction information 600, there is a method of generating the second similarity information 105 by replacing the similarity at the search position to be corrected or by inserting the similarity at the new search position using the first correction information 200. As an example for the correction process on the second valid correction information 601, there is a method of generating the above with reference to 6 described second similarity curve 1105. Further, the correction process using the first correction information 200 is not performed if the first correction information 200 in the first valid correction information 600 has been canceled. Further, the correction process using the first correction information 200 is not performed if the first correction information 200 in the second valid correction information 601 has been canceled.

Die erste Korrektureinheit 70 führt den Korrekturprozess der ersten Ähnlichkeitsinformationen 104 basierend auf den ersten gültigen Korrekturinformationen 600 durch, um Übergangsähnlichkeitsinformationen 700 zu erzeugen. Die zweite Korrektureinheit 71 führt den Korrekturprozess der Übergangsähnlichkeitsinformationen 700 basierend auf den zweiten gültigen Korrekturinformationen 601 durch, um die zweiten Ähnlichkeitsinformationen 105 zu erzeugen. Da der Korrekturprozess in der ersten Korrektureinheit 70 und der Korrekturprozess in der zweiten Korrektureinheit 71 der obigen Beschreibung unter Bezugnahme auf die 3 und 6 entsprechen, wurden die Details derselben weggelassen.The first correction unit 70 performs the correction process of the first similarity information 104 based on the first valid correction information 600 to generate transition similarity information 700. The second correction unit 71 performs the correction process of the transition similarity information 700 based on the second valid correction information 601 to generate the second similarity information 105. Since the correction process in the first correction unit 70 and the correction process in the second correction unit 71 are described above with reference to FIG 3 and 6 correspond, the details of the same have been omitted.

Im Einklang mit der zweiten oben beschriebenen Ausführungsform kann eine entsprechende Korrektur ordnungsgemäß verwendet werden.In accordance with the second embodiment described above, a corresponding correction can be properly used.

-Dritte Ausführungsform--Third Embodiment-

Eine dritte Ausführungsform eines Überwachungssystems wird unter Bezugnahme auf 9 beschrieben. In der folgenden Beschreibung kennzeichnen dieselben Bezugsziffern dieselben Komponenten wie in der ersten Ausführungsform, und beschrieben werden in erster Linie die Unterschiede. Die Punkte, welche nicht näher beschrieben sind, entsprechen der ersten Ausführungsform. Die vorliegende Ausführungsform unterscheidet sich von der ersten Ausführungsform hauptsächlich dadurch, dass die Grenze der Parallaxe erfasst wird und die zweiten Korrekturinformationen nicht erzeugt werden.A third embodiment of a monitoring system is described with reference to 9 described. In the following description, the same reference numerals denote the same components as in the first embodiment, and the differences will be primarily described. The points that are not described in more detail correspond to the first embodiment. The present embodiment differs from the first embodiment mainly in that the limit of parallax is detected and the second correction information is not generated.

9 ist ein Konfigurationsdiagramm einer Ähnlichkeitskorrektureinheit 12B im Einklang mit der dritten Ausführungsform. Die Ähnlichkeitskorrektureinheit 12B weist eine zweite Korrekturinformationserzeugungseinheit 21B anstelle der zweiten Korrekturinformationserzeugungseinheit 21 auf, und weist außerdem eine Parallaxengrenzerfassungseinheit 30 auf. Die Parallaxengrenzerfassungseinheit 30 bezieht sich auf die berechneten Parallaxeninformationen 106, und gibt die Parallaxengrenzinformationen 300 an die zweite Körrekturinformationserzeugungseinheit 21B aus, wenn die Parallaxengrenze im übereinstimmenden Block erfasst wird. Zum Erfassen des Vorhandenseins oder Nichtvorhandenseins der Parallaxengrenze im übereinstimmenden Block kann zum Beispiel eines der drei folgenden Verfahren verwendet werden. 9 is a configuration diagram of a similarity correction unit 12B in accordance with the third embodiment. The similarity correction unit 12B includes a second correction information generation unit 21B instead of the second correction information generation unit 21, and also includes a parallax boundary detection unit 30. The parallax boundary detection unit 30 refers to the calculated parallax information 106, and outputs the parallax boundary information 300 to the second correction information generation unit 21B when the parallax boundary is detected in the matching block. For example, to detect the presence or absence of the parallax boundary in the matching block, one of the following three methods can be used.

Das erste Verfahren ist ein Verfahren des individuellen Überprüfens der Parallaxe jedes der Blöcke im übereinstimmenden Block im aktuellen Einzelbild. Insbesondere wird die Parallaxe jedes der Blöcke im übereinstimmenden Block mit der Parallaxe der anderen Blöcke an der rechten, der linken, der oberen und der unteren Seite verglichen, und wenn die Differenz größer als ein oder gleich einem vorher festgelegten Schwellenwert ist, ist die Ermittlung erfolgt, dass hier eine Parallaxengrenze angeordnet ist. In einem beliebigen der Blöcke erfolgt die Ermittlung, dass dort keine Parallaxengrenze angeordnet ist, wenn die Differenz zur Parallaxe der anderen Blöcke an der rechten, der linken, der oberen und der unteren Seite geringer ist als ein vorher festgelegter Schwellenwert. Da das aktuelle Einzelbild verwendet wird, werden in diesem ersten Verfahren die neuesten Informationen verwendet, wobei jedoch keine Differenz zu einem Block ausgewertet werden kann, für welchen die Parallaxe noch nicht berechnet worden ist.The first method is a method of individually checking the parallax of each of the blocks in the matching block in the current frame. Specifically, the parallax of each of the blocks in the matching block is compared with the parallax of the other blocks on the right, left, top and bottom sides, and if the difference is greater than or equal to a predetermined threshold, the determination is made that a parallax limit is arranged here. In any of the blocks, the determination is made that there is no parallax limit there if the difference to the parallax of the other blocks on the right, left, upper and lower sides is less than a predetermined threshold value. Since the current individual image is used, the most recent information is used in this first method, although no difference can be evaluated compared to a block for which the parallax has not yet been calculated.

Das zweite Verfahren ist ein Verfahren des individuellen Überprüfens der Parallaxe jedes der Blöcke im übereinstimmenden Block im vorherigen Einzelbild, welches unmittelbar davor erlangt worden ist. Der Unterschied zum ersten Verfahren besteht darin, dass das Einzelbild ein Ziel ist, und dass die Parallaxe für sämtliche der Blöcke im vorherigen Einzelbild berechnet worden ist, wodurch mit dem zweiten Verfahren die Parallaxendifferenz sogar für den Block berechnet werden kann, in welchem die Parallaxendifferenz mit dem ersten Verfahren nicht berechnet werden kann. Im zweiten Verfahren wird davon ausgegangen, dass es keine große Änderung der Position des Objekts in der Zeitdauer eines Einzelbilds gibt, und sie verkörpert die Idee, dass der Vorteil in der Lage zu sein, die Parallaxendifferenz in sämtlichen der Blöcke zu berechnen, größer ist als der Verlust durch die Positionsänderung des Objekts.The second method is a method of individually checking the parallax of each of the blocks in the matching block in the previous frame acquired immediately before. The difference from the first method is that the frame is a target and the parallax has been calculated for all of the blocks in the previous frame, which means that with the second method the parallax difference can be calculated even for the block in which the parallax lax difference cannot be calculated using the first method. The second method assumes that there is no large change in the position of the object in the time period of a frame, and embodies the idea that the advantage of being able to calculate the parallax difference in all of the blocks is greater than the loss due to the change in position of the object.

Ein drittes Verfahren ist ein Verfahren des Erfassens der Parallaxengrenze durch hierarchische Suche. Dieses Verfahren kann auf das aktuelle Einzelbild angewendet werden, wie im ersten Verfahren, oder kann auf das vorherige Einzelbild angewendet werden, wie im zweiten Verfahren. Bei der hierarchischen Suche wird die Parallaxe zunächst mit einem Block berechnet, welcher eine größere Größe aufweist als jener des übereinstimmenden Blocks in einer Hierarchie, zum Beispiel eine doppelte Größe als jene des übereinstimmenden Blocks sowohl in der vertikalen als auch in der horizontalen Richtung. In der nachfolgenden Beschreibung wird dieser Block als ein großformatiger Block bezeichnet.A third method is a method of detecting the parallax boundary by hierarchical search. This method can be applied to the current frame, as in the first method, or can be applied to the previous frame, as in the second method. In hierarchical search, parallax is first calculated with a block that has a larger size than that of the matching block in a hierarchy, for example, twice the size of that of the matching block in both the vertical and horizontal directions. In the following description, this block is referred to as a large-sized block.

Als nächstes wird in der zweiten Hierarchie die Parallaxe jedes der Blöcke im übereinstimmenden Block basierend auf der Parallaxe des großformatigen Blocks berechnet. Insbesondere ist eine Summe von drei Parallaxen als Parallaxenkandidaten festzulegen, welche die Parallaxe des großformatigen Blocks, welcher den Zielblock, für welchen die Parallaxe berechnet werden soll, aufweist, und die Parallaxen des rechts an den relevanten großformatigen Block angrenzenden und des links an den relevanten großformatigen Block angrenzenden großformatigen Blocks aufweist, und die wahrscheinlichste Parallaxe innerhalb eines vorher festgelegten Bereichs wird unter den Parallaxenkandidaten als die zu berechnende Parallaxe festgelegt. Unter Verwendung der durch die hierarchische Suche auf diese Weise berechneten Parallaxe wird ermittelt, ob die Differenz zur Parallaxe der anderen Blöcke an der rechten, der linken, der oberen und der unteren Seite größer als ein oder gleich einem vorher festgelegten Schwellenwert ist, und wird das Vorhandensein oder Nichtvorhandensein der Parallaxengrenze ermittelt.Next, in the second hierarchy, the parallax of each of the blocks in the matching block is calculated based on the parallax of the large-sized block. In particular, a sum of three parallaxes is to be specified as parallax candidates, which has the parallax of the large-format block which has the target block for which the parallax is to be calculated, and the parallaxes of the one on the right adjacent to the relevant large-format block and of the one on the left of the relevant large-format one Block adjacent large-sized block, and the most probable parallax within a predetermined range is set among the parallax candidates as the parallax to be calculated. Using the parallax thus calculated by the hierarchical search, it is determined whether the difference from the parallax of the other blocks on the right, left, top and bottom sides is greater than or equal to a predetermined threshold, and will be Presence or absence of the parallax limit is determined.

Wenn die Parallaxengrenze im übereinstimmenden Block angeordnet ist, erzeugt die periphere Parallaxenkontinuitätsermittlungseinheit 50, welche c von der Parallaxengrenzerfassungseinheit 30 erhalten hat, die zweiten Korrekturnotwendigkeitsinformationen 500, welche anzeigen, dass die Erzeugung der zweiten Korrekturinformationen 301 nicht notwendig ist, und überträgt die zweiten Korrekturnotwendigkeitsinformationen 500 zur zweiten Erzeugungseinheit 51. Da die zweite Erzeugungseinheit 51, welche die zweiten Korrekturnotwendigkeitsinformationen 500 erhalten hat, die zweiten Korrekturinformationen 301 nicht erzeugt, korrigiert die Korrekturausführungseinheit 22 die ersten Ähnlichkeitsinformationen 104 basierend auf den zweiten Korrekturinformationen 301 nicht.When the parallax boundary is located in the matching block, the peripheral parallax continuity detection unit 50, which has received c from the parallax boundary detection unit 30, generates the second correction necessity information 500 indicating that the generation of the second correction information 301 is not necessary, and transmits the second correction necessity information 500 to the parallax boundary detection unit 30 second generation unit 51. Since the second generation unit 51, which has received the second correction necessity information 500, does not generate the second correction information 301, the correction execution unit 22 does not correct the first similarity information 104 based on the second correction information 301.

Im Betrieb weist die dritte oben beschriebene Ausführungsform die folgende Wirkung auf.
(8) Die Datenverarbeitungsvorrichtung 1 weist die Parallaxengrenzerfassungseinheit 30, welche die Parallaxengrenzinformationen 300 basierend auf den Leuchtdichteninformationen oder den Parallaxeninformationen des ersten Bilds 100 oder des zweiten Bilds 101 im Umfangsbereich erzeugt, auf. Die zweite Korrekturinformationserzeugungseinheit 21 annulliert die Erzeugung der zweiten Korrekturinformationen 201 basierend auf den Parallaxengrenzinformationen 300. Wenn eine Parallaxengrenze in der Umgebung angeordnet ist, wird somit die Korrektur der Ähnlichkeit durch die zweiten Korrektuririformationen 301 nicht vorgenommen, und die nachteilige Wirkung der Korrektur der Ähnlichkeit durch die zweiten Korrekturinformationen 301 kann im Vorhinein vermieden werden.
In operation, the third embodiment described above has the following effect.
(8) The data processing device 1 includes the parallax boundary detection unit 30, which generates the parallax boundary information 300 based on the luminance information or the parallax information of the first image 100 or the second image 101 in the peripheral area. The second correction information generation unit 21 cancels the generation of the second correction information 201 based on the parallax boundary information 300. Thus, when a parallax boundary is arranged in the environment, the correction of similarity by the second correction information 301 is not performed, and the adverse effect of the correction of similarity by the second correction information 301 can be avoided in advance.

(Modifiziertes Beispiel der dritten Ausführungsform)(Modified Example of Third Embodiment)

In der dritten oben beschriebenen Ausführungsform ermittelt die Parallaxengrenzerfassungseinheit 30 das Vorhandensein oder Nichtvorhandensein der Parallaxengrenze unter Verwendung der Parallaxeninformationen 106. Jedoch kann die Parallaxengrenzerfassungseinheit 30 das Vorhandensein oder Nichtvorhandensein der Parallaxengrenze einfach und problemlos ermitteln, indem sie das Vorhandensein oder Nichtvorhandensein einer Änderung der Leuchtdichte unter Verwendung des ersten Bilds 102 oder des zweiten Bilds 103 verwendet. Die Parallaxengrenzerfassungseinheit 30 vergleicht die Leuchtdichte jedes der Blöcke im übereinstimmenden Block mit der Leuchtdichte anderer Blöcke an der linken, der rechten, der oberen und der unteren Seite unter Bezugnahme auf das erste Bild 102 oder das zweite Bild 103 und ermittelt, dass eine Parallaxengrenze angeordnet ist, wenn die Differenz größer als ein oder gleich einem vorher festgelegten Schwellenwert ist. In einem beliebigen der Blöcke erfolgt die Ermittlung, dass dort keine Leuchtdichtengrenze angeordnet ist, wenn eine Differenz zur Leuchtdichte der anderen Blöcke an der rechten, der linken, der oberen und der unteren Seite geringer ist als ein vorher festgelegter Schwellenwert.In the third embodiment described above, the parallax limit detection unit 30 determines the presence or absence of the parallax limit using the parallax information 106. However, the parallax limit detection unit 30 can easily and easily determine the presence or absence of the parallax limit by using the presence or absence of a change in luminance the first image 102 or the second image 103 is used. The parallax boundary detection unit 30 compares the luminance of each of the blocks in the matching block with the luminance of other blocks on the left, right, upper and lower sides with reference to the first image 102 or the second image 103 and determines that a parallax boundary is located , if the difference is greater than or equal to a predetermined threshold. In any one of the blocks, the determination is made that there is no luminance limit there if a difference to the luminance of the other blocks on the right, left, upper and lower sides is less than a predetermined threshold value.

In der oben beschriebenen Ausführungsform und den modifizierten Beispielen ist die Ausgestaltung des funktionalen Blocks nur ein Beispiel. Einige funktionale Konfigurationen, welche als separate funktionale Blöcke dargestellt sind, können einstückig gestaltet sein, oder eine Konfiguration, welche in einem funktionalen Blockdiagramm dargestellt ist, kann in zwei oder mehr Funktionen aufgeteilt sein. Darüber hinaus kann ein anderer funktionaler Block manche der Funktionen jedes der funktionalen Blöcke aufweisen.In the embodiment described above and the modified examples, the design of the functional block is just an example. Some functional configurations, which are shown as separate functional blocks, may be designed in one piece, or a configuration which shown in a functional block diagram may be divided into two or more functions. Additionally, another functional block may include some of the functions of each of the functional blocks.

In jeder der oben beschriebenen Ausführungsformen und jedem der modifizierten Beispiele ist das Programm im ROM (nicht abgebildet) gespeichert, wobei das Programm jedoch auch in einer nichtflüchtigen Speichervorrichtung (nicht abgebildet), zum Beispiel einem Flash-Speicher, gespeichert sein kann. Darüber hinaus kann die Datenverarbeitungsvorrichtung eine Eingabe-/Ausgabe-Schnittstelle (nicht abgebildet) aufweisen, und das Programm kann über ein Medium, welches von der Eingabe-/Ausgabe-Schnittstelle und der Datenverarbeitungsvorrichtung verwendet werden kann, falls erforderlich, Daten von einer anderen Vorrichtung einlesen. Hierbei bezieht sich das Medium zum Beispiel auf ein von der Eingabe-/Ausgabe-Schnittstelle abnehmbares Speichermedium, oder ein Kommunikationsmedium, das bedeutet ein verkabeltes, drahtloses oder optisches Netzwerk oder eine Trägerwelle oder ein digitales Signal, welches durch das Netzwerk übertragen wird. Einige oder sämtliche der durch das Programm umgesetzten Funktionen können durch eine Hardwareschaltung oder eine feldprogrammierbare Gate-Anordnung (FPGA) umgesetzt werden.In each of the embodiments described above and each of the modified examples, the program is stored in ROM (not shown), but the program may also be stored in a non-volatile storage device (not shown), such as flash memory. In addition, the data processing device may have an input/output interface (not shown), and the program may, if necessary, receive data from another device via a medium that can be used by the input/output interface and the data processing device read in. Here, the medium refers, for example, to a storage medium that can be removed from the input/output interface, or a communication medium, which means a wired, wireless or optical network or a carrier wave or a digital signal which is transmitted through the network. Some or all of the functions implemented by the program may be implemented by hardware circuitry or a field programmable gate array (FPGA).

Die oben beschriebenen Ausführungsformen und modifizierten Beispiele können miteinander kombiniert werden. Obwohl oben verschiedene Ausführungsformen und modifizierte Beispiele beschrieben worden sind, ist die vorliegende Erfindung nicht auf deren Inhalte beschränkt. Andere Aspekte, welche als innerhalb des Umfangs der technischen Idee der vorliegenden Erfindung betrachtet werden können, sind ebenfalls im Umfang der vorliegenden Erfindung enthalten.The embodiments and modified examples described above can be combined with each other. Although various embodiments and modified examples have been described above, the present invention is not limited to their contents. Other aspects which may be considered within the scope of the technical idea of the present invention are also included within the scope of the present invention.

BezugsziffernlisteReference number list

SS
ÜberwachungssystemSurveillance system
11
DatenverarbeitungsvorrichtungData processing device
1010
EingabeeinheitInput unit
1111
ÄhnlichkeitserzeugungseinheitSimilarity generation unit
12, 12B12, 12B
ÄhnlichkeitskorrektureinheitSimilarity correction unit
1313
ÄhnlichkeitsermittlungseinheitSimilarity determination unit
2020
erste Korrekturinformationserzeugungseinheitfirst correction information generation unit
21, 21B21, 21B
zweite Korrekturinformationserzeugungseinheitsecond correction information generation unit
22, 22A22, 22A
KorrekturausführungseinheitCorrection execution unit
3030
ParallaxengrenzerfassungseinheitParallax limit detection unit
3131
zweite Korrekturinformationserzeugungseinheitsecond correction information generation unit
4040
KorrekturermittlungseinheitCorrection determination unit
4141
erste Erzeugungseinheitfirst generation unit
5050
periphere Parallaxenkontinuitätsermittlungseinheitperipheral parallax continuity determination unit
5151
zweite Erzeugungseinheitsecond generation unit
6060
KorrekturinformationsannullierungseinheitCorrection information cancellation unit
6161
KorrektureinheitCorrection unit
7070
erste Korrektureinheitfirst correction unit
7171
zweite Korrektureinheitsecond correction unit

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • JP 2016039618 [0003]JP 2016039618 [0003]

Claims (9)

Datenverarbeitungsvorrichtung, welche mit einer ersten Bilderfassungseinheit und einer zweiten Bilderfassungseinheit verbunden ist und durch Suchen in Einheiten vorher festgelegter übereinstimmender Blöcke Parallaxeninformationen eines ersten Bilds, welches durch die erste Bilderfassungseinheit erfasst worden ist, und eines zweiten Bilds, welches durch die zweite Bilderfassungseinheit erfasst worden ist, erzeugt, die Datenverarbeitungsvorrichtung aufweisend: eine Ähnlichkeitserzeugungseinheit, welche eine erste Ähnlichkeit mit einem übereinstimmenden Block in einem Suchbereich des zweiten Bilds in Bezug auf einen übereinstimmenden Block im ersten Bild in Einheiten übereinstimmender Blöcke erzeugt; eine Ähnlichkeitskorrektureinheit, welche die erste Ähnlichkeit unter Verwendung mindestens entweder erster Korrekturinformationen, welche basierend auf der ersten Ähnlichkeit eines beliebigen angrenzenden übereinstimmenden Blocks innerhalb eins Suchbereichs des zweiten Bilds erzeugt worden sind, und/oder zweiter Korrekturinformationen, welche basierend auf den Parallaxeninformationen erzeugt worden sind, korrigiert, um eine zweite Ähnlichkeit zu erzeugen; und eine Ähnlichkeitsermittlungseinheit, welche Parallaxeninformationen basierend auf der zweiten Ähnlichkeit erzeugt.Data processing device, which is connected to a first image capture unit and a second image capture unit and by searching in units of predetermined matching blocks parallax information of a first image captured by the first image capture unit and a second image captured by the second image capture unit, generated, the data processing device having: a similarity generating unit that generates a first similarity to a matching block in a search area of the second image with respect to a matching block in the first image in matching block units; a similarity correction unit that calculates the first similarity using at least either first correction information generated based on the first similarity of any adjacent matching block within a search area of the second image and/or second correction information generated based on the parallax information, corrected to create a second similarity; and a similarity determination unit that generates parallax information based on the second similarity. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die erste Bilderfassungseinheit und die zweite Bilderfassungseinheit das erste Bild beziehungsweise das zweite Bild für jeden vorher festgelegten Verarbeitungszyklus erzeugen, und die Datenverarbeitungsvorrichtung ferner eine zweite Korrekturinformationserzeugungseinheit aufweist, welche die zweiten Korrekturinformationen, erzeugt, wobei die zweiten Korrekturinformationen ein Korrekturkoeffizient sind, welcher mit der ersten Ähnlichkeit basierend auf den Parallaxeninformationen in einem Umfangsbereich des übereinstimmenden Blocks im letzten ersten Bild und im letzten zweiten Bild, oder im ersten Bild eines vorher festgelegten vorhergehenden Zyklus und im zweiten Bild eines vorher festgelegten vorhergehenden Zyklus zu multiplizieren ist.Data processing device according to Claim 1 , wherein the first image capture unit and the second image capture unit generate the first image and the second image, respectively, for each predetermined processing cycle, and the data processing device further comprises a second correction information generation unit which generates the second correction information, the second correction information being a correction coefficient which corresponds to the first similarity is to be multiplied based on the parallax information in a peripheral area of the matching block in the last first image and the last second image, or in the first image of a predetermined previous cycle and in the second image of a predetermined previous cycle. Datenverarbeitungsvorrichtung nach Anspruch 2, wobei die zweiten Korrekturinformationen einen Korrekturkoeffizienten zum Vornehmen einer Korrektur aufweisen, um die erste Ähnlichkeit entsprechend den Parallaxeninformationen im Umfangsbereich zu erhöhen, wenn die Kontinuität der Parallaxeninformationen im Umfangsbereich größer als ein oder gleich einem Schwellenwert ist.Data processing device according to Claim 2 , wherein the second correction information includes a correction coefficient for making a correction to increase the first similarity corresponding to the parallax information in the circumferential region when the continuity of the parallax information in the circumferential region is greater than or equal to a threshold value. Datenverarbeitungsvorrichtung nach Anspruch 2, wobei die zweiten Korrekturinformationen einen Korrekturkoeffizienten zum Vornehmen einer Korrektur aufweisen, um die erste Ähnlichkeit entsprechend den Parallaxeninformationen im Umfangsbereich zu verringern, wenn die Kontinuität der Parallaxeninformationen im Umfangsbereich geringer als ein oder gleich einem Schwellenwert ist.Data processing device according to Claim 2 , wherein the second correction information includes a correction coefficient for making a correction to reduce the first similarity corresponding to the parallax information in the circumferential region when the continuity of the parallax information in the circumferential region is less than or equal to a threshold value. Datenverarbeitungsvorrichtung nach Anspruch 2, ferner aufweisend eine Parallaxengrenzerfassungseinheit, welche Parallaxengrenzinformationen basierend auf Leuchtdichteninformationen des ersten Bilds im Umfangsbereich oder den Parallaxeninformationen erzeugt, wobei die zweite Korrekturinformationserzeugungseinheit die Erzeugung der zweiten Korrekturinformationen basierend auf den Parallaxengrenzinformationen annulliert.Data processing device according to Claim 2 , further comprising a parallax boundary detection unit that generates parallax boundary information based on luminance information of the first image in the peripheral area or the parallax information, wherein the second correction information generation unit cancels the generation of the second correction information based on the parallax boundary information. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Ähnlichkeitskorrektureinheit die erste Ähnlichkeit basierend auf den ersten Korrekturinformationen korrigiert, und ferner die erste Ähnlichkeit basierend auf den zweiten Korrekturinformationen korrigiert, um die zweite Ähnlichkeit zu erzeugen.Data processing device according to Claim 1 , wherein the similarity correction unit corrects the first similarity based on the first correction information, and further corrects the first similarity based on the second correction information to generate the second similarity. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die erste Bilderfassungseinheit und die zweite Bilderfassungseinheit in einer Grundlinienrichtung angeordnet sind, und die Datenverarbeitungsvorrichtung ferner eine erste Korrekturinformationserzeugungseinheit aufweist, welche in der Grundlinienrichtung abtastet, um nach einem Wendepunkt zu suchen, an welchem sich das Zeichen eines Unterschieds der Ähnlichkeiten umdreht, eine neue Ähnlichkeit berechnet, indem sie die Ähnlichkeit rund um den Wendepunkt verwendet, und eine Kombination aus einer Position des Wendepunkts und der neuen Ähnlichkeit als die ersten Korrekturinformationen berechnet.Data processing device according to Claim 1 , wherein the first image capture unit and the second image capture unit are arranged in a baseline direction, and the data processing device further comprises a first correction information generation unit which scans in the baseline direction to search for a turning point at which the sign of a difference in similarities turns around, a new one Similarity is calculated by using the similarity around the turning point, and calculating a combination of a position of the turning point and the new similarity as the first correction information. Überwachungssystem, aufweisend: die Datenverarbeitungsvorrichtung nach Anspruch 1; die erste Bilderfassungseinheit; und die zweite Bilderfassungseinheit.Monitoring system, comprising: the data processing device according to Claim 1 ; the first image capture unit; and the second image capture unit. Parallaxenberechnungsverfahren, welches von einer Datenverarbeitungsvorrichtung, welche mit einer ersten .Bilderfassungseinheit und einer zweiten Bilderfassungseinheit verbunden ist, ausgeführt wird und durch Suchen in Einheiten vorher festgelegter übereinstimmender Blöcke Parallaxeninformationen eines ersten Bilds, welches durch die erste Bilderfassungseinheit erfasst worden ist, und eines zweiten Bilds, welches durch die zweite Bilderfassungseinheit erfasst worden ist, erzeugt, das Verfahren umfassend: Erzeugen einer ersten Ähnlichkeit mit einem übereinstimmenden Block in einem Suchbereich des zweiten Bilds in Bezug auf einen übereinstimmenden Block im ersten Bild in Einheiten übereinstimmender Blöcke; Korrigieren der ersten Ähnlichkeit unter Verwendung mindestens entweder erster Korrekturinformationen, welche basierend auf der ersten Ähnlichkeit eines beliebigen angrenzenden übereinstimmenden Blocks innerhalb eines Suchbereichs des zweiten Bilds erzeugt worden sind, und/oder zweiter Korrekturinformationen, welche basierend auf den Parallaxeninformationen erzeugt worden sind, um eine zweite Ähnlichkeit zu erzeugen; und Erzeugen von Parallaxeninformationen basierend auf der zweiten Ähnlichkeit.Parallax calculation method, which is carried out by a data processing device connected to a first image capture unit and a second image capture unit, and by searching in units of predetermined matching blocks parallax information of a first image captured by the first image capture unit and a second image, which has been captured by the second image capture unit, the method comprising: generating a first similarity with an over matching block in a search area of the second image with respect to a matching block in the first image in matching block units; Correcting the first similarity using at least one of first correction information generated based on the first similarity of any adjacent matching block within a search area of the second image and second correction information generated based on the parallax information by a second to create similarity; and generating parallax information based on the second similarity.
DE112022001667.1T 2021-08-11 2022-03-11 DATA PROCESSING DEVICE, MONITORING SYSTEM AND PARALLAX CALCULATION METHOD Pending DE112022001667T5 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021131477A JP2023025976A (en) 2021-08-11 2021-08-11 Arithmetic unit, monitor system and parallax calculation method
JP2021-131477 2021-08-11
PCT/JP2022/011116 WO2023017635A1 (en) 2021-08-11 2022-03-11 Computing device, monitoring system and parallax calculation method

Publications (1)

Publication Number Publication Date
DE112022001667T5 true DE112022001667T5 (en) 2024-01-25

Family

ID=85200127

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112022001667.1T Pending DE112022001667T5 (en) 2021-08-11 2022-03-11 DATA PROCESSING DEVICE, MONITORING SYSTEM AND PARALLAX CALCULATION METHOD

Country Status (3)

Country Link
JP (1) JP2023025976A (en)
DE (1) DE112022001667T5 (en)
WO (1) WO2023017635A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039618A (en) 2014-08-11 2016-03-22 ソニー株式会社 Information processing apparatus and information processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2983420B2 (en) * 1993-11-22 1999-11-29 松下電器産業株式会社 Inter-vehicle distance measurement device
JP2013126114A (en) * 2011-12-14 2013-06-24 Samsung Yokohama Research Institute Co Ltd Stereo image processing method and stereo image processing apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039618A (en) 2014-08-11 2016-03-22 ソニー株式会社 Information processing apparatus and information processing method

Also Published As

Publication number Publication date
WO2023017635A1 (en) 2023-02-16
JP2023025976A (en) 2023-02-24

Similar Documents

Publication Publication Date Title
DE10029866B4 (en) Object recognition system
DE69635980T2 (en) METHOD AND DEVICE FOR DETECTING OBJECT MOVEMENT IN A PICTURE
DE102014209137B4 (en) Method and device for calibrating a camera system of a motor vehicle
DE102015104098A1 (en) Vehicle exterior environment recognition device
DE102009012441B4 (en) Method for reducing the memory requirement when determining disparity values for at least two stereoscopically recorded images
DE112009001686T5 (en) Object detecting device
WO2007107315A1 (en) Multi-sensorial hypothesis based object detector and object pursuer
DE112018007485T5 (en) Road surface detection device, image display device using a road surface detection device, obstacle detection device using a road surface detection device, road surface detection method, image display method using a road surface detection method, and obstacle detection method using a road surface detection method
DE102012101014A1 (en) Vehicle detection device
DE112018000107T5 (en) Vehicle camera calibration apparatus and method
DE10301469A1 (en) Infrared image processing device
DE102005056645A1 (en) Vehicle surroundings monitoring apparatus, has height calculation device calculating height dimension of object based on dimension of obstacle, and object type determination device determining type of object based on dimension
DE102010012262A1 (en) Image processing device
DE112014003818T5 (en) Object estimator and object estimation method
DE102018113992A1 (en) Method and device for detecting a traffic lane
EP3782117A1 (en) Method, device and computer-readable storage medium having instructions for processing sensor data
DE102007013664A1 (en) Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient
DE102018100909A1 (en) Method of reconstructing images of a scene taken by a multifocal camera system
DE102019120796A1 (en) Vehicle driving environment detection device and vehicle driving control system
DE102013205854A1 (en) Temporary coherence on detection of a clear path
DE102015211874A1 (en) Object detection device
DE102018124979A1 (en) Driver assistance system for determining a distance between two vehicles with a camera
DE102014113372B4 (en) Filter device
DE102015211871A1 (en) Object detection device
DE112022001667T5 (en) DATA PROCESSING DEVICE, MONITORING SYSTEM AND PARALLAX CALCULATION METHOD

Legal Events

Date Code Title Description
R012 Request for examination validly filed