DE112022001667T5 - DATA PROCESSING DEVICE, MONITORING SYSTEM AND PARALLAX CALCULATION METHOD - Google Patents
DATA PROCESSING DEVICE, MONITORING SYSTEM AND PARALLAX CALCULATION METHOD Download PDFInfo
- Publication number
- DE112022001667T5 DE112022001667T5 DE112022001667.1T DE112022001667T DE112022001667T5 DE 112022001667 T5 DE112022001667 T5 DE 112022001667T5 DE 112022001667 T DE112022001667 T DE 112022001667T DE 112022001667 T5 DE112022001667 T5 DE 112022001667T5
- Authority
- DE
- Germany
- Prior art keywords
- similarity
- information
- correction
- parallax
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 73
- 238000004364 calculation method Methods 0.000 title claims description 17
- 238000012544 monitoring process Methods 0.000 title claims description 12
- 238000012937 correction Methods 0.000 claims abstract description 308
- 238000000034 method Methods 0.000 claims description 62
- 230000002093 peripheral effect Effects 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 18
- 230000007423 decrease Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000002411 adverse Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Eine Datenverarbeitungsvorrichtung ist mit einer ersten Bilderfassungseinheit und einer zweiten Bilderfassungseinheit verbunden und erzeugt Parallaxeninformationen eines ersten, durch die erste Bilderfassungseinheit erfassten Bilds und eines zweiten, durch die zweite Bilderfassungseinheit erfassten Bilds, indem sie in Einheiten vorher festgelegter übereinstimmender Blöcke sucht, wobei die Datenverarbeitungsvorrichtung eine Ähnlichkeitserzeugungseinheit, welche eine erste Ähnlichkeit mit einem übereinstimmenden Block in einem Suchbereich des zweiten Bildes in Bezug auf einen übereinstimmenden Block im ersten Bild in Einheiten übereinstimmender Blöcke erzeugt; eine Ähnlichkeitskorrektureinheit, welche die erste Ähnlichkeit unter Verwendung mindestens erster Korrekturinformationen, welche basierend auf einer ersten Ähnlichkeit eines beliebigen benachbarten übereinstimmenden Blocks innerhalb eines Suchbereichs des zweiten Bilds erzeugt wird, und/oder zweiter Korrekturinformationen, welche basierend auf den Parallaxeninformation erzeugt werden, korrigiert, um eine zweite Ähnlichkeit zu erzeugen; und eine Ähnlichkeitsermittlungseinheit, welche Parallaxeninformationen basierend auf der zweiten Ähnlichkeit erzeugt, aufweist.A data processing device is connected to a first image capture unit and a second image capture unit and generates parallax information of a first image captured by the first image capture unit and a second image captured by the second image capture unit by searching in units of predetermined matching blocks, the data processing device being a similarity generation unit , which produces a first similarity to a matching block in a search area of the second image with respect to a matching block in the first image in units of matching blocks; a similarity correction unit that corrects the first similarity using at least first correction information generated based on a first similarity of any adjacent matching block within a search area of the second image and/or second correction information generated based on the parallax information to create a second similarity; and a similarity determination unit that generates parallax information based on the second similarity.
Description
Technisches GebietTechnical area
Die vorliegende Erfindung betrifft eine Datenverarbeitungsvorrichtung, ein Überwachungssystem und ein Parallaxenberechnungsverfahren.The present invention relates to a data processing device, a monitoring system and a parallax calculation method.
Stand der TechnikState of the art
Ein Verfahren zum Berechnen eines Abstands zwischen einer Kamera und einem Betrachtungsobjekt unter Verwendung einer Stereokamera und mit dem Ausführen eines Prozesses zum Erkennen des Betrachtungsobjekts ist bekannt. PTL 1 offenbart eine Informationsverarbeitungsvorrichtung aufweisend eine Ähnlichkeitsdatenerzeugungseinheit, welche jeden einer Mehrzahl von Bereichen, welche durch Aufteilen eines Bildes in ein linkes und ein rechtes fotografiertes Bild, welche durch eine Stereokamera, welche einen selben Raum von einem linken und einem rechten Blickwinkel erfasst, erfasst worden sind, als einen Referenzblock festlegt, einen Suchbereich im jeweils anderen Bild für jeden Referenzblock festlegt und Ähnlichkeitsdaten erzeugt, welche durch Verknüpfen der Ähnlichkeit eines Bildes mit dem Referenzblock und einer Position innerhalb des Suchbereichs in Bezug auf die Position innerhalb des Suchbereichs berechnet werden, eine Ähnlichkeitskorrektureinheit, welche die Ähnlichkeitsdaten in einer Raumrichtung basierend auf Ähnlichkeitsdaten, welche für eine vorher festgelegte Anzahl von Referenzblöcken an einem Umfang eines betreffenden Referenzblocks erzeugt worden sind, glättet, eine Ergebnisauswerteeinheit, welche eine Position erfasst, an welcher die Ähnlichkeit in allen geglätteten Ähnlichkeitsdaten einen Maximalwert aufweist, eine Tiefenbilderzeugungseinheit, welche unter Verwendung des Erfassungsergebnisses der Ergebnisauswerteeinheit eine Parallaxe für jeden der Referenzblöcke erlangt und durch Berechnen einer Position eines Objekts in einer Tiefenrichtung auf Grundlage der Berechnung und Verknüpfung der Position mit einer Bildebene ein Tiefenbild erzeugt, und eine Ausgabeinformationserzeugungseinheit, welche eine vorher festgelegte Informationsverarbeitung basierend auf der Position des Objekts in einem dreidimensionalen Raum unter Verwendung des Tiefenbilds vornimmt und ein Ergebnis derselben ausgibt.A method of calculating a distance between a camera and a viewing object using a stereo camera and executing a process of recognizing the viewing object is known.
QuellenangabenSources
PatentliteraturPatent literature
PTL 1: Veröffentlichte
Zusammenfassung der ErfindungSummary of the invention
Technische AufgabeTechnical task
Die in PTL 1 beschriebene Erfindung weist Verbesserungsbedarf in Bezug auf die Berechnung der Parallaxe auf.The invention described in
Lösung des Problemsthe solution of the problem
Eine Datenverarbeitungsvorrichtung im Einklang mit einem ersten Aspekt der vorliegenden Erfindung ist eine Datenverarbeitungsvorrichtung, welche mit einer ersten Bilderfassungseinheit und einer zweiten Bilderfassungseinheit verbunden ist und Parallaxeninformationen eines ersten, durch die erste Bilderfassungseinheit erfassten Bilds und eines zweiten, durch die zweite Bilderfassungseinheit erfassten Bilds erzeugt, indem sie in Einheiten vorher festgelegter übereinstimmender Blöcke sucht, wobei die Datenverarbeitungsvorrichtung eine Ähnlichkeitserzeugungseinheit, welche eine erste Ähnlichkeit mit einem übereinstimmenden Block in einem Suchbereich des zweiten Bildes in Bezug auf einen übereinstimmenden Block im ersten Bild in Einheiten übereinstimmender Blöcke erzeugt; eine Ähnlichkeitskorrektureinheit, welche die erste Ähnlichkeit unter Verwendung mindestens erster Korrekturinformationen, welche basierend auf einer ersten Ähnlichkeit eines ersten beliebigen benachbarten übereinstimmenden Blocks innerhalb eines Suchbereichs des zweiten Bilds erzeugt wird, und/oder zweiter Korrekturinformationen, welche basierend. auf den Parallaxeninformationen erzeugt werden, korrigiert, um eine zweite Ähnlichkeit zu erzeugen; und eine Ähnlichkeitsermittlungseinheit, welche Parallaxeninformationen basierend auf der zweiten Ähnlichkeit erzeugt, aufweist.A data processing device in accordance with a first aspect of the present invention is a data processing device which is connected to a first image capture unit and a second image capture unit and generates parallax information of a first image captured by the first image capture unit and a second image captured by the second image capture unit by searches it in units of predetermined matching blocks, the data processing device comprising a similarity generating unit which generates a first similarity to a matching block in a search area of the second image with respect to a matching block in the first image in units of matching blocks; a similarity correction unit that generates the first similarity using at least first correction information based on a first similarity of a first arbitrary adjacent matching block within a search area of the second image, and/or second correction information based. on which parallax information is generated, corrected to produce a second similarity; and a similarity determination unit that generates parallax information based on the second similarity.
Ein Überwachungssystem im Einklang mit einem zweiten Aspekt der vorliegenden Erfindung weist die oben beschriebene Datenverarbeitungsvorrichtung, die erste Bilderfassungseinheit; und die zweite Bilderfassungseinheit, auf.A surveillance system in accordance with a second aspect of the present invention comprises the data processing device described above, the first image capture unit; and the second image capture unit.
Ein Parallaxenberechnungsverfahren im Einklang mit einem dritten Aspekt der vorliegenden Erfindung betrifft ein Parallaxenberechnungsverfahren, welches durch eine Datenverarbeitungsvorrichtung ausgeführt wird, wobei die Datenverarbeitungsvorrichtung mit einer ersten Bilderfassungseinheit und einer zweiten Bilderfassungseinheit verbunden ist und Parallaxeninformationen eines ersten, durch die erste Bilderfassungseinheit erfassten Bilds und eines zweiten, durch die zweite Bilderfassungseinheit erfassten Bilds erzeugt, indem sie in Einheiten vorher festgelegter übereinstimmender Blöcke sucht, wobei das Verfahren das Erzeugen einer ersten Ähnlichkeit mit einem übereinstimmenden Block in einem Suchbereich des zweiten Bilds in Bezug auf einen übereinstimmenden Block im ersten Bild in Einheiten übereinstimmender Blöcke; das Korrigieren der ersten Ähnlichkeit unter Verwendung mindestens erster Korrekturinformationen, welche basierend auf der ersten Ähnlichkeit eines ersten beliebigen benachbarten übereinstimmenden Blocks innerhalb eines Suchbereichs des zweiten Bilds erzeugt werden, und/oder zweiter Korrekturinformationen, welche basierend auf den Parallaxeninformation erzeugt werden, um eine zweite Ähnlichkeit zu erzeugen; und das Erzeugen von Parallaxeninformationen basierend auf der zweiten Ähnlichkeit umfasst.A parallax calculation method in accordance with a third aspect of the present invention relates to a parallax calculation method carried out by a data processing device, the data processing device being connected to a first image capture unit and a second image capture unit, and parallax information of a first image captured by the first image capture unit and a second, image captured by the second image capture unit by searching in units of predetermined matching blocks, the method comprising generating a first similarity to a matching block in a search area of the second image with respect to a matching block in the first image in units of matching blocks; correcting the first similarity using at least first correction information generated based on the first similarity of a first arbitrary adjacent matching block within a search area of the second image and/or second correction information generated based on the parallax information by a second similarity to create; and generating parallax information based on the second similarity.
Vorteilhafte Wirkungen der ErfindungAdvantageous effects of the invention
Im Einklang mit der vorliegenden Erfindung ist es möglich, fehlerhafte Übereinstimmungen zu reduzieren und die Parallaxenberechnungsgenauigkeit zu.verbessern.In accordance with the present invention, it is possible to reduce erroneous matches and improve parallax calculation accuracy.
Kurze Beschreibung der ZeichnungenBrief description of the drawings
-
[
1 ]1 ist ein Konfigurationsdiagramm eines Überwachungssystems aufweisend eine Datenverarbeitungsvorrichtung.[1 ]1 is a configuration diagram of a monitoring system having a data processing device. -
[
2 ]2 ist ein Konfigurationsdiagramm einer Ähnlichkeitskorrektureinheit.[2 ]2 is a configuration diagram of a similarity correction unit. -
[
3 ]3 ist ein Diagramm zum Erläutern erster Ähnlichkeitsinformationen und erster Korrekturinformationen.[3 ]3 is a diagram for explaining first similarity information and first correction information. -
[
4 ]4 ist ein Diagramm, welches ein erstes Beispiel von Parallaxeninformationen, welche zum Erzeugen zweiter Korrekturinformationen verwendet werden, darstellt.[4 ]4 is a diagram illustrating a first example of parallax information used to generate second correction information. -
[
5 ]5 ist ein Diagramm, welches ein zweites Beispiel von Parallaxeninformationen, welche zum Erzeugen zweiter Korrekturinformationen verwendet werden, darstellt.[5 ]5 is a diagram illustrating a second example of parallax information used to generate second correction information. -
[
6 ]6 ist ein Diagramm zum Erläutern eines Korrekturkoeffizienten.[6 ]6 is a diagram for explaining a correction coefficient. -
[
7 ]7 ist ein Diagramm zum Erläutern eines konkreten Beispiels eines Verfahrens zum Erzeugen eines Korrekturkoeffizienten.[7 ]7 is a diagram for explaining a concrete example of a method of generating a correction coefficient. -
[
8 ]8 ist ein Konfigurationsdiagramm einer Korrekturausführungseinheit im Einklang mit einer zweiten Ausführungsform.[8th ]8th is a configuration diagram of a correction execution unit in accordance with a second embodiment. -
[
9 ]9 ist ein Konfigurationsdiagramm einer Ähnlichkeitskorrektureinheit im Einklang mit einer dritten Ausführungsform.[9 ]9 is a configuration diagram of a similarity correction unit in accordance with a third embodiment.
Beschreibung von AusführungsformenDescription of embodiments
-Erste Ausführungsform--First embodiment-
Im Folgenden ist eine erste Ausführungsform eines Überwachungssystems unter Bezugnahme auf die
Die Datenverarbeitungsvorrichtung 1, die Erkennungsverarbeitungseinheit 4 und die Fahrzeugsteuereinheit 5 sind jeweils eine elektronische Steuereinheit (ECU), welche am Fahrzeug C angebracht sind. Statt einzelner ECUs können jedoch zwei oder mehr der Elemente aus der Gruppe umfassend die Datenverarbeitungsvorrichtung 1, die Erkennungsverarbeitungseinheit 4 und die Fahrzeugsteuereinheit 5 durch dieselbe ECU realisiert sein.The
Die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 sind jeweils eine Kamera und geben jeweils ein fotografiertes Bild, welches ein durch Erfassen erlangtes Bild ist, an die Datenverarbeitungsvorrichtung 1 aus. Das von der ersten Bilderfassungseinheit 2 ausgegebene fotografierte Bild wird als ein erstes fotografiertes Bild 100 bezeichnet, und das von der zweiten Bilderfassungseinheit 3 ausgegebene fotografierte Bild wird als ein zweites fotografiertes Bild 101 bezeichnet. Die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 sind durch eine vorher festgelegte Grundlinienlänge in der Querrichtung in derselben Richtung in Bezug auf das Fahrzeug C voneinander getrennt. Es ist zu beachten, dass die Querrichtung, in welcher die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 angeordnet sind, in dieser Beschreibung im Folgenden auch als eine „Grundlinienrichtung“ bezeichnet wird. Basierend auf dem ersten fotografierten Bild 100 und dem zweiten fotografierten Bild 101 erzeugt die Datenverarbeitungsvorrichtung 1 Parallaxeninformationen 106 mittels eines später beschriebenen Verfahrens, und gibt die Parallaxeninformationen 106 an die Erkennungsverarbeitungseinheit 4 aus.The first
Die Datenverarbeitungsvorrichtung 1 weist eine Eingabeeinheit 10, eine Ähnlichkeitserzeugungseinheit 11, eine Ähnlichkeitskorrektureinheit 12 und eine Ähnlichkeitsermittlungseinheit 13 auf. Die Eingabeeinheit 10 ist durch eine Hardwareschnittstelle mit der ersten Bilderfassungseinheit 2 und der zweiten Bilderfassungseinheit 3 sowie eine arithmetische Verarbeitungseinheit realisiert. Die Ähnlichkeitserzeugungseinheit 11, die Ähnlichkeitskorrektureinheit 12 und die Ähnlichkeitsermittlungseinheit 13 sind durch eine arithmetische Verarbeitungseinheit realisiert. Die Hardwareschnittstelle ist zum Beispiel eine RJ45-Verbindung oder eine Kameraverbindung.The
Die arithmetische Verarbeitungseinheit weist zum Beispiel eine CPU, welche eine zentrale Verarbeitungseinheit ist, ein ROM, welches eine Nur-Lese-Speichervorrichtung ist, und ein RAM, welches eine auslesbare/beschreibbare Speichervorrichtung ist, auf, und die CPU führt eine später beschriebene Berechnung aus, indem sie ein im ROM gespeichertes Programm im RAM aufbaut und das Programm ausführt. Anstatt durch die Kombination der CPU, des ROM und des RAM kann die arithmetische Verarbeitungseinheit durch eine feldprogrammierbare Gate-Matrix (FPGA), welche eine wiederbeschreibbare Logikschaltung ist, oder eine anwendungsspezifische integrierte Schaltung (ASIC), welche eine anwendungsspezifische integrierte Schaltung ist, realisiert sein. Anstatt durch die Kombination der CPU, des ROM und des RAM kann die arithmetische Verarbeitungseinheit darüber hinaus auch durch eine Kombination unterschiedlicher Konfigurationen, zum Beispiel eine Kombination einer CPU, eines ROM, eines RAM und einer FPGA, realisiert sein.The arithmetic processing unit includes, for example, a CPU, which is a central processing unit, a ROM, which is a read-only memory device, and a RAM, which is a readable/writable memory device, and the CPU executes a calculation described later , by building a program stored in ROM in RAM and executing the program. Instead of the combination of the CPU, the ROM and the RAM, the arithmetic processing unit may be implemented by a field programmable gate matrix (FPGA), which is a rewritable logic circuit, or an application specific integrated circuit (ASIC), which is an application specific integrated circuit . Furthermore, instead of the combination of the CPU, the ROM and the RAM, the arithmetic processing unit can also be realized by a combination of different configurations, for example a combination of a CPU, a ROM, a RAM and an FPGA.
Die Eingabeeinheit 10 stellt der Ähnlichkeitserzeugungseinheit 11 ein erstes, durch Ausführen einer Bildverarbeitung am ersten fotografierten Bild 100 erlangtes Bild 102 und ein zweites, durch Ausführen einer Bildverarbeitung am zweiten fotografierten Bild 101 erlangtes Bild 103 bereit. Diese Bildverarbeitung wird zum Beispiel unter Verwendung eines internen Parameters oder eines externen Parameters der Kamera ausgeführt, um eine nachteilige Auswirkung auf die Bildverarbeitung zu unterbinden. Beispiele für die Bildverarbeitung umfassen Korrektur einer Linsenverzerrung, eine Fehlerkorrektur einer Befestigungsposition und Befestigungsausrichtung und dergleichen. Da der Prozess in der Eingabeeinheit 10 in der vorliegenden Ausführungsform jedoch nicht wesentlich ist, können das erste fotografierte Bild 100 und das erste Bild 102 als dasselbe Bild betrachtet werden, und/oder das zweite fotografierte Bild 1021 und das zweite Bild 103 können als dasselbe Bild betrachtet werden.The
Die Ähnlichkeitserzeugungseinheit 11 empfängt das von der Eingabeeinheit 10 bereitgestellte erste Bild 102 und das von der Eingabeeinheit 10 bereitgestellte zweite Bild 103, erzeugt die ersten Ähnlichkeitsinformationen 104, und stellt der Ähnlichkeitskorrektureinheit 12 die ersten Ähnlichkeitsinformationen 104 bereit. Die Ähnlichkeitskorrektureinheit 12 behandelt Informationen, welche Ähnlichkeiten zwischen dem übereinstimmenden Block im ersten Bild 102 und dem übereinstimmenden Block im zweiten Bild 103 anzeigen. Die ersten Ähnlichkeitsinformationen 104 sind zum Beispiel eine Leuchtdichtenänderungsmenge jedes der Bildpunkte im übereinstimmenden Block des ersten Bilds 102 und einem Bildpunkt im übereinstimmenden Block des entsprechenden zweiten Bilds 103. Zum Beispiel kann ein Berechnungsverfahren, wie die Summe absoluter Differenz (SAD), die durchschnittliche Nullsumme absoluter Differenz (ZSAD), die Summe der Abweichungsquadrate (SSD), die normalisierte Kreuzkorrelation (NCC) oder die durchschnittliche normalisierte Nullkreuzkorrelation (ZNCC), als die Leuchtdichtenabweichungsmenge verwendet werden.The
Die ersten Ähnlichkeitsinformationen 104 können eine Leuchtdichtenabweichungsmenge, eine Leuchtdichtenabweichungsrichtung oder ein Leuchtdichtenabweichungsmuster für jeden der Bildpunkte und die Umgebungsbildpunkte desselben im übereinstimmenden Block des ersten Bilds 102 und des zweiten Bilds 103 sein. Ein Beispiel für das Leuchtdichtenabweichungsmuster ist ein Zunahme-/Abnahme-Muster von der linken Seite in Bezug auf drei horizontale Bildpunkte, welche den linken und den rechten benachbarten Bildpunkt eines Zielbildpunkts aufweisen. Wenn der Wert des linken benachbarten Bildpunkts zum Beispiel 10 ist, der Wert des Zielbildpunkts 25 ist, und der Wert des rechten benachbarten Bildpunkts 80 ist, so lautet das Zunahme-/Abnahme-Muster „Zunahme → Zunahme“.The
Die Ähnlichkeitskorrektureinheit 12 erzeugt zweite Ähnlichkeitsinformationen 105 erlangt durch Korrigieren der ersten Ähnlichkeitsinformationen 104 basierend auf den ersten Ähnlichkeitsinformationen 104 oder den Parallaxeninformationen 106. Die Ähnlichkeitsermittlungseinheit 13 erfasst eine Position, welche basierend auf den zweiten Ähnlichkeitsinformationen 105 die höchste Ähnlichkeit innerhalb des Suchbereichs aufweist, und erzeugt Parallaxeninformationen 106 basierend auf den Positionsinformationen. Die Ähnlichkeitsermittlungseinheit 13 gibt die erzeugten Parallaxeninformationen 106 an die Erkennungsverarbeitungseinheit 4 und die Ähnlichkeitskorrektureinheit 12 aus.The
Die Erkennungsverarbeitungseinheit 4 führt verschiedene Erkennungsprozesse mit den Parallaxeninformationen 106 als Eingabe aus. Ein Beispiel für den Erkennungsprozess in der Erkennungsverarbeitungseinheit 4 ist dreidimensionale Objekterfassung unter Verwendung der Parallaxeninformationen 106. Weitere Beispiele für das Erkennen des Ziels durch die Erkennungsverarbeitungseinheit 4 sind Positionsinformationen, Typeninformationen, Bewegungsinformationen und Gefahreninformationen des Objekts. Ein Beispiel für die Positionsinformationen weist eine Richtung und einen Abstand vom Trägerfahrzeug auf. Beispiele für die Typeninformationen sind ein Fußgänger, ein Erwachsener, ein Kind, eine ältere Person, ein Tier, ein heruntergefallender Felsen, ein Fahrrad, ein Fahrzeug im Umfeld, eine Struktur im Umfeld und ein Randstein. Beispiele für die Bewegungsinformationen sind Schlingern, Herausspringen, Überqueren, Bewegungsrichtung, Bewegungsgeschwindigkeit und Bewegungsbahn eines Fußgängers oder eines Fahrrads. Beispiele für die Gefahreninformationen sind Herausspringen eines Fußgängers, Herunterfallen eines Felsens und abnormale Betriebsvorgänge von Fahrzeugen im Umfeld, wie zum Beispiel plötzliches Anhalten, plötzliches Abbremsen und plötzliche Lenkvorgänge. Die durch die Erkennungsverarbeitungseinheit 4 erzeugten Erkennungsinformationen 107 werden der Fahrzeugsteuereinheit 5 bereitgestellt.The
Die Fahrzeugsteuereinheit 5 führt verschiedene Steuerungsvorgänge des Fahrzeugs C basierend auf den Erkennungsinformationen 107 aus. Beispiele für Fahrzeugsteuerungsvorgänge, welche durch die Fahrzeugsteuereinheit 5 ausgeführt werden, sind Bremssteuerung, Lenkradsteuerung, Beschleunigungsvorrichtungssteuerung, Steuerung von Lampen im Fahrzeug, Warntonerzeugung, Steuerung der Kamera im Fahrzeug und Informationsausgabe in Bezug auf ein Betrachtungsobjekt rund um die Bilderfassungsvorrichtung an ein Fahrzeug im Umfeld oder eine stationäre Zentralvorrichtung, welche über ein Netzwerk angeschlossen ist. Spezifische Beispiele sind Geschwindigkeits- und Bremssteuerung im Einklang mit den Parallaxeninformationen 106 eines vor dem Fahrzeug vorhandenen Hindernisses.The
Es ist zu beachten, dass die Abstandsinformationen basierend auf den Parallaxeninformationen erzeugt und anstelle der Parallaxeninformationen 106 verwendet werden können. Obwohl in der vorliegenden Ausführungsform nicht beschrieben, kann die Fahrzeugsteuereinheit 5 einen Objekterfassungsprozess basierend auf dem Bildverarbeitungsergebnis unter Verwendung des ersten Bilds 102 und des zweiten Bilds 103 ausführen. Ferner kann die Fahrzeugsteuereinheit 5 ein über die erste Bilderfassungseinheit 2 oder die zweite Bilderfassungseinheit 3 erlangtes Bild oder eine Anzeige anzeigen, welche dem Betrachter erlaubt, ein Hindernis an der Anzeigevorrichtung, welche mit der Fahrzeugsteuereinheit 5 verbunden ist, zu erkennen. Ferner kann die Fahrzeugsteuereinheit 5 Informationen über das erfasste Betrachtungsobjekt basierend auf dem Bilderarbeitungsergebnis an eine Informationsvorrichtung liefern, welche Verkehrsinformationen, wie zum Beispiel Straßenkarteninformationen und Verkehrsüberlastungsinformationen, verarbeitet.Note that the distance information can be generated based on the parallax information and used in place of the
Beschrieben wird eine Konfiguration der ersten Korrekturinformationserzeugungseinheit 20. Die erste Korrekturinformationserzeugungseinheit 20 weist eine Korrekturermittlungseinheit 40 und eine erste Erzeugungseinheit 41 auf. Die Korrekturermittlungseinheit 40 erzeugt erste Informationen in Bezug auf die Gültigkeit einer Korrektur 400, welche die Notwendigkeit der Erzeugung der ersten Korrekturinformationen 200 basierend auf den ersten Ähnlichkeitsinformationen 104 anzeigen. Zum Beispiel ermittelt, die Korrekturermittlungseinheit 40, dass die Erzeugung der ersten Korrekturinformationen 200 notwendig ist, wenn die folgende erste Ermittlungsbedingung erfüllt ist, und ermittelt, dass die Erzeugung der ersten Korrekturinformationen 200 nicht notwendig ist, wenn die erste Ermittlungsbedingung nicht erfüllt ist.
Es ist zu beachten, dass die Ähnlichkeit A(i) eine Ähnlichkeit an der Suchposition A(i) ist, welche innerhalb des Suchbereichs festzulegen ist, die Ähnlichkeit A(i - 1) eine Ähnlichkeit an der Suchposition A(i - 1) angrenzend an die linke Seite der Suchposition A(i) ist, und die Ähnlichkeit A(i + 1) eine Ähnlichkeit an der Suchposition A(i + 1) angrenzend an die rechte Seite der Suchposition A(i) ist. TH0 und TH1 sind vorher festgelegte Schwellenwerte. Ferner kann die Datengrößenermittlung in der ersten Ermittlungsbedingung derart abgeändert werden, dass die Bedingung in einem Fall, in welchem die Größen gleich sind, erfüllt ist.Note that the similarity A(i) is a similarity at the search position A(i) to be set within the search area, the similarity A(i - 1) is a similarity at the search position A(i - 1) adjacent to the left side of the search position A(i), and the similarity A(i + 1) is a similarity at the search position A(i + 1) adjacent to the right side of the search position A(i). TH0 and TH1 are predetermined threshold values. Further, the data size determination in the first determination condition may be modified such that the condition is satisfied in a case where the sizes are equal.
Der Grund für das Bezugnehmen auf die rechte und die linke Seite anstatt nach oben und unten in der ersten Ermittlungsbedingung, das heißt, der Grund für das Abtasten in der seitlichen Richtung besteht darin, dass die Grundlinienrichtung quer verläuft. Die erste Ermittlungsbedingung kann ermittelt werden, indem nicht nur drei Punkte, sondern auch fünf Ähnlichkeitspunkte verwendet werden, wie nachfolgend beschrieben. Hierbei werden TH2 bis TH5 verwendet, bei welchen es sich um vorher festgelegte Schwellenwerte handelt.
Die erste Erzeugungseinheit 41 empfängt eine Eingabe der ersten Ähnlichkeitsinformationen 104 und der Informationen in Bezug auf die Gültigkeit einer Korrektur 400, und erzeugt die ersten Korrekturinformationen 200 basierend auf den Informationen in Bezug auf die Gültigkeit einer Korrektur 400. Die ersten Korrekturinformationen 200 sind zum Beispiel eine Kombination aus einer Suchposition, welche zu korrigieren ist, und Ähnlichkeitsinformationen nach der Korrektur, oder eine Kombination aus einer neu erzeugten Suchposition und Ähnlichkeitsinformationen. Die Korrekturausführungseinheit 22 korrigiert die Ähnlichkeit unter Bezugnahme auf die ersten Korrekturinformationen 200. Ein Vorgang der ersten Korrekturinformationserzeugungseinheit 20 wird unter Bezugnahme auf
Ein schwarzer Kreis, welcher in der Ähnlichkeitskurve 1012, welche im unteren Teil von
Die Ähnlichkeit S0 an der Suchposition 1000 der Ähnlichkeitskurve 1012 ist größer als die Ähnlichkeit der linken und der rechten Suchpositionen. Daher, erfüllt die Suchposition 1000 die erste oben beschriebene Ermittlungsbedingung. Als ein Beispiel für ein Verfahren zum Korrigieren der Ähnlichkeitskurve 1012, gibt es ein Verfahren des Ersetzens der Ähnlichkeit SO an der Suchposition 1000 durch die Ähnlichkeit S1. Als ein weiteres Beispiel für das Verfahren gibt es ein Verfahren des Erzeugens einer neuen Ähnlichkeit S1 an einer Suchposition rund um die Suchposition 1000, zum Beispiel an der Suchposition 1003.The similarity S0 at the
Dass die Suchposition 1003 in der Ähnlichkeitskurve 1012 die Ähnlichkeit S1 aufweist, ist ein Beispiel der ersten Korrekturinformationen 200. Als ein Beispiel für ein Verfahren zum Erzeugen der Ähnlichkeit S1 gibt es ein Verfahren des Berechnens der Ähnlichkeit S1 durch Polynominterpolation, wie zum Beispiel lineare Annäherung oder SSD-Parabelanpassung basierend auf einer Mehrzahl von Ähnlichkeitsstufen in der Nähe. Als ein Beispiel für die Mehrzahl von Ähnlichkeiten, welche in der Nähe angeordnet sind, gibt es drei Ähnlichkeiten der Suchpositionen 1000, 1001 und 1002. Die Suchposition 1003 ist eine Suchposition mit einer Bruchgenauigkeit, welche zwischen der Suchposition 1000 und der Suchposition 1002 angeordnet ist.That the
Wie oben beschrieben tastet die erste Korrekturinformationserzeugungseinheit 20 in der Grundlinienrichtung ab, um nach einem Wendepunkt zu suchen, an welchem sich das Zeichen des Unterschieds der Ähnlichkeiten rund um den Wendepunkt umdreht, berechnet eine neue Ähnlichkeit, indem sie die Ähnlichkeit rund um den Wendepunkt verwendet, und berechnet eine Kombination aus der Position des Wendepunkts und der neuen Ähnlichkeit als erste Korrekturinformationen 200.As described above, the first correction
Es gibt mindestens die folgenden drei Verfahren als Verfahren für die Korrekturausführungseinheit 22 zum Korrigieren der Ähnlichkeit unter Verwendung der ersten Korrekturinformationen 200, wenn die ersten Korrekturinformationen 200 die Suchposition 1003 und die Ähnlichkeit S1 aufweisen. Das erste Verfahren ist ein Verfahren des Überschreibens der Informationen der Suchposition 1000 und der Ähnlichkeit S0 mit den Informationen der Suchposition 1003 und der Ähnlichkeit S1. Das zweite Verfahren ist ein Verfahren des Hinzufügens der Informationen der Suchposition 1003 und der Ähnlichkeit S1 zu den vorliegenden Informationen der Suchposition 1000 und der Ähnlichkeit S0. Das dritte Verfahren ist ein Verfahren des Überschreibens des Werts der Ähnlichkeit S0 mit dem Wert von S1 ohne die Position der Suchposition 1000 zu verändern. Wenn das dritte Verfahren angewendet wird, können die Informationen der Suchposition 1003 durch Dreipunktnäherung oder dergleichen berechnet werden.There are at least the following three methods as the method for
Nochmals bezugnehmend auf
Die
Im Beispiel, welches in
Die Parallaxe im schraffierten Bereich im ersten vorherigen Einzelbild 901 wird als die „erste vorherige periphere Referenzparallaxe 905“ bezeichnet, und die Parallaxe im schraffierten Bereich im zweiten vorherigen Einzelbild 902 wird als „zweite vorherige periphere Referenzparallaxe 906“ bezeichnet. Die erste vorherige periphere' Referenzparallaxe 905 und die zweite vorherige periphere Referenzparallaxe 906 sind zweite Beispiele für die Parallaxeninformationen 106, welche dazu verwendet werden, die zweiten Körrekturinformationen 201 zu erzeugen. Da das vorherige Einzelbild die Parallaxeninformationen aufweist, sind die Parallaxeninformationen zum Zeitpunkt der Erzeugung des Parallaxenerzeugungszielblocks 801 bereits berechnet worden, und sind die Parallaxeninformationen des Umfangs der Blöcke 903 und 904 im vorherigen Block, welcher dem Parallaxenerzeugungszielblock 801 entspricht. Das bedeutet, im zweiten Beispiel, welches in
Basierend auf den Parallaxeninformationen 106 erzeugt die periphere Parallaxenkontinuitätsbestimmungseinheit 50 zweite Korrekturnotwendigkeitsinformationen 500, welche die Notwendigkeit anzeigen, die zweiten Korrekturinformationen 301 zu erzeugen. Beispiele für die zweiten Korrekturnotwendigkeitsinformationen 500 weisen periphere Parallaxeninformationen und Korrekturnotwendigkeitsinformationen auf.Based on the
Ein Beispiel für die peripheren Parallaxeninformationen ist ein Durchschnittswert der Parallaxenwerte im peripheren Parallaxenreferenzbereich. Beispiele für das Verfahren zum Berechnen der Parallaxenwerte umfassen einen durchschnittlichen Parallaxenwert der peripheren Referenzparallaxe 802, welche in
Die zweiten Korrekturnotwendigkeitsinformationen 500 sind Informationen, welche das Vorhandensein oder Nichtvorhandensein einer Erzeugung der zweiten Korrekturinformationen 301 in der zweiten Erzeugungseinheit 51 anzeigen. Wenn die zweiten Korrekturnotwendigkeitsinformationen 500 anzeigen „Erzeugung: notwendig“, so korrigiert die Korrekturausführungseinheit 22 die Ähnlichkeit unter Verwendung der zweiten Korrekturinformationen 301. Wenn die zweiten Korrekturnotwendigkeitsinformationen 301 anzeigen „Erzeugung: nicht notwendig“, so korrigiert die Korrekturausführungseinheit 22 die Ähnlichkeit nicht unter Verwendung der zweiten Korrekturinformationen 301.The second
Zum Beispiel berechnet die periphere Parallaxenkontinuitätsbestimmungseinheit 50 den Grad der Abweichung in der Parallaxe im peripheren Parallaxenreferenzbereich und setzt die zweiten Korrekturnotwendigkeitsinformationen 500 auf „Erzeugung; nicht notwendig“, wenn der Abweichungsgrad hoch ist. Beispiele für den Abweichungsgrad sind eine Differenzsumme eines Durchschnitts von Parallaxenwerten im peripheren Parallaxenreferenzbereich und jedem der Parallaxenwerte, und ein Abweichungswert im peripheren Parallaxenreferenzbereich. Zur Erzeugung des Abweichungsgrads kann entweder nur auf den Parallaxenwert in der horizontalen Richtung Bezug genommen werden oder nur auf den Parallaxenwert in der vertikalen Richtung Bezug genommen werden. Als ein weiteres Beispiel für das Verfahren zum Erzeugen der Korrekturnotwendigkeitsinformationen wird die Kontinuität der. Parallaxe im peripheren Parallaxenreferenzbereich berechnet, und die Korrekturnotwendigkeitsinformationen können nicht korrigiert werden, wenn die Kontinuität gering ist. Ein Beispiel der Kontinuität weist einen Durchschnitt der Differenzwerte zwischen den jeweiligen Parallaxen und einen Abweichungswert im peripheren Parallaxenreferenzbereich auf. Zur Erzeugung der Kontinuität kann entweder nur auf den Parallaxenwert in der horizontalen Richtung Bezug genommen werden oder nur auf den Parallaxenwert in der vertikalen Richtung Bezug genommen werden.For example, the peripheral parallax
Die zweite Erzeugungseinheit 51 erzeugt die zweiten Korrekturinformationen 301 basierend auf den zweiten Korrekturnotwendigkeitsinformationen 500. Ein Beispiel für die zweiten Korrekturinformationen 301 weist einen Korrekturkoeffizienten K auf, welcher der Suchposition entspricht. Die Rolle des Korrekturkoeffizienten K wird unter Bezugnahme auf
Im oberen Teil von
In einem Fall, in welchem der Korrekturkoeffizient K vor der Korrektur mit den ersten Ähnlichkeitsinformationen 104 multipliziert und verwendet wird, zum Beispiel wenn der Korrekturkoeffizient K0 gleich „1“ ist, so ist der Korrekturkoeffizient K1 eine reelle Zahl kleiner als „1“ und größer als „0“, und der Korrekturkoeffizient K2 ist eine reelle Zahl-größer als „1“. In einem Fall, in welchem der Korrekturkoeffizient K vor der Korrektur mit den ersten Ähnlichkeitsinformationen 104 multipliziert und verwendet wird, zum Beispiel wenn der Korrekturkoeffizient K0 gleich „1“ ist, so ist der Korrekturkoeffizient K1 eine reelle Zahl kleiner als „1“ und größer als „0“, und der Korrekturkoeffizient K2 ist eine reelle Zahl größer als „1“.Wenn der Korrekturkoeffizient K vor der Korrektur zu den ersten Ähnlichkeitsinformationen 104 addiert und verwendet wird, zum Beispiel wenn der Korrekturkoeffizient K0 gleich „0“ ist, so ist der Korrekturkoeffizient K1 eine positive reelle Zahl, und der Korrekturkoeffizient K2 ist eine negative reelle Zahl.In a case where the correction coefficient K is multiplied and used by the
Im unteren Teil von
Wie in der Grafik 1110 dargestellt, ist der Korrekturkoeffizient K an der Suchposition A1 gleich „K0“, wie durch ein Element 1101 der zweiten Korrekturinformationen 301 angezeigt. Wie durch ein Element 1106 an der zweiten Ähnlichkeitskurve 1105 angezeigt, sind somit der Wert der ersten Ähnlichkeitskurve 1104 und der Wert der zweiten Ähnlichkeitskurve 1105 an der Suchposition A1 dieselben.As shown in the
Der Korrekturkoeffizient K an der Suchposition A2 ist gleich „K1“, welcher einem Wert kleiner als K0 entspricht, wie durch ein Element 1102 der zweiten Korrekturinformationen 301 angezeigt. Wie durch ein Element 1107 an der zweiten Ähnlichkeitskurve 1105 angezeigt, ist daher an der Suchposition A2 die zweite Ähnlichkeit größer als die erste Ähnlichkeit. Der Korrekturkoeffizient an der Suchposition A3 ist gleich „K2“, welcher einem Wert größer als K0 entspricht, wie durch ein Element 1103 der zweiten Korrekturinformationen 301 angezeigt. Wie durch ein Element 1108 an der zweiten Ähnlichkeitskurve 1105 angezeigt, ist daher an der Suchposition A3 die zweite Ähnlichkeit geringer als die erste Ähnlichkeit.The correction coefficient K at the search position A2 is equal to “K1”, which corresponds to a value smaller than K0, as indicated by an
Unter Verwendung des Korrekturkoeffizienten K ist die Korrektur der ersten Ähnlichkeitsinformationen 104 zum Beispiel wie folgt.
Sb (i) ist die Ähnlichkeit an der Suchposition (i) an der ersten Ähnlichkeitskurve 1104, Sa(i) ist die Ähnlichkeit an der Suchposition (i) an der zweiten Ähnlichkeitskurve 1105, und K(i) ist der Korrekturkoeffizient K auf den zweiten Korrekturinformationen 1100 an der Suchposition (i). In diesem Fall weist die Ähnlichkeit an der Suchposition A2 in
Die Korrekturausführungseinheit 22 liest den Korrekturkoeffizienten K für jede der Suchpositionen unter Bezugnahme auf die zweiten Korrekturinformationen 301 ein und korrigiert die erste. Ähnlichkeit, wie in der obigen Gleichung durch Multiplizieren des Korrekturkoeffizienten K mit der Ähnlichkeit, welche der Position entspricht. Die Korrekturausführungseinheit 22 korrigiert die Ähnlichkeit unter Verwendung der zweiten Korrekturinformationen 301 nach dem Korrigieren der Ähnlichkeit unter Verwendung der ersten Korrekturinformationen 200.The
Ein spezifisches Beispiel für ein Verfahren des Erzeugens der zweiten Korrekturinformationen 301 durch die zweite Erzeugungseinheit 51, insbesondere ein Verfahren des Erzeugens des Korrekturkoeffizienten K entsprechend der Suchposition, wird unter Bezugnahme auf
Darüber hinaus bedeutet für die Funktion „0“ keine Korrektur, „1“ bedeutet schwache Korrektur, und „2“ bedeutet starke Korrektur. Im Fall einer Kontinuität von „0“ und „1“ wird die Funktion auf „0“ gesetzt, im Fall einer Kontinuität von „2“ wird die Funktion auf „1“ gesetzt, und im Fall einer Kontinuität von „3“ wird die Funktion auf „2“ gesetzt. Im Unterschied zu
Im Beispiel von
Im Beispiel von
Wenn der Parallaxenwert an der Parallaxenposition H auf „2“ geschaltet wird, ist die Differenz vom vorherigen Parallaxenwert „8“ größer als der Schwellenwert „2“, und somit verringert sich die Kontinuität A in diesem Beispiel bis zur Untergrenze „0“. Die Kontinuität B wird an der Parallaxenposition H zu einem ursprünglichen Wert „0“, und steigt danach an, da sich der Parallaxenwert „2“ fortsetzt, und erreicht an der Parallaxenposition K den maximalen Wert „3“. Wenn sich in der Folge der Parallaxenwert an der Parallaxenposition N auf „5“ ändert, verringert sich die Kontinuität B, und die Kontinuität A steigt an, um die Kontinuität B zu ersetzen. Da die maximale Kontinuität der maximale Wert der Kontinuität A und der Kontinuität B ist, wie oben beschrieben, ist die maximale Kontinuität dieselbe wie die Kontinuität A bis zur Parallaxenposition G, wo der Wert der Kontinuität B nicht existiert, und der größere Wert, oder die Kontinuität B, wird an den Parallaxenpositionen J bis N zur maximalen Kontinuität. Der Wert der Funktion wird gemäß der maximalen Kontinuität ermittelt, und der Wert des Korrekturkoeffizienten K wird gemäß dem Wert der Funktion ermittelt.When the parallax value at the parallax position H is switched to "2", the difference from the previous parallax value "8" is greater than the threshold value "2", and thus the continuity A in this example decreases to the lower limit "0". The continuity B becomes an initial value “0” at the parallax position H, and thereafter increases as the parallax value “2” continues, and reaches the maximum value “3” at the parallax position K. As a result, when the parallax value at the parallax position N changes to “5”, the continuity B decreases and the continuity A increases to replace the continuity B. Since the maximum continuity is the maximum value of the continuity A and the continuity B, as described above, the maximum continuity is the same as the continuity A up to the parallax position G, where the value of the continuity B does not exist, and the larger value, or the Continuity B, becomes maximum continuity at parallax positions J to N. The value of the function is determined according to the maximum continuity, and the value of the correction coefficient K is determined according to the value of the function.
Es ist zu beachten, dass in dem Beispiel, welches in
Im Betrieb weist die erste oben beschriebene Ausführungsform die folgenden Wirkungen auf.
(1) Die Datenverarbeitungsvorrichtung 1 ist mit der ersten Bilderfassungseinheit 2 und der zweiten Bilderfassungseinheit 3 verbunden und erzeugt durch Suchen in Einheiten vorher festgelegter übereinstimmender. Blöcke Parallaxeninformationen des ersten Bilds 100, welches durch die erste Bilderfassungseinheit 2 erfasst worden ist, und des zweiten Bilds 101, welches durch die zweite Bilderfassungseinheit 3 erfasst worden ist. Die Datenverarbeitungsvorrichtung 1 weist eine Ähnlichkeitserzeugungseinheit 11, welche eine erste Ähnlichkeit zwischen einem übereinstimmenden Block im ersten Bild 100 und einem übereinstimmenden Block in einem Suchbereich des zweiten Bilds 101 in Einheiten übereinstimmender Blöcke erzeugt, eine Ähnlichkeitskorrektureinheit 12, welche die ersten Ähnlichkeitsinformationen 104 unter Verwendung mindestens entweder erster Korrekturinformationen 200, welche basierend auf der ersten Ähnlichkeit eines beliebigen angrenzenden übereinstimmenden Blocks innerhalb des Suchbereichs des zweiten Bilds 101 erzeugt worden sind, und/oder zweiter Korrekturinformationen 301, welche basierend auf Parallaxeninformationen 106 erzeugt worden sind, um die zweiten Ähnlichkeitsinformationen 105 zu erzeugen, und eine Ähnlichkeitsermittlungseinheit 13, welche die Parallaxeninformationen 106 basierend auf den zweiten Ähnlichkeitsinformationen 105 erzeugt, auf. Somit ist es möglich, eine fehlerhafte Zuordnung zu vermeiden und die Berechnungsgenauigkeit der Parallaxe zu verbessern, indem die Ähnlichkeit unter Verwendung der ersten Korrekturinformationen 200 und der zweiten Korrekturinformationen 301 korrigiert wird.In operation, the first embodiment described above has the following effects.
(1) The
(2) Die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 erzeugen ein erstes Bild 100 beziehungsweise ein zweites Bild 101 in vorher festgelegten Verarbeitungszyklen. Wie in den
(3) Wie in der Suchposition A2 in
(4) Wie in der Suchposition A3 in
(5) Die Korrekturausführungseinheit 22 der Ähnlichkeitskorrektureinheit 12 korrigiert erste Ähnlichkeitsinformationen 104 basierend auf den ersten Korrekturinformationen 200, und korrigiert dann zusätzlich die ersten Ähnlichkeitsinformationen 104 basierend auf den zweiten Korrekturinformationen 301, um die zweite Ähnlichkeit zu erzeugen. Somit kann die Datenverarbeitungsvorrichtung 1 das Ergebnis der ersten Korrektur zum Korrigieren der lokalen Ähnlichkeit für die zweite Korrektur zum Korrigieren der Ähnlichkeit in einem großen Bereich verwenden.(5) The
(6) Die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 sind in der Grundlinienrichtung angeordnet. Die erste Korrekturinformationserzeugungseinheit 20 ist bereitgestellt, welche in der Grundlinienrichtung abtastet, um nach einem Wendepunkt zu suchen, an welchem sich das Zeichen der Differenz der Ähnlichkeiten umdreht, eine neue Ähnlichkeit unter Verwendung der Ähnlichkeit rund um den Wendepunkt berechnet, und eine Kombination der Position des Wendepunkts und der neuen Ähnlichkeit als die ersten Korrekturinformationen 200 berechnet. Somit kann die Ähnlichkeit feiner korrigiert werden als mit der Ähnlichkeitsberechnungseinheit. In einem Fall, in welchen die Ähnlichkeit für jeden Bildpunkt berechnet wird, weist die Suchposition 1003 zum Beispiel einen fraktionellen Koordinatenwert auf, wodurch gesagt werden kann, dass die Ähnlichkeit mit der Genauigkeit von Subbildpunkten berechnet werden kann.(6) The first
(7) Das Überwachungssystem S weist die Datenverarbeitungsvorrichtung 1, die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 auf. Somit gibt es im Überwachungssystem S wenig fehlerhafte Zuordnung, und die Berechnungsgenauigkeit der Parallaxe ist hoch.(7) The monitoring system S has the
(Erstes modifiziertes Beispiel)(First modified example)
In der ersten oben beschriebenen Ausführungsform weist die Ähnlichkeitskorrektureinheit 12 der Datenverarbeitungsvorrichtung 1 die erste Korrekturinformationserzeugungseinheit 20 und die zweite Korrekturinformationserzeugungseinheit 21 auf. Die Ähnlichkeitskorrektureinheit 12 kann jedoch auch nur eine der Einheiten aus der Gruppe umfassend die erste Korrekturinformationserzeugungseinheit 20 und die zweite Korrekturinformationserzeugungseinheit 21 aufweisen.In the first embodiment described above, the
(Zweites modifiziertes Beispiel)(Second modified example)
Da in der ersten oben beschriebenen Ausführungsform die erste Bilderfassungseinheit 2 und die zweite Bilderfassungseinheit 3 nebeneinander angeordnet sind, ist die Grundlinienrichtung horizontal, und die erste Erzeugungseinheit 41 tastet die Ähnlichkeit in Querrichtung ab, wie in
-Zweite Ausführungsform--Second embodiment-
Eine zweite Ausführungsform eines Überwachungssystems wird unter Bezugnahme auf
In der ersten Ausführungsform werden die ersten Ähnlichkeitsinformationen 104, die ersten Korrekturinformationen 200 und die zweiten Korrekturinformationen 301 in die Korrekturausführungseinheit 22 eingegeben, während in der vorliegenden Ausführungsform der Korrekturausführungseinheit 22A zusätzlich zu den obigen drei Einzelinformationen ferner eine Annullierungsanweisung 602 eingegeben wird. Die Korrekturausführungseinheit 22A führt den Korrekturprozess der ersten Ähnlichkeitsinformationen 104 basierend auf der Annullierungsanweisung 602, den ersten . Korrekturinformationen 200 und den zweiten Korrekturinformationen 301 aus, um die zweiten Ähnlichkeitsinformationen 105 zu erzeugen.In the first embodiment, the
Die Korrekturinformationsannullierungseinheit 60 kann mindestens entweder die ersten Korrekturinformationen 200 und/oder die zweiten Korrekturinformationen 301 basierend auf der Annullierungsanweisung 602 annullieren. Zum Beispiel kann die Korrekturinformationsannullierungseinheit 60 sowohl die ersten Korrekturinformationen 200 als auch die zweiten Korrekturinformationen 301 annullieren, kann nur die einen oder die anderen annullieren, oder kann keine davon annullieren. Beispiele für die Annullierungsanweisung 602 weisen Informationen, welche die Gültigkeit oder Ungültigkeit der ersten Korrekturinformationen 200 angeben, und Informationen, welche die Gültigkeit oder Ungültigkeit der zweiten Korrekturinformationen 301 angeben, auf. Das bedeutet, die Korrekturinformationsannullierungseinheit 60 empfängt die Ausgabe der ersten Korrekturinformationen 200 von der ersten Korrekturinformationserzeugungseinheit 20 und die Ausgabe der zweiten Korrekturinformationen 301 von der zweiten Korrekturinformationserzeugungseinheit 31 als die zweiten gültigen Korrekturinformationen 601.The correction
Wenn sie die Annullierungsanweisung 602 empfängt, welche angibt, dass die ersten Korrekturinformationen 200 gültig sind und die zweiten Korrekturinformationen 301 ungültig sind, führt die Korrekturinformationsannullierungseinheit 60 zum Beispiel den folgenden Prozess durch. Und zwar gibt die Korrekturinformationsannullierungseinheit 60 die ersten Korrekturinformationen 200 als die ersten gültigen Korrekturinformationen 600 aus, und gibt die zweiten gültigen Korrekturinformationen 601 als die durch Annullieren der zweiten Korrekturinformationen 301 erlangten Informationen aus.When it receives the
Die Korrektureinheit 61 führt den Korrekturprozess der ersten Ähnlichkeitsinformationen 104 basierend auf den ersten gültigen Korrekturinformationen 600 und den zweiten gültigen Korrekturinformationen 601 durch, um die zweiten Ähnlichkeitsinformationen 105 zu erzeugen. Als ein Beispiel für den Korrekturprozess an den ersten gültigen Korrekturinformationen 600 gibt es ein Verfahren des Erzeugens der zweiten Ähnlichkeitsinformationen 105 durch Ersetzen der Ähnlichkeit an der zu korrigierenden Suchposition oder durch Einfügen der Ähnlichkeit an der neuen Suchposition unter Verwendung der ersten Korrekturinformationen 200. Als ein Beispiel für den Korrekturprozess an den zweiten gültigen Korrekturinformationen 601 gibt es ein Verfahren des Erzeugens der oben unter Bezugnahme auf
Die erste Korrektureinheit 70 führt den Korrekturprozess der ersten Ähnlichkeitsinformationen 104 basierend auf den ersten gültigen Korrekturinformationen 600 durch, um Übergangsähnlichkeitsinformationen 700 zu erzeugen. Die zweite Korrektureinheit 71 führt den Korrekturprozess der Übergangsähnlichkeitsinformationen 700 basierend auf den zweiten gültigen Korrekturinformationen 601 durch, um die zweiten Ähnlichkeitsinformationen 105 zu erzeugen. Da der Korrekturprozess in der ersten Korrektureinheit 70 und der Korrekturprozess in der zweiten Korrektureinheit 71 der obigen Beschreibung unter Bezugnahme auf die
Im Einklang mit der zweiten oben beschriebenen Ausführungsform kann eine entsprechende Korrektur ordnungsgemäß verwendet werden.In accordance with the second embodiment described above, a corresponding correction can be properly used.
-Dritte Ausführungsform--Third Embodiment-
Eine dritte Ausführungsform eines Überwachungssystems wird unter Bezugnahme auf
Das erste Verfahren ist ein Verfahren des individuellen Überprüfens der Parallaxe jedes der Blöcke im übereinstimmenden Block im aktuellen Einzelbild. Insbesondere wird die Parallaxe jedes der Blöcke im übereinstimmenden Block mit der Parallaxe der anderen Blöcke an der rechten, der linken, der oberen und der unteren Seite verglichen, und wenn die Differenz größer als ein oder gleich einem vorher festgelegten Schwellenwert ist, ist die Ermittlung erfolgt, dass hier eine Parallaxengrenze angeordnet ist. In einem beliebigen der Blöcke erfolgt die Ermittlung, dass dort keine Parallaxengrenze angeordnet ist, wenn die Differenz zur Parallaxe der anderen Blöcke an der rechten, der linken, der oberen und der unteren Seite geringer ist als ein vorher festgelegter Schwellenwert. Da das aktuelle Einzelbild verwendet wird, werden in diesem ersten Verfahren die neuesten Informationen verwendet, wobei jedoch keine Differenz zu einem Block ausgewertet werden kann, für welchen die Parallaxe noch nicht berechnet worden ist.The first method is a method of individually checking the parallax of each of the blocks in the matching block in the current frame. Specifically, the parallax of each of the blocks in the matching block is compared with the parallax of the other blocks on the right, left, top and bottom sides, and if the difference is greater than or equal to a predetermined threshold, the determination is made that a parallax limit is arranged here. In any of the blocks, the determination is made that there is no parallax limit there if the difference to the parallax of the other blocks on the right, left, upper and lower sides is less than a predetermined threshold value. Since the current individual image is used, the most recent information is used in this first method, although no difference can be evaluated compared to a block for which the parallax has not yet been calculated.
Das zweite Verfahren ist ein Verfahren des individuellen Überprüfens der Parallaxe jedes der Blöcke im übereinstimmenden Block im vorherigen Einzelbild, welches unmittelbar davor erlangt worden ist. Der Unterschied zum ersten Verfahren besteht darin, dass das Einzelbild ein Ziel ist, und dass die Parallaxe für sämtliche der Blöcke im vorherigen Einzelbild berechnet worden ist, wodurch mit dem zweiten Verfahren die Parallaxendifferenz sogar für den Block berechnet werden kann, in welchem die Parallaxendifferenz mit dem ersten Verfahren nicht berechnet werden kann. Im zweiten Verfahren wird davon ausgegangen, dass es keine große Änderung der Position des Objekts in der Zeitdauer eines Einzelbilds gibt, und sie verkörpert die Idee, dass der Vorteil in der Lage zu sein, die Parallaxendifferenz in sämtlichen der Blöcke zu berechnen, größer ist als der Verlust durch die Positionsänderung des Objekts.The second method is a method of individually checking the parallax of each of the blocks in the matching block in the previous frame acquired immediately before. The difference from the first method is that the frame is a target and the parallax has been calculated for all of the blocks in the previous frame, which means that with the second method the parallax difference can be calculated even for the block in which the parallax lax difference cannot be calculated using the first method. The second method assumes that there is no large change in the position of the object in the time period of a frame, and embodies the idea that the advantage of being able to calculate the parallax difference in all of the blocks is greater than the loss due to the change in position of the object.
Ein drittes Verfahren ist ein Verfahren des Erfassens der Parallaxengrenze durch hierarchische Suche. Dieses Verfahren kann auf das aktuelle Einzelbild angewendet werden, wie im ersten Verfahren, oder kann auf das vorherige Einzelbild angewendet werden, wie im zweiten Verfahren. Bei der hierarchischen Suche wird die Parallaxe zunächst mit einem Block berechnet, welcher eine größere Größe aufweist als jener des übereinstimmenden Blocks in einer Hierarchie, zum Beispiel eine doppelte Größe als jene des übereinstimmenden Blocks sowohl in der vertikalen als auch in der horizontalen Richtung. In der nachfolgenden Beschreibung wird dieser Block als ein großformatiger Block bezeichnet.A third method is a method of detecting the parallax boundary by hierarchical search. This method can be applied to the current frame, as in the first method, or can be applied to the previous frame, as in the second method. In hierarchical search, parallax is first calculated with a block that has a larger size than that of the matching block in a hierarchy, for example, twice the size of that of the matching block in both the vertical and horizontal directions. In the following description, this block is referred to as a large-sized block.
Als nächstes wird in der zweiten Hierarchie die Parallaxe jedes der Blöcke im übereinstimmenden Block basierend auf der Parallaxe des großformatigen Blocks berechnet. Insbesondere ist eine Summe von drei Parallaxen als Parallaxenkandidaten festzulegen, welche die Parallaxe des großformatigen Blocks, welcher den Zielblock, für welchen die Parallaxe berechnet werden soll, aufweist, und die Parallaxen des rechts an den relevanten großformatigen Block angrenzenden und des links an den relevanten großformatigen Block angrenzenden großformatigen Blocks aufweist, und die wahrscheinlichste Parallaxe innerhalb eines vorher festgelegten Bereichs wird unter den Parallaxenkandidaten als die zu berechnende Parallaxe festgelegt. Unter Verwendung der durch die hierarchische Suche auf diese Weise berechneten Parallaxe wird ermittelt, ob die Differenz zur Parallaxe der anderen Blöcke an der rechten, der linken, der oberen und der unteren Seite größer als ein oder gleich einem vorher festgelegten Schwellenwert ist, und wird das Vorhandensein oder Nichtvorhandensein der Parallaxengrenze ermittelt.Next, in the second hierarchy, the parallax of each of the blocks in the matching block is calculated based on the parallax of the large-sized block. In particular, a sum of three parallaxes is to be specified as parallax candidates, which has the parallax of the large-format block which has the target block for which the parallax is to be calculated, and the parallaxes of the one on the right adjacent to the relevant large-format block and of the one on the left of the relevant large-format one Block adjacent large-sized block, and the most probable parallax within a predetermined range is set among the parallax candidates as the parallax to be calculated. Using the parallax thus calculated by the hierarchical search, it is determined whether the difference from the parallax of the other blocks on the right, left, top and bottom sides is greater than or equal to a predetermined threshold, and will be Presence or absence of the parallax limit is determined.
Wenn die Parallaxengrenze im übereinstimmenden Block angeordnet ist, erzeugt die periphere Parallaxenkontinuitätsermittlungseinheit 50, welche c von der Parallaxengrenzerfassungseinheit 30 erhalten hat, die zweiten Korrekturnotwendigkeitsinformationen 500, welche anzeigen, dass die Erzeugung der zweiten Korrekturinformationen 301 nicht notwendig ist, und überträgt die zweiten Korrekturnotwendigkeitsinformationen 500 zur zweiten Erzeugungseinheit 51. Da die zweite Erzeugungseinheit 51, welche die zweiten Korrekturnotwendigkeitsinformationen 500 erhalten hat, die zweiten Korrekturinformationen 301 nicht erzeugt, korrigiert die Korrekturausführungseinheit 22 die ersten Ähnlichkeitsinformationen 104 basierend auf den zweiten Korrekturinformationen 301 nicht.When the parallax boundary is located in the matching block, the peripheral parallax
Im Betrieb weist die dritte oben beschriebene Ausführungsform die folgende Wirkung auf.
(8) Die Datenverarbeitungsvorrichtung 1 weist die Parallaxengrenzerfassungseinheit 30, welche die Parallaxengrenzinformationen 300 basierend auf den Leuchtdichteninformationen oder den Parallaxeninformationen des ersten Bilds 100 oder des zweiten Bilds 101 im Umfangsbereich erzeugt, auf. Die zweite Korrekturinformationserzeugungseinheit 21 annulliert die Erzeugung der zweiten Korrekturinformationen 201 basierend auf den Parallaxengrenzinformationen 300. Wenn eine Parallaxengrenze in der Umgebung angeordnet ist, wird somit die Korrektur der Ähnlichkeit durch die zweiten Korrektuririformationen 301 nicht vorgenommen, und die nachteilige Wirkung der Korrektur der Ähnlichkeit durch die zweiten Korrekturinformationen 301 kann im Vorhinein vermieden werden.In operation, the third embodiment described above has the following effect.
(8) The
(Modifiziertes Beispiel der dritten Ausführungsform)(Modified Example of Third Embodiment)
In der dritten oben beschriebenen Ausführungsform ermittelt die Parallaxengrenzerfassungseinheit 30 das Vorhandensein oder Nichtvorhandensein der Parallaxengrenze unter Verwendung der Parallaxeninformationen 106. Jedoch kann die Parallaxengrenzerfassungseinheit 30 das Vorhandensein oder Nichtvorhandensein der Parallaxengrenze einfach und problemlos ermitteln, indem sie das Vorhandensein oder Nichtvorhandensein einer Änderung der Leuchtdichte unter Verwendung des ersten Bilds 102 oder des zweiten Bilds 103 verwendet. Die Parallaxengrenzerfassungseinheit 30 vergleicht die Leuchtdichte jedes der Blöcke im übereinstimmenden Block mit der Leuchtdichte anderer Blöcke an der linken, der rechten, der oberen und der unteren Seite unter Bezugnahme auf das erste Bild 102 oder das zweite Bild 103 und ermittelt, dass eine Parallaxengrenze angeordnet ist, wenn die Differenz größer als ein oder gleich einem vorher festgelegten Schwellenwert ist. In einem beliebigen der Blöcke erfolgt die Ermittlung, dass dort keine Leuchtdichtengrenze angeordnet ist, wenn eine Differenz zur Leuchtdichte der anderen Blöcke an der rechten, der linken, der oberen und der unteren Seite geringer ist als ein vorher festgelegter Schwellenwert.In the third embodiment described above, the parallax
In der oben beschriebenen Ausführungsform und den modifizierten Beispielen ist die Ausgestaltung des funktionalen Blocks nur ein Beispiel. Einige funktionale Konfigurationen, welche als separate funktionale Blöcke dargestellt sind, können einstückig gestaltet sein, oder eine Konfiguration, welche in einem funktionalen Blockdiagramm dargestellt ist, kann in zwei oder mehr Funktionen aufgeteilt sein. Darüber hinaus kann ein anderer funktionaler Block manche der Funktionen jedes der funktionalen Blöcke aufweisen.In the embodiment described above and the modified examples, the design of the functional block is just an example. Some functional configurations, which are shown as separate functional blocks, may be designed in one piece, or a configuration which shown in a functional block diagram may be divided into two or more functions. Additionally, another functional block may include some of the functions of each of the functional blocks.
In jeder der oben beschriebenen Ausführungsformen und jedem der modifizierten Beispiele ist das Programm im ROM (nicht abgebildet) gespeichert, wobei das Programm jedoch auch in einer nichtflüchtigen Speichervorrichtung (nicht abgebildet), zum Beispiel einem Flash-Speicher, gespeichert sein kann. Darüber hinaus kann die Datenverarbeitungsvorrichtung eine Eingabe-/Ausgabe-Schnittstelle (nicht abgebildet) aufweisen, und das Programm kann über ein Medium, welches von der Eingabe-/Ausgabe-Schnittstelle und der Datenverarbeitungsvorrichtung verwendet werden kann, falls erforderlich, Daten von einer anderen Vorrichtung einlesen. Hierbei bezieht sich das Medium zum Beispiel auf ein von der Eingabe-/Ausgabe-Schnittstelle abnehmbares Speichermedium, oder ein Kommunikationsmedium, das bedeutet ein verkabeltes, drahtloses oder optisches Netzwerk oder eine Trägerwelle oder ein digitales Signal, welches durch das Netzwerk übertragen wird. Einige oder sämtliche der durch das Programm umgesetzten Funktionen können durch eine Hardwareschaltung oder eine feldprogrammierbare Gate-Anordnung (FPGA) umgesetzt werden.In each of the embodiments described above and each of the modified examples, the program is stored in ROM (not shown), but the program may also be stored in a non-volatile storage device (not shown), such as flash memory. In addition, the data processing device may have an input/output interface (not shown), and the program may, if necessary, receive data from another device via a medium that can be used by the input/output interface and the data processing device read in. Here, the medium refers, for example, to a storage medium that can be removed from the input/output interface, or a communication medium, which means a wired, wireless or optical network or a carrier wave or a digital signal which is transmitted through the network. Some or all of the functions implemented by the program may be implemented by hardware circuitry or a field programmable gate array (FPGA).
Die oben beschriebenen Ausführungsformen und modifizierten Beispiele können miteinander kombiniert werden. Obwohl oben verschiedene Ausführungsformen und modifizierte Beispiele beschrieben worden sind, ist die vorliegende Erfindung nicht auf deren Inhalte beschränkt. Andere Aspekte, welche als innerhalb des Umfangs der technischen Idee der vorliegenden Erfindung betrachtet werden können, sind ebenfalls im Umfang der vorliegenden Erfindung enthalten.The embodiments and modified examples described above can be combined with each other. Although various embodiments and modified examples have been described above, the present invention is not limited to their contents. Other aspects which may be considered within the scope of the technical idea of the present invention are also included within the scope of the present invention.
BezugsziffernlisteReference number list
- SS
- ÜberwachungssystemSurveillance system
- 11
- DatenverarbeitungsvorrichtungData processing device
- 1010
- EingabeeinheitInput unit
- 1111
- ÄhnlichkeitserzeugungseinheitSimilarity generation unit
- 12, 12B12, 12B
- ÄhnlichkeitskorrektureinheitSimilarity correction unit
- 1313
- ÄhnlichkeitsermittlungseinheitSimilarity determination unit
- 2020
- erste Korrekturinformationserzeugungseinheitfirst correction information generation unit
- 21, 21B21, 21B
- zweite Korrekturinformationserzeugungseinheitsecond correction information generation unit
- 22, 22A22, 22A
- KorrekturausführungseinheitCorrection execution unit
- 3030
- ParallaxengrenzerfassungseinheitParallax limit detection unit
- 3131
- zweite Korrekturinformationserzeugungseinheitsecond correction information generation unit
- 4040
- KorrekturermittlungseinheitCorrection determination unit
- 4141
- erste Erzeugungseinheitfirst generation unit
- 5050
- periphere Parallaxenkontinuitätsermittlungseinheitperipheral parallax continuity determination unit
- 5151
- zweite Erzeugungseinheitsecond generation unit
- 6060
- KorrekturinformationsannullierungseinheitCorrection information cancellation unit
- 6161
- KorrektureinheitCorrection unit
- 7070
- erste Korrektureinheitfirst correction unit
- 7171
- zweite Korrektureinheitsecond correction unit
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- JP 2016039618 [0003]JP 2016039618 [0003]
Claims (9)
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021131477A JP2023025976A (en) | 2021-08-11 | 2021-08-11 | Arithmetic unit, monitor system and parallax calculation method |
JP2021-131477 | 2021-08-11 | ||
PCT/JP2022/011116 WO2023017635A1 (en) | 2021-08-11 | 2022-03-11 | Computing device, monitoring system and parallax calculation method |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112022001667T5 true DE112022001667T5 (en) | 2024-01-25 |
Family
ID=85200127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112022001667.1T Pending DE112022001667T5 (en) | 2021-08-11 | 2022-03-11 | DATA PROCESSING DEVICE, MONITORING SYSTEM AND PARALLAX CALCULATION METHOD |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2023025976A (en) |
DE (1) | DE112022001667T5 (en) |
WO (1) | WO2023017635A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016039618A (en) | 2014-08-11 | 2016-03-22 | ソニー株式会社 | Information processing apparatus and information processing method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2983420B2 (en) * | 1993-11-22 | 1999-11-29 | 松下電器産業株式会社 | Inter-vehicle distance measurement device |
JP2013126114A (en) * | 2011-12-14 | 2013-06-24 | Samsung Yokohama Research Institute Co Ltd | Stereo image processing method and stereo image processing apparatus |
-
2021
- 2021-08-11 JP JP2021131477A patent/JP2023025976A/en active Pending
-
2022
- 2022-03-11 DE DE112022001667.1T patent/DE112022001667T5/en active Pending
- 2022-03-11 WO PCT/JP2022/011116 patent/WO2023017635A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016039618A (en) | 2014-08-11 | 2016-03-22 | ソニー株式会社 | Information processing apparatus and information processing method |
Also Published As
Publication number | Publication date |
---|---|
WO2023017635A1 (en) | 2023-02-16 |
JP2023025976A (en) | 2023-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10029866B4 (en) | Object recognition system | |
DE69635980T2 (en) | METHOD AND DEVICE FOR DETECTING OBJECT MOVEMENT IN A PICTURE | |
DE102014209137B4 (en) | Method and device for calibrating a camera system of a motor vehicle | |
DE102015104098A1 (en) | Vehicle exterior environment recognition device | |
DE102009012441B4 (en) | Method for reducing the memory requirement when determining disparity values for at least two stereoscopically recorded images | |
DE112009001686T5 (en) | Object detecting device | |
WO2007107315A1 (en) | Multi-sensorial hypothesis based object detector and object pursuer | |
DE112018007485T5 (en) | Road surface detection device, image display device using a road surface detection device, obstacle detection device using a road surface detection device, road surface detection method, image display method using a road surface detection method, and obstacle detection method using a road surface detection method | |
DE102012101014A1 (en) | Vehicle detection device | |
DE112018000107T5 (en) | Vehicle camera calibration apparatus and method | |
DE10301469A1 (en) | Infrared image processing device | |
DE102005056645A1 (en) | Vehicle surroundings monitoring apparatus, has height calculation device calculating height dimension of object based on dimension of obstacle, and object type determination device determining type of object based on dimension | |
DE102010012262A1 (en) | Image processing device | |
DE112014003818T5 (en) | Object estimator and object estimation method | |
DE102018113992A1 (en) | Method and device for detecting a traffic lane | |
EP3782117A1 (en) | Method, device and computer-readable storage medium having instructions for processing sensor data | |
DE102007013664A1 (en) | Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient | |
DE102018100909A1 (en) | Method of reconstructing images of a scene taken by a multifocal camera system | |
DE102019120796A1 (en) | Vehicle driving environment detection device and vehicle driving control system | |
DE102013205854A1 (en) | Temporary coherence on detection of a clear path | |
DE102015211874A1 (en) | Object detection device | |
DE102018124979A1 (en) | Driver assistance system for determining a distance between two vehicles with a camera | |
DE102014113372B4 (en) | Filter device | |
DE102015211871A1 (en) | Object detection device | |
DE112022001667T5 (en) | DATA PROCESSING DEVICE, MONITORING SYSTEM AND PARALLAX CALCULATION METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |