DE102013217387A1 - Verfahren und Vorrichtung zur optimierten stereoskopisch-basierten Entfernungsmessung und deren Verwendung - Google Patents

Verfahren und Vorrichtung zur optimierten stereoskopisch-basierten Entfernungsmessung und deren Verwendung Download PDF

Info

Publication number
DE102013217387A1
DE102013217387A1 DE102013217387.3A DE102013217387A DE102013217387A1 DE 102013217387 A1 DE102013217387 A1 DE 102013217387A1 DE 102013217387 A DE102013217387 A DE 102013217387A DE 102013217387 A1 DE102013217387 A1 DE 102013217387A1
Authority
DE
Germany
Prior art keywords
image area
images
detected
information
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102013217387.3A
Other languages
English (en)
Inventor
Daniel Becker
Roland Eckl
Oliver Jakob Arndt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102013217387.3A priority Critical patent/DE102013217387A1/de
Publication of DE102013217387A1 publication Critical patent/DE102013217387A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Die Erfindung betrifft im Wesentlichen ein Verfahren und eine Vorrichtung zur optimierten stereoskopisch-basierten Entfernungsmessung, bei dem/der mit zwei nebeneinander in derselben horizontalen Ebene liegenden Kameras eine Szene aus unterschiedlichen etwas räumlich versetzten Positionen aufgenommen wird, wodurch ein jeweiliger Punkt eines zu erfassenden Objektes im Raum in den beiden Aufnahmen der beiden Kameras im Allgemeinen an unterschiedlichen Positionen dargestellt wird, bei dem/der in beiden Aufnahmen jeweils nur ein korrespondierender streifenförmiger Bildbereich ausgewählt und somit basierend auf impliziten Information des zu erfassenden Objektes im Wesentlichen praktisch nur eine Reduktion der Dimensionen einer Zielinformationen erfolgt und bei dem/der in beiden Aufnahmen nur im korrespondierenden streifenförmigen Bildbereich einander entsprechende Bildpunkte gesucht werden und aus den jeweiligen Positionsabweichungen die absolute Distanz zwischen Objekt und Kamera-Aufbau ermittelt wird. Es wird hiermit mit preiswerter Standardhardware aus der Massenproduktion, zumindest in bestimmten Anwendungsfällen, eine fast hyperlineare Reduktion des Rechenaufwandes bei maximaler Ausbeute der relevanten Informationen und einem Verlust lediglich irrelevanter Informationen erreicht.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur auf stereoskopischen Aufnahmen basierten Entfernungsmessung, bei dem/der mit zwei nebeneinander in derselben horizontalen Ebene liegenden Kameras eines entsprechenden Kamera-Aufbaus eine Szene aus unterschiedlichen etwas räumlich versetzten Positionen aufgenommen wird, wodurch ein jeweiliger Punkt eines zu erfassenden Objektes im Raum in den beiden Aufnahmen der beiden Kameras im Allgemeinen an unterschiedlichen Positionen dargestellt wird und bei dem in beiden Aufnahmen einander entsprechende Bildpunkte gesucht werden und aus jeweiligen Positionsabweichungen die absolute Distanz zwischen Objekt und Kamera-Aufbau ermittelt wird.
  • Auf Basis einer stereoskopischen Aufnahme, also zweier parallel zueinander zweidimensionaler Bilder, können Objekte in einem dreidimensionalen Raum rekonstruiert werden. Konkret lassen sich mittels verschiedener Algorithmen aus dem Bereich der „Stereo Vision“ bzw. „Disparity Estimation“ die Distanzen von Objekten zu einem Aufbau mit zwei Kameras ermitteln. Durch eine Vortransformation der Kamerabilder werden zunächst Linsenverzerrungen eliminiert und durch horizontal nebeneinander angeordnet Kameras wird sichergestellt, dass dargestellte Punkte von Objekten in beiden Bildern nur horizontal variieren, jedoch in derselben Höhe des Bildes liegen. Findet man nun zu jedem Pixel des linken Bildes den entsprechenden Bildpunkt im rechten Bild, kann aus der jeweiligen Positionsabweichung die absolute Distanz zwischen Objekt und Kamera-Aufbau geometrisch ermittelt werden, wobei ggf. auftretende verdeckte Bereiche die von einer Kamera nicht erfasst werden dabei ausgespart bleiben.
  • Die hierfür üblicherweise verwendeten Algorithmen sind jedoch sehr rechenintensiv, weshalb auch verschiedene Optimierungen durchgeführt wurden, um die Berechnungszeit zu verkürzen. Viele diese bekannten Optimierungen erfordern jedoch entweder eine teuer zu realisierende sehr leistungsstarke Hardware oder führen zu einer reduzierten Genauigkeit des Ergebnisses.
  • Solche optimierten Verfahren sind beispielsweise aus H. Hirschmüller. Stereo processing by semiglobal matching and mutual information. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 30(2):328–341, 2008, bekannt.
  • Eine teurere und leistungsstärkere Hardware bedeutet etwa schnellere Taktraten, mehrere Prozessorkerne oder Auslagern von Algorithmen in FPGA und andere Bauteile.
  • Andere Algorithmen, etwa eine blockweise Quantisierung mit einer Ungenauigkeit in Abhängigkeit der Größe der Blöcke und einer nachträglichen genaueren Berechnung "interessanter" Blöcke benötigen jedoch mehr Schritte und damit mehr Berechnungsaufwand.
  • Eine Informationsreduktion durch Skalierung der beiden stereoskopischen Ausgangsbilder ergibt aber auch eine Genauigkeitsreduktion, wobei dies bedeutet dass die Tiefengenauigkeit linear mit der Skalierungsfaktors des Bildes abnimmt.
  • Die der Erfindung zu Grunde liegende Aufgabe besteht nun darin ein Verfahren und eine Vorrichtung zur optimierten stereoskopisch-basierten Entfernungsmessung anzugeben, bei dem/der ein deutlich geringerer Rechenaufwand für die Entfernungsberechnung ermöglicht wird und bei dem/der zumindest in bestimmten Anwendungsfällen, die zuvor bekannte oder angenommene Objekte mit vergleichbaren Charakteristiken betreffen, trotzdem weiterhin eine hohe oder gleichbleibende Genauigkeit erreichbar ist.
  • Diese Aufgabe wird hinsichtlich des Verfahrens durch die Merkmale des Patentanspruchs 1 und hinsichtlich der Vorrichtung durch die Merkmale des Patentanspruchs 6 erfindungsgemäß gelöst. Die weiteren Ansprüche betreffen bevorzugte Ausgestaltungen der Erfindung sowie bevorzugte Verwendungen dieser Erfindung.
  • Die Erfindung betrifft im Wesentlichen ein Verfahren und eine Vorrichtung zur optimierten stereoskopisch-basierten Entfernungsmessung, bei dem/der mit zwei nebeneinander in derselben horizontalen Ebene liegenden Kameras eine Szene aus unterschiedlichen etwas räumlich versetzten Positionen aufgenommen wird, wodurch ein jeweiliger Punkt eines zu erfassenden Objektes im Raum in den beiden Aufnahmen der beiden Kameras im Allgemeinen an unterschiedlichen Positionen dargestellt wird, bei dem/der in beiden Aufnahmen jeweils nur ein korrespondierender streifenförmiger Bildbereich ausgewählt und somit basierend auf impliziten Information des zu erfassenden Objektes im Wesentlichen praktisch nur eine Reduktion der Dimensionen einer Zielinformationen erfolgt und bei dem/der in beiden Aufnahmen nur im korrespondierenden streifenförmigen Bildbereich einander entsprechende Bildpunkte gesucht werden und aus den jeweiligen Positionsabweichungen die absolute Distanz zwischen Objekt und Kamera-Aufbau ermittelt wird. Es wird hiermit mit preiswerter Standardhardware aus der Massenproduktion, zumindest in bestimmten Anwendungsfällen, eine fast hyperlineare Reduktion des Rechenaufwandes bei maximaler Ausbeute der relevanten Informationen und einem Verlust lediglich irrelevanter Informationen erreicht.
  • Nachfolgend wird die Erfindung anhand von in der Zeichnung dargestellten Ausführungsbeispielen näher erläutert.
  • Die Zeichnung zeigt einen Kameraaufbau mit zwei nebeneinander in derselben horizontalen Ebene liegenden Kameras K1 und K2, die eine Szene mit verschieden Objekten, die beispielhaft in Form eines Dreiecks, eines Vierecks und eines Kreises angedeutet sind, aus unterschiedlichen etwas räumlich versetzten Positionen aufnehmen.
  • Hierdurch wird beispielsweise jeweiliger Punkt eines zu erfassenden Objektes O im Raum in den beiden Aufnahmen der beiden Kameras K1 und K2 im Allgemeinen an unterschiedlichen Positionen OP1, OP2 dargestellt.
  • In beiden Aufnahmen der beiden Kameras K1 und K2 wird jeweils beispielsweise ein korrespondierender Bildbereich 1B1, 2B1 derart ausgewählt, dass basierend auf impliziten Information des zu erfassenden Objektes O im Wesentlichen eine Reduktion der Dimensionen einer Zielinformationen, also entweder in der Dimension Breite B oder in der Dimension Höhe H erfolgt.
  • Beim horizontalen korrespondierenden Bildbereich 1B1, 2B1 wurde also eine Reduktion der Dimension Höhe vorgenommen. Beispielhaft ist auch ein vertikaler Bereich 2B3 für den Fall einer Reduktion der Breite in der Zeichnung angedeutet.
  • Bevorzugter Weise handelt es sich bei einem solchen korrespondierenden Bildbereich um einen schmalen Bildausschnitt – nachfolgend auch "Ziel-Streifen" genannt – der sich in beiden Bildern über die gesamte Breite oder Höhe des jeweiligen Bildes erstreckt. Es kann also unter der Annahme dass Objekte sich stets innerhalb dieses Streifens aufhalten weiterhin der größtmögliche Bereich der Aufnahme überwacht werden.
  • Die Streifenbreite b eines Zielstreifens ist typischerweise einige wenige Pixel, da für Auswertung meist auch Informationen über Nachbarpixel erforderlich sind und so ein Zielstreifen mit der Streifenbreite ein Pixel nicht möglich ist.
  • In den Aufnahmen der beiden Kameras K1 und K2 werden erfindungsgemäß in einer Verarbeitungseinheit VE nur im korrespondierenden Bildbereich, beispielsweise dem korrespondierenden Bildbereich 1B1, 2B1, einander entsprechende Bildpunkte 1Pn, 2Pn gesucht und aus jeweiligen Positionsabweichungen ein absolute Distanz d zwischen Objekt O und Kamera-Aufbau K1, K2 ermittelt.
  • Optional können auch mehrere Streifen, wie beispielsweise die korrespondierende Bildbereiche 1B1, 2B1 und 1B2, 2B2, innerhalb der Ausgangsbilder der Kameras K1 und K2 gewählt werden. Dies ermöglicht es zwar nicht Distanzen für den gesamten Bildbereich der Ursprungsaufnahme zu bestimmen, erlaubt jedoch die Funktionalität einer traditionellen Lichtschranke mithilfe der „Stereo Vision“ in verbesserter Weise nachzubilden. Es können also Objekte/Hindernisse erkannt werden, welche in den oder die zu überwachenden Ziel-Streifen eintreten bzw. austreten. Im Gegensatz zur traditionellen Lichtschranke ist jedoch auch eine Abstandsmessung möglich, welche Auskunft darüber gibt wie weit Objekte von der Stereokamera entfernt sind.
  • Durch das maximale Beschneiden der Bilder in einer Dimension, beispielsweise der Höhe, unter Beibehaltung der Ausdehnung in der anderen Dimension, beispielsweise Breite, bleibt die Genauigkeit der Entfernungserkennung optimal erhalten. Die Entfernungsbestimmung wurde dabei lediglich vom dreidimensionalen Raum auf eine zweidimensionale Ebene in diesem reduziert. Dies ist für viele Anwendungsgebiete jedoch ausreichend.
  • Neben der Verwendung des oder der Ziel-Streifen kann optional auch die Lage L der Ziel-Streifen kontinuierlich variiert werden, unter der Annahme, dass bei genügend zeitlich aufeinander-folgenden Berechnungen das Objekt rechtzeitig bzw. innerhalb eines angemessenen Zeitraums erkannt wird. Insbesondere unter der Prämisse, dass die Erfindung i.d.R. auf einem Echtzeitsystemen umgesetzt wird, ist diese Art der Iteration sinnvoll.
  • Erlaubt die Realisierung der Erfindung etwa eine Parallelisierung, so kann optional der wahrscheinlichste Zielstreifen kontinuierlich überwacht werden, wohingegen weitere Streifen zufällig oder alternierend gewählt und ausgewertet werden.
  • Verwendungsbeispiele:
  • Häufig interessieren bei der Berechnung von Entfernungen zuvor bekannte oder angenommene Objekte mit vergleichbaren Charakteristiken. Diese Charakteristiken umfassen beispielsweise deren Höhe oder Breite. Andererseits kann diese Berechnungen auch dazu genutzt werden, festzustellen, ob eine Entfernung unterschritten wird. Auch hier kann angenommen werden, dass betroffene Objekte ähnliche Parameter aufweisen.
  • Ein Beispiel wäre die Kollisionserkennung im Fahrzeug, wo man davon ausgeht, dass sich gefährliche Objekte, d.h. Hindernisse, eine Mindesthöhe aufweisen und sich zudem vor dem Fahrzeug auf der Fahrbahn befinden.
  • Ein weiteres Beispiel wäre ein Kundenzähler im Kaufhaus, welcher die Anzahl der Personen die den Eingang durchlaufen zählt, wobei man hierbei davon ausgehen kann, dass Personen eine gewisse Mindestgröße haben.
  • Ein letztes Beispiels wäre eine Materialflusskontrolle, bei der die verwendeten Objekte, beispielsweise Flaschen, eine Produktionstrasse in einem gegebenen Takt durchlaufen und an bestimmten Beobachtungspunkten, beispielsweise anhand ihrer geometrischen Form, insbesondere ihrer Hohe, erkannt werden können. Sollte ein Objekt an einem dieser Punkte eine veränderte Lage aufweisen oder beispielsweise eine zerbrochene Flasche vorliegen, kann hier analog zu einer Lichtschranke eine entsprechende Maßnahme abgeleitet werden.
  • Vorteile:
  • Bei der bekannten regulären Skalierung der Kamerabilder werden durch die sinkende Genauigkeit der Eingangsdaten jedoch sämtliche zu berechnenden Ausgangsdaten automatisch ebenfalls ungenauer bzw. die Qualität sämtlicher Ergebnisse sinkt. Bei der Erfindung wird hingegen lediglich eine Reduktion der Dimensionen der Zielinformationen vorgenommen, da auf Grund impliziter Annahmen bzw. Vorkenntnissen bzgl. der betroffenen Objekte und damit der Zielinformation, wie beispielsweise alle Objekte sind ungefähr gleich hoch, auf einen Teil der Zielinformationen bei vielen Anwendungsfällen verzichtet werden kann, d. h. dass hier zwar insgesamt auch weniger Ausgangsdaten erzeugt werden, diese jedoch maximal genau bleiben. Dies wird letztlich einfach dadurch erreicht, dass nur ein schmaler Bereich des Bildes verwendet bzw. zur weiteren Auswertung herangezogen wird.
  • Es wird hiermit eine fast hyperlineare Reduktion des Rechenaufwandes bei maximaler Ausbeute der relevanten Informationen und einem Verlust lediglich irrelevanter Informationen erreicht.
  • Eine Benutzung von preiswerter Standardhardware aus der Massenproduktion, beispielsweise Kameras wie beispielsweise Standard-3D-Kameras wie sie auch in Smartphone eingesetzt werden sowie Standardprozessoren, sind möglich.
  • Insbesondere im Vergleich zu den existierenden Lösungen für die unter den Verwendungsbeispielen genannten speziellen Anwendungsfälle ergeben sich folgende spezielle Vorteile:
    • – I.d.R. mehr Informationen, wie beispielsweise die genaue Distanz der Objekte,
    • – kostengünstigeres System, da lediglich zwei handelsübliche Kameras benötigt werden
    • – volles Bild der Kameras für Nachkontrolle oder nachgelagerte Berechnungen, z.B. Objekterkennung im Bild, bei Erkennung von Objekten, welche die Lichtschranke zu einer Auslösung, beispielsweise durch Unterschreiten einer Distanz, veranlasst haben. Hierfür wird sonst neben der Lichtschranke eine separate Kamera benötigt.
  • Vorteilhafterweise können hiermit, bei ausreichenden Beleuchtungsverhältnissen, alle existierenden auf Detektion basierten Verfahren, wie beispielsweise Lichtschranke, Lasermatrix, Radar- und Ultraschallsensoren sowie Näherungssensor, ersetzt werden. Ferner können hiermit existierende Videoüberwachungsanlagen durch die Information der Entfernung und eine automatische Identifikation kritischer Bereiche im Bild angereichert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • H. Hirschmüller. Stereo processing by semiglobal matching and mutual information. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 30(2):328–341, 2008 [0004]

Claims (9)

  1. Verfahren zur optimierten stereoskopisch-basierten Entfernungsmessung, – bei dem mit zwei nebeneinander in derselben horizontalen Ebene liegenden Kameras (K1, K2) eines entsprechenden Kamera-Aufbaus eine Szene aus unterschiedlichen etwas räumlich versetzten Positionen aufgenommen wird, wodurch ein jeweiliger Punkt eines zu erfassenden Objektes (O) im Raum in den beiden Aufnahmen der beiden Kameras im Allgemeinen an unterschiedlichen Positionen (OP1, OP2) dargestellt wird, – bei dem in beiden Aufnahmen jeweils ein korrespondierender Bildbereich (1B1, 2B1) derart ausgewählt wird, dass basierend auf impliziten Information des zu erfassenden Objektes im Wesentlichen eine Reduktion der Dimensionen einer Zielinformationen (B, H) erfolgt, und bei dem in beiden Aufnahmen nur im korrespondierenden Bildbereich einander entsprechende Bildpunkte (1Pn, 2Pn) gesucht werden und aus jeweiligen Positionsabweichungen die absolute Distanz (d) zwischen Objekt und Kamera-Aufbau ermittelt wird.
  2. Verfahren nach Anspruch 1, in beiden Aufnahmen jeweils ein korrespondierender Bildbereich in der Form eines schmalen Streifens ausgewählt wird, der sich über die gesamte Breite oder Höhe des jeweiligen Bildes erstreckt.
  3. Verfahren nach Anspruch 1 oder 2, bei dem anstelle eines in beiden Aufnahmen korrespondierenden Bildbereiches (1B1, 2B1) mehrere jeweils in den beiden Aufnahmen korrespondierende Bildbereiche (1B1, 2B1 bzw. 1B2, 2B2) ausgewählt werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Lage (L) mindestens eines korrespondierenden Bildbereiches (1B1, 2B1 bzw. 1B2, 2B2) kontinuierlich variiert wird, wobei die Variationsgeschwindigkeit so gewählt wird, dass jeweils genügend Zeit zur Erkennung des erfassten Objekts verbleibt.
  5. Verfahren nach Anspruch 3, bei dem ein wahrscheinlichster korrespondierender Bildbereich (B1, B1') kontinuierlich überwacht wird, wohingegen weitere korrespondierende Bildbereiche (beispielsweise B2, B2') zufällig oder alternierend gewählt und ausgewertet werden.
  6. Vorrichtung zur optimierten stereoskopisch-basierten Entfernungsmessung, – bei der mit zwei nebeneinander in derselben horizontalen Ebene liegenden Kameras (K1, K2) eines entsprechenden Kamera-Aufbaus eine Szene aus unterschiedlichen etwas räumlich versetzten Positionen erfassbar ist, wodurch ein jeweiliger Punkt eines zu erfassenden Objektes (O) im Raum in den beiden Aufnahmen der beiden Kameras im Allgemeinen an unterschiedlichen Positionen (OP1, OP2) darstellbar ist, – bei der eine Verarbeitungseinheit (VE) derart vorhanden ist, – dass in beiden Aufnahmen mindestens jeweils ein korrespondierender Bildbereich (1B1, 2B1) so auswählbar ist, dass basierend auf impliziten Information des zu erfassenden jeweiligen Objektes im Wesentlichen eine Reduktion der Dimensionen einer Zielinformationen (B, H) erfolgt, und – dass in beiden Aufnahmen nur im mindestens einem jeweiligen korrespondierenden Bildbereich eine Suche von einander entsprechenden Bildpunkten (1Pn, 2Pn) durchführbar und aus jeweiligen Positionsabweichungen dieser einander entsprechenden Punkte mindestens eine jeweilige absolute Distanz (d) zwischen dem jeweiligen Objekt und Kamera-Aufbau ermittelbar ist.
  7. Verwendung der Vorrichtung nach Anspruch 6, zur Kollisionserkennung in einem Fahrzeug, wobei die implizite Information darin besteht, dass gefährliche Objekte eine Mindesthöhe aufweisen und sich zudem vor dem Fahrzeug auf der Fahrbahn befinden.
  8. Verwendung der Vorrichtung nach Anspruch 6, als Kundenzähler der die Anzahl der Personen die den Eingang durchlaufen zählt, wobei die implizite Information darin besteht, dass Personen eine gewisse Mindestgröße haben.
  9. Verwendung der Vorrichtung nach Anspruch 6, zur Materialflusskontrolle, bei der die verwendeten Objekte eine Produktionstrasse in einem gegebenen Takt durchlaufen und an bestimmten Beobachtungspunkten erkannt werden, wobei die implizite Information darin besteht, dass die Objekte eine bestimmte Form und Lage aufweisen.
DE102013217387.3A 2013-09-02 2013-09-02 Verfahren und Vorrichtung zur optimierten stereoskopisch-basierten Entfernungsmessung und deren Verwendung Withdrawn DE102013217387A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013217387.3A DE102013217387A1 (de) 2013-09-02 2013-09-02 Verfahren und Vorrichtung zur optimierten stereoskopisch-basierten Entfernungsmessung und deren Verwendung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013217387.3A DE102013217387A1 (de) 2013-09-02 2013-09-02 Verfahren und Vorrichtung zur optimierten stereoskopisch-basierten Entfernungsmessung und deren Verwendung

Publications (1)

Publication Number Publication Date
DE102013217387A1 true DE102013217387A1 (de) 2015-03-05

Family

ID=52470363

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013217387.3A Withdrawn DE102013217387A1 (de) 2013-09-02 2013-09-02 Verfahren und Vorrichtung zur optimierten stereoskopisch-basierten Entfernungsmessung und deren Verwendung

Country Status (1)

Country Link
DE (1) DE102013217387A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040032971A1 (en) * 2002-07-02 2004-02-19 Honda Giken Kogyo Kabushiki Kaisha Image analysis device
US20050201590A1 (en) * 2004-02-13 2005-09-15 Fuji Jukogyo Kabushiki Kaisha Pedestrian detection system and vehicle driving assist system with a pedestrian detection system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040032971A1 (en) * 2002-07-02 2004-02-19 Honda Giken Kogyo Kabushiki Kaisha Image analysis device
US20050201590A1 (en) * 2004-02-13 2005-09-15 Fuji Jukogyo Kabushiki Kaisha Pedestrian detection system and vehicle driving assist system with a pedestrian detection system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
H. Hirschmüller. Stereo processing by semiglobal matching and mutual information. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 30(2):328-341, 2008
SANEYOSHI, K.: Drive Assist System Using Stereo Image Recognition. In: Proceedings of the 1996 IEEE Intelligent Vehicle Symposium, Tokyo, 19.-20. Sep. 1996, S. 230-235. *
TSAI, C.-P. et al.: A Practical Nighttime Vehicle Distance Alarm System. In: IEEE International Conference on Systems, Man and Cybernetics, Singapore, 12.-15. Okt. 2008, S. 3000-3005. *

Similar Documents

Publication Publication Date Title
EP1589484B1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE102014217361B4 (de) Bestimmen der quellspur eines sich bewegenden elements, das mit der zielspur zusammengeführt wird
EP3014569B1 (de) Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs
EP3281076B1 (de) Verfahren zur bearbeitung eines bodens
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE112010003752T5 (de) Dynamische echtzeitreferenzbilderzeugung für ein entfernungsbildgebungssystem
DE102020203796A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Messinformation und LiDAR-Gerät
EP2791896B1 (de) Verfahren zur erzeugung von superaufgelösten bildern mit verbesserter bildauflösung und messvorrichtung
DE102012000459A1 (de) Verfahren zur Objektdetektion
EP1460454B1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102018108936A1 (de) Formmesssystem und Formmessverfahren
DE10148062A1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE102014208272A1 (de) Verfahren und Vorrichtung zur Tracking-basierten Sichtweitenschätzung
DE102007041333A1 (de) Berührungslos arbeitendes Zählsystem
WO2020061605A2 (de) Verfahren zum fokussieren einer kamera
EP3688660A1 (de) Verfahren zur erkennung eines blattrandes, verfahren zur gezielten behandlung von pflanzen mit einem blattbehandlungsmittel und verwendung eines eventbasierten bildsensors zur erkennung eines blattrandes
DE102013217387A1 (de) Verfahren und Vorrichtung zur optimierten stereoskopisch-basierten Entfernungsmessung und deren Verwendung
DE102014224557A1 (de) Bildverarbeitung mittels Kreuzkorrelation
EP3663800B1 (de) Verfahren zur objekterfassung mit einer 3d-kamera
EP3352111B1 (de) Verfahren zum erkennen von kritischen ereignissen
DE102015011674A1 (de) Verfahren zur Tiefenfilterung von Tiefenbildern
EP3214602A1 (de) Verfahren zur dreidimensionalen erfassung von objekten
DE102008057176B4 (de) Automatisierbares 3D-Rekonstruktionsverfahren und Überwachungsvorrichtung
DE102019210518A1 (de) Verfahren zum Erkennen eines Objektes in Sensordaten, Fahrerassistenzsystem sowie Computerprogramm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee