DE102018002177A1 - System zur visuellen dreidimensionalen Überwachung von Räumen - Google Patents

System zur visuellen dreidimensionalen Überwachung von Räumen Download PDF

Info

Publication number
DE102018002177A1
DE102018002177A1 DE102018002177.8A DE102018002177A DE102018002177A1 DE 102018002177 A1 DE102018002177 A1 DE 102018002177A1 DE 102018002177 A DE102018002177 A DE 102018002177A DE 102018002177 A1 DE102018002177 A1 DE 102018002177A1
Authority
DE
Germany
Prior art keywords
cameras
data
sensor
separate
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018002177.8A
Other languages
English (en)
Inventor
Michel Findeisen
Lars Meinel
Markus Hess
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3dvisionlabs GmbH
Original Assignee
3dvisionlabs GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3dvisionlabs GmbH filed Critical 3dvisionlabs GmbH
Priority to DE102018002177.8A priority Critical patent/DE102018002177A1/de
Publication of DE102018002177A1 publication Critical patent/DE102018002177A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein System zur visuellen dreidimensionalen Überwachung von Räumen, wobei das auf dem Prinzip der Stereo Vision basierende System unter Verwendung von Kameratechnik und Sensorik aus mehreren 2D-Ansichten einer Szene unter Anwendung von Algorithmen der Bildauswertung eine Extraktion von 3D-Informationen realisiert. Aufgabe der Erfindung ist es, eine diesbezügliche technische Lösung zu schaffen, mit der ein Raum mit lediglich einem Sensor vollständig überwacht werden kann. Diese Aufgabe wird dadurch gelöst, dass das System einen optischen 3D-Sensor aufweist, der aus drei separaten und miteinander in Wirkverbindung stehenden Kameras gebildet ist, die ein hemisphärisches Umfeld in Echtzeit erfassen und die in einer gemeinsamen Baugruppe baulich integriert sind, wobei in dieser gemeinsamen Baugruppe weiterhin eine den drei Kameras angeschlossene Verarbeitungseinheit baulich integriert ist, welche die von den drei Kameras des 3D-Sensors erfassten Bilddaten und 3D-Daten auswertet für eine Erkennung von Personen und/oder für eine Erkennung von Objekten und/oder für eine Analyse der im Raum beobachteten Szene.

Description

  • Die Erfindung betrifft ein System zur visuellen dreidimensionalen Überwachung von Räumen, wobei das auf dem Prinzip der Stereo Vision basierende System unter Verwendung von Kameratechnik und Sensorik aus mehreren 2D-Ansichten einer Szene unter Anwendung von Algorithmen der Bildauswertung eine Extraktion von 3D-Informationen realisiert.
  • Für die Überwachung von definierten Raumsegmenten, insbesondere von Innenräumen, sind zahlreiche technische Lösungen verfügbar, mit denen eine visuelle dreidimensionale Erfassung vom Umfeld des jeweils zu überwachenden Raumes möglich ist.
  • Nach dem Wirkprinzip lassen sich derartige Sensoren zwei grundsätzlichen Verfahrensvarianten zuordnen, nämlich aktiven Verfahren und passiven Verfahren. Als aktive Verfahren sind beispielsweise Muster-Projektionen (Structured Light, Projected Texture Stereo), Laufzeitmessungen (Time-of-Flight, ToF) und Laser-Scanner (LIDAR) bekannt. Als passive Verfahren sind beispielsweise Stereo Vision, Structure From Motion und Lichtfeld-Messung bekannt.
  • Von diesen Verfahren ist für eine Überwachung von Innenräumen insbesondere das Prinzip „Passive Stereo Vision“ bzw. „Stereo Vision mit aktiver IR-Beleuchtung“ geeignet, da sich bei diesem Prinzip kaum funktionelle Probleme für die Sensorik durch das Tageslicht oder eine künstliche Beleuchtung ergeben.
  • Der Begriff „Stereo Vision“ bezeichnet eine Extraktion von 3D-Informationen aus mehreren 2D-Ansichten einer Szene. Die hierfür bekannten konventionellen Stereo-Kameras bestehen üblicherweise aus zwei parallel zueinander ausgerichteten Kameras, so dass ein weitgehend ähnliches Prinzip realisiert wird wie beim menschlichen Stereo-Sehen. Eine angeschlossene Verarbeitungseinheit löst die Bilderfassung der Kameras synchron aus und verarbeitet die erfassten Bilddaten zu 3D-Informationen. Hierfür kommen Algorithmen der Bildauswertung zum Einsatz, welche den visuellen Versatz der Bilder ermitteln.
  • Aus US 5,430,474 A ist ein System zum Erzeugen von stereoskopischen Bildern mit mehreren Kameras aus vorbestimmten seitlichen Richtungen bekannt.
  • EP 1 838 086 B1 beschreibt eine omnidirektionale Stereokamera und ein Verfahren zum Betrieb dieser Kamera. Die Stereokamera umfasst mindestens zwei Kameras und ein Stützelement zur Verbindung der Kameras miteinander.
  • Aus DE 10 2005 060 054 B4 ist ein Stereo-Vision-System bekannt, das insbesondere für Insassenrückhaltesysteme mit einem Airbag in Fahrzeugen konzipiert ist. Für die Erfassung von Insassen und deren Sitzposition im Fahrzeug ist eine Vielzahl von Sensoren zur Erzeugung von Bildern vorgesehen. Mit einer Verarbeitungseinheit wird aus den erzeugten Bildern eine Stereoabbildung generiert, welche den räumlichen Abstand der Bildpunkt-Paare enthält. Diese Parameter werden zur Auslösung des Airbags berücksichtigt.
  • Ein großer Vorteil der Stereo Vision ist deren Unempfindlichkeit gegenüber Umgebungslicht. Deshalb kommen Stereo-Kameras neben der bereits oben erwähnten Überwachung von Innenräumen häufig im Freien zum Einsatz, wo aktive Verfahren nicht oder nur bedingt einsetzbar sind. Diesbezüglich bekannte Anwendungsbeispiele sind die Roboter-Navigation, Fahrerassistenzsysteme (ADAS) und das autonome Fahren.
  • Einschränkungen für den Einsatz der Stereo Vision ergeben Parallaxeffekte, strukturlose und reflektierende Oberflächen sowie unbeleuchtete Szenen. Nachteilig ist außerdem, dass für die Disparitätsberechnung ein relativ hoher Rechenaufwand notwendig ist, welcher von der anvisierten lateralen Auflösung, der möglichen Mindestdistanz zum Messobjekt und dem eingesetzten Verfahren abhängig ist. Weiterhin weisen binokulare Stereosensoren (Zwei-Kamera-Systeme) bzw. auf perspektivisch abbildenden Sensoren basierende Systeme ein stark eingeschränktes Sichtfeld auf. Somit müssen mehrere Sensoren eingesetzt werden, um einen einzigen Innenraum erfassen und überwachen zu können. Dadurch erhöht sich jedoch der gerätetechnische und kostenseitige Aufwand einer Überwachung von Räumen.
  • Die als Smart-Kameras bzw. intelligente Kameras bezeichneten Systeme sind im Vergleich zu den konventionellen Sensoren im eigentlichen Gerät mit einer Verarbeitungseinheit ausgestattet, welche die aufgenommenen 2D- und/oder 3D-Informationen direkt auf dem Gerät verarbeiten kann.
  • Der Einsatz derartiger Smart-Kameras für eine Innenraumüberwachung erfordert jedoch eine große Anzahl von Sensoren, um komplexe Innenräume abdecken zu können. Demzufolge erhöht sich auch hier zwangsläufig der gerätetechnische und kostenseitige Aufwand einer Überwachung von Räumen.
  • Deshalb wird zunehmend angestrebt, die Anzahl der benötigten Sensoren deutlich zu reduzieren. Allerdings sind bisher keine diesbezüglich akzeptablen Lösungen als Stand der Technik verfügbar.
  • Aufgabe der Erfindung ist es, eine technische Lösung für eine visuelle dreidimensionale Überwachung von Räumen zu schaffen, mit der ein Raum mit lediglich einem Sensor vollständig überwacht werden kann.
  • Diese Aufgabe wird gelöst, indem das System einen optischen 3D-Sensor aufweist, der aus drei separaten und miteinander in Wirkverbindung stehenden Kameras gebildet ist, die ein hemisphärisches Umfeld in Echtzeit erfassen und die in einer gemeinsamen Baugruppe baulich integriert sind. In dieser gemeinsamen Baugruppe ist weiterhin eine den drei Kameras angeschlossene Verarbeitungseinheit baulich integriert, welche die von den drei Kameras des 3D-Sensors erfassten Bilddaten und 3D-Daten auswertet. Damit wird es möglich, einen Raum mit einem einzigen Sensor komplett in drei Dimensionen zu erfassen und auf dem Sensor auszuwerten, d.h., Personen zu erkennen, Objekte zu erkennen und Algorithmen zur Szenenanalyse zu prozessieren.
  • Durch Anwendung der erfindungsgemäßen technischen Lösung wird eine Überwachung von Räumen mit Hilfe optischer 3D-Sensorik möglich, die folgende Unterschiede gegenüber den bisher am Markt verfügbaren Technologien aufweist: Ein auf einem Drei-Kamerasystem basierender optischer 3D-Sensor erfasst ein hemisphärisches Umfeld in Echtzeit und eine angeschlossene Verarbeitungseinheit wertet die Bild- und 3D-Daten aus. Dies wird mit lediglich einem Sensor erreicht, so dass sich wesentliche Vorteile beim gerätetechnischen und kostenseitigen Aufwand ergeben.
  • Eine bevorzugte Ausgestaltung sieht vor, dass die drei separaten und miteinander in Wirkverbindung stehenden Kameras jeweils in einem Eckpunkt einer gemeinsamen dreieckförmigen Anordnung derart angeordnet sind, dass die optischen Achsen der drei Kameras zumindest annähernd parallel zueinander ausgerichtet sind und dass die x- und y-Achsen der Koordinatensysteme aller drei Kameras zusammen eine einzige und zumindest annähernd gemeinsame Ebene aufspannen.
  • Eine weitere Ausgestaltung sieht vor, dass die drei Kameras jeweils mit hemisphärisch abbildenden (Fischaugen-) Objektiven ausgestattet sind.
  • Als weitere Ausgestaltung ist vorgesehen, dass die drei Kameras in Abhängigkeit ihrer konkreten Einsatzbedingungen mit einer hohen Lichtempfindlichkeit und/oder Empfindlichkeit im NIR-Lichtspektrum ausgestaltet sind, bei Bedarf in Kombination mit einer aktiven IR-Beleuchtung.
  • Eine weitere Ausgestaltung sieht vor, dass den drei Kameras ein Highspeed-Videointerface zugeordnet ist, welches parallel und/oder LVDS und/oder seriell ausgestaltet ist.
  • Das System weist vorzugsweise einen integrierten Prozessor (Embedded-Prozessor/System on Chip) mit CPU und/oder GPU und/oder ASIC und/oder FPGA und/oder ARM-Prozessor auf, der für Berechnungen unter Nutzung eines Stereokorrespondenzverfahrens, zur Berechnung von Tiefen- und 3D-Informationen (x-y-z) und für kundenspezifische Analysesoftware und/oder Applikationen mit Auswertung der Tiefen- und/oder 3D-Informationen, mit applikationsspezifischer Datenauswertung und mit Informationsgenerierung geeignet ist.
  • Eine Ausgestaltung sieht vor, dass das System Kommunikationsschnittstellen für eine Datenübertragung zum Nutzer und/oder zu einem Datenserver und/oder zur Kommunikation zwischen mehreren Kameras und/oder anderen Sensoren und/oder Aktoren aufweist. Diese Kommunikationsschnittstellen sind entweder kabelgebunden oder drahtlos implementiert. Für eine kabelgebundene Ausführung sind Ethernet (802.3) und/oder KNX und/oder CAN und/oder UART/RS232 und/oder USB vorgesehen. Für eine drahtlose Ausführung sind WLAN (802.11) und/oder Bluetooth und/oder Zigbee und/oder Z-WAVE vorgesehen.
  • In weiterer Ausgestaltung ist vorgesehen, dass das System eine Programmierschnittstelle zur Parametrisierung der Bildsensoren und 3D-Berechnung, zur Konfiguration des User-Programms, zum Webinterface und zur Anbindung eines Datenspeichers, Servers sowie zur Protokollierung erfasster Daten aufweist.
  • Mit dieser technischen Lösung ist eine intelligente hemisphärische Tiefenkamera verfügbar, die für verschiedenartige Anwendungen geeignet ist, bei denen vorzugsweise Innenräume hinsichtlich von Personen (z.B. Pflegeheime), Objekten (z.B. automatische Fabriken), Bewegungen (z.B. in Zugangsschleusen) und dergleichen überwacht werden müssen. Eine Anwendung außerhalb von Innenräumen ist ebenfalls möglich, beispielsweise in räumlich definierten Segmenten im Außenbereich.
  • Nachfolgend wird ein Ausführungsbeispiel der Erfindung anhand der Zeichnung erläutert. Es zeigen:
    • 1 den grundsätzlichen Aufbau des Systems in stilisierter Darstellung
    • 2 eine erste Anwendungsvariante des Systems
    • 3 eine weitere Anwendungsvariante des Systems
  • Das in der Zeichnung dargestellte System einer intelligenten hemisphärischen Tiefenkamera ist zur visuellen dreidimensionalen Überwachung von Räumen nach dem Prinzip der Stereo Vision konzipiert. Hierbei wird unter Verwendung von Kameratechnik und Sensorik aus mehreren 2D-Ansichten einer Szene unter Anwendung von Algorithmen der Bildauswertung eine Extraktion von 3D-Informationen realisiert. Konkret umfasst das System einen optischen 3D-Sensor, der aus drei separaten und miteinander in Wirkverbindung stehenden Kameras gebildet ist. Diese Kameras sind in einer gemeinsamen Baugruppe baulich integriert und erfassen ein hemisphärisches Umfeld in Echtzeit. In der gemeinsamen Baugruppe ist auch eine Verarbeitungseinheit baulich integriert, die den drei Kameras angeschlossen ist. Die Verarbeitungseinheit wertet die von den drei Kameras des 3D-Sensors erfassten Bilddaten und 3D-Daten aus, so dass eine Erkennung von Personen und/oder eine Erkennung von Objekten und/oder eine Analyse der im Raum beobachteten Szene möglich ist.
  • Aus 1 ist ersichtlich, dass das System der intelligenten hemisphärischen Tiefenkamera aus den folgenden und jeweils mit einem Bezugszeichen markierten Baugruppen besteht:
  • 1: Drei Bildsensoren bzw. konventionelle Kameras (2D), die mit hemisphärisch abbildenden (Fischaugen-) Objektiven ausgestattet und in Form eines beliebigen Dreiecks angeordnet sind mit folgenden Prämissen:
    • - die optischen Achsen aller drei Kameras sind (zumindest annähernd) parallel ausgerichtet
    • - die x- und y-Achsen der Kamerakoordinatensysteme aller drei Kameras spannen zusammen (zumindest annähernd) eine einzige gemeinsame Ebene auf
  • Je nach Einsatzfeld ist eine Verwendung von Bildsensoren mit hoher Lichtempfindlichkeit und/oder Empfindlichkeit im NIR-Lichtspektrum vorgesehen, wobei dann auch eine Kombination mit aktiver IR-Beleuchtung vorteilhaft ist
  • 2: Ein Highspeed-Videointerface (Parallel und/oder LVDS und/oder seriell)
  • 3: Ein integrierter Prozessor (Embedded-Prozessor/System on Chip) mit CPU und/oder GPU und/oder ASIC und/oder FPGA und/oder ARM-Prozessor zur Erfüllung folgender Berechnungsaufgaben:
    • - Berechnung unter Nutzung eines trinokularen Stereokorrespondenzverfahrens
    • - Berechnung von Tiefen- und 3D-Informationen (x-y-z)
    • - Kundenspezifische Analysesoftware und/oder Applikationen (Auswertung der Tiefen- und/oder 3D-Informationen, applikationsspezifische Datenauswertung und Informationsgenerierung)
  • 4: Kommunikationsschnittstelle zur Datenübertragung zum Nutzer und/oder Datenserver und/oder zur Kommunikation zwischen mehreren intelligenten hemisphärischen Tiefenkameras und/oder anderen Sensoren und/oder Aktoren
  • Die Implementierung erfolgt kabelgebunden mittels Ethernet (802.3) und/oder KNX und/oder CAN und/oder UART/RS232 und/oder USB bzw. drahtlos mittels WLAN (802.11) und/oder Bluetooth und/oder Zigbee und/oder Z-WAVE.
  • Die Baugruppen 1 bis 4 bilden somit eine intelligente hemisphärische Tiefenkamera, die in der Zeichnung als Baugruppe 6 dargestellt und von einem rechteckigen punktlinienförmig stilisierten Rahmen umschlossen ist.
  • 5: Programmierschnittstelle zur Parametrisierung der Bildsensoren und 3D-Berechnung, zur Konfiguration des User-Programms, zum Webinterface und zur Anbindung Datenspeicher/ Server/ Protokollierung erfasster Daten
  • Aus 2 ist ein erstes Beispiel zu den Einsatzmöglichkeiten des Systems der intelligenten hemisphärischen Tiefenkamera 6 ersichtlich, hier für eine automatisierte Szenenanalyse, z.B. für Personenzählung oder Tracking.
  • Der zu überwachende Raumabschnitt ist in 2 von einer halbkreisförmigen punktierten Linie 7 umschlossen. Die intelligente hemisphärische Tiefenkamera 6 ist in Überkopfmontage angeordnet und vermisst die Szene als Video- und Tiefendaten mit hohem Blickwinkel (180° Azimut x 90° Elevation, hemisphärisch). In vorteilhafter Weise werden somit Verdeckungen (Okklusion) vermieden und die Anzahl der notwendigen Sensoren bzw. Tiefenkameras vermindert, bei gleichzeitiger Verbesserung der Abdeckung sowie der eigentlichen Datenqualität.
  • Aus 3 ist ein weiteres Beispiel der Einsatzmöglichkeiten des Systems der intelligenten hemisphärischen Tiefenkamera 6 ersichtlich, hier für eine Umfelderfassung in fliegenden und/oder fahrenden Robotersystemen.
  • Der zu überwachende Raumabschnitt ist in 3 ebenfalls mit einer halbkreisförmigen punktierten Linie 7 stilisiert. Die intelligente hemisphärische Tiefenkamera 6 ist in bodengerichteter Blickrichtung an der Unterseite eines Fluggerätes 8 oder an der Oberseite in deckengerichteter Blickrichtung an einem (hier nicht dargestellten) Fahrzeug angebracht. Somit wird eine gleichzeitige Erfassung von Objekten und Hindernissen in fünf Achsen realisiert.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 5430474 A [0006]
    • EP 1838086 B1 [0007]
    • DE 102005060054 B4 [0008]

Claims (10)

  1. System zur visuellen dreidimensionalen Überwachung von Räumen, wobei das auf dem Prinzip der Stereo Vision basierende System unter Verwendung von Kameratechnik und Sensorik aus mehreren 2D-Ansichten einer Szene unter Anwendung von Algorithmen der Bildauswertung eine Extraktion von 3D-Informationen realisiert, dadurch gekennzeichnet, dass das System einen optischen 3D-Sensor aufweist, der aus drei separaten und miteinander in Wirkverbindung stehenden Kameras gebildet ist, die ein hemisphärisches Umfeld in Echtzeit erfassen und die in einer gemeinsamen Baugruppe baulich integriert sind, wobei in dieser gemeinsamen Baugruppe weiterhin eine den drei Kameras angeschlossene Verarbeitungseinheit baulich integriert ist, welche die von den drei Kameras des 3D-Sensors erfassten Bilddaten und 3D-Daten auswertet für eine Erkennung von Personen und/oder für eine Erkennung von Objekten und/oder für eine Analyse der im Raum beobachteten Szene.
  2. System nach Anspruch 1, dadurch gekennzeichnet, dass die drei separaten und miteinander in Wirkverbindung stehenden Kameras jeweils in einem Eckpunkt einer gemeinsamen dreieckförmigen Anordnung derart angeordnet sind, dass die optischen Achsen aller drei Kameras zumindest annähernd parallel zueinander ausgerichtet sind und dass die x- und y-Achsen der Koordinatensysteme aller drei Kameras zusammen eine einzige und zumindest annähernd gemeinsame Ebene aufspannen.
  3. System nach Anspruch 1, dadurch gekennzeichnet, dass die drei separaten und miteinander in Wirkverbindung stehenden Kameras jeweils mit hemisphärisch abbildenden (Fischaugen-) Objektiven ausgestattet sind.
  4. System nach Anspruch 1, dadurch gekennzeichnet, dass die drei separaten und miteinander in Wirkverbindung stehenden Kameras in Abhängigkeit der Einsatzbedingungen mit hoher Lichtempfindlichkeit und/oder Empfindlichkeit im NIR-Lichtspektrum ausgestaltet sind, auch in Kombination mit einer aktiven IR-Beleuchtung.
  5. System nach Anspruch 1, dadurch gekennzeichnet, dass den drei separaten und miteinander in Wirkverbindung stehenden Kameras ein Highspeed-Videointerface zugeordnet ist, welches parallel und/oder LVDS und/oder seriell ausgestaltet ist.
  6. System nach Anspruch 1, dadurch gekennzeichnet, dass das System einen integrierten Prozessor (Embedded-Prozessor / System on Chip) mit CPU und/oder GPU und/oder ASIC und/oder FPGA und/oder ARM-Prozessor aufweist.
  7. System nach Anspruch 6, dadurch gekennzeichnet, dass der integrierte Prozessor für Berechnungen unter Nutzung eines Stereokorrespondenzverfahrens ausgestaltet ist, zur Berechnung von Tiefen- und 3D-Informationen (x-y-z) und für kundenspezifische Analysesoftware und/oder Applikationen mit Auswertung der Tiefen- und/oder 3D-Informationen, mit applikationspezifischer Datenauswertung und mit Informationsgenerierung.
  8. System nach Anspruch 1, dadurch gekennzeichnet, dass das System Kommunikationsschnittstellen für eine Datenübertragung zum Nutzer und/oder zu einem Datenserver und/oder zur Kommunikation zwischen mehreren Kameras und/oder anderen Sensoren und/oder Aktoren aufweist.
  9. System nach Anspruch 8, dadurch gekennzeichnet, dass die Kommunikationsschnittstellen kabelgebunden oder drahtlos implementiert sind, wobei für eine kabelgebundene Ausführung Ethernet (802.3) und/oder KNX und/oder CAN und/oder UART/RS232 und/oder USB sowie für eine drahtlose Ausführung WLAN (802.11) und/oder Bluetooth und/oder Zigbee und/oder Z-WAVE vorgesehen sind.
  10. System nach Anspruch 1, dadurch gekennzeichnet, dass das System eine Programmierschnittstelle zur Parametrisierung der Bildsensoren und 3D-Berechnung, zur Konfiguration des User-Programms, zum Webinterface und zur Anbindung eines Datenspeichers, Servers sowie zur Protokollierung erfasster Daten aufweist.
DE102018002177.8A 2018-03-14 2018-03-14 System zur visuellen dreidimensionalen Überwachung von Räumen Pending DE102018002177A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018002177.8A DE102018002177A1 (de) 2018-03-14 2018-03-14 System zur visuellen dreidimensionalen Überwachung von Räumen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018002177.8A DE102018002177A1 (de) 2018-03-14 2018-03-14 System zur visuellen dreidimensionalen Überwachung von Räumen

Publications (1)

Publication Number Publication Date
DE102018002177A1 true DE102018002177A1 (de) 2019-09-19

Family

ID=67774107

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018002177.8A Pending DE102018002177A1 (de) 2018-03-14 2018-03-14 System zur visuellen dreidimensionalen Überwachung von Räumen

Country Status (1)

Country Link
DE (1) DE102018002177A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5430474A (en) 1993-11-24 1995-07-04 Hines; Stephen P. Autostereoscopic imaging system
US20040075544A1 (en) * 2000-11-29 2004-04-22 Holger Janssen System and method for monitoring the surrounding area of a vehicle
EP1838086A1 (de) 2006-03-23 2007-09-26 Samsung Electronics Co.,Ltd. Omnidirektionale Stereokamera und Verfahren zur Steuerung derselben
DE102005060054B4 (de) 2004-12-27 2009-07-30 Trw Automotive U.S. Llc, Livonia Verfahren und Vorrichtung zum Verbessern des Dynamikbereichs eines Stereo-Vision-Systems
US20120154548A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Left/right image generation for 360-degree stereoscopic video
WO2014117266A1 (en) * 2013-02-04 2014-08-07 Valorisation-Recherche, Limited Partnership Omnistereo imaging
US9856856B2 (en) * 2014-08-21 2018-01-02 Identiflight International, Llc Imaging array for bird or bat detection and identification

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5430474A (en) 1993-11-24 1995-07-04 Hines; Stephen P. Autostereoscopic imaging system
US20040075544A1 (en) * 2000-11-29 2004-04-22 Holger Janssen System and method for monitoring the surrounding area of a vehicle
DE102005060054B4 (de) 2004-12-27 2009-07-30 Trw Automotive U.S. Llc, Livonia Verfahren und Vorrichtung zum Verbessern des Dynamikbereichs eines Stereo-Vision-Systems
EP1838086A1 (de) 2006-03-23 2007-09-26 Samsung Electronics Co.,Ltd. Omnidirektionale Stereokamera und Verfahren zur Steuerung derselben
US20120154548A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Left/right image generation for 360-degree stereoscopic video
WO2014117266A1 (en) * 2013-02-04 2014-08-07 Valorisation-Recherche, Limited Partnership Omnistereo imaging
US9856856B2 (en) * 2014-08-21 2018-01-02 Identiflight International, Llc Imaging array for bird or bat detection and identification

Similar Documents

Publication Publication Date Title
EP2835973B1 (de) 3D-Kamera und Verfahren zur Erfassung von dreidimensionalen Bilddaten
DE10058244C2 (de) Messverfahren zur Ermittlung der Position eines Objektes vor einem Bildschirm und Vorrichtung zur Durchführung des Verfahrens
DE102014105351B4 (de) Detektion von menschen aus mehreren ansichten unter verwendung einer teilumfassenden suche
EP3537384A2 (de) Visuelles surround-view-system zur überwachung des fahrzeuginneren
EP2126840A1 (de) Verfahren, vorrichtung und computerprogramm zur selbstkalibrierung einer überwachungskamera
WO2015085338A1 (de) Verfahren und vorrichtung zur beobachtung der umgebung eines fahrzeugs
EP3573021B1 (de) Visualisieren von 3d-bilddaten
WO1998040855A1 (de) Einrichtung zur videoüberwachung einer fläche
DE102017129609A1 (de) Erkennen von Veränderungen in einem Erfassungsbereich
EP2275989A1 (de) Stereoskopische 3D-Kamera
DE19621612C2 (de) Vorrichtung zur Überwachung eines Gleisabschnittes in einem Bahnhof
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102009026091A1 (de) Verfahren und System zur Überwachung eines dreidimensionalen Raumbereichs mit mehreren Kameras
DE102019206083A1 (de) Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug
EP3893145B1 (de) Absicherung einer gefahrenstelle
DE102011082881A1 (de) Darstellung der Umgebung eines Kraftfahrzeugs in einer bestimmten Ansicht unter Verwendung räumlicher Information
DE102016210056A1 (de) Kameraanordnung zur Bestimmung des optischen Flusses, Fahrassistenzsystem und Überwachungskamera mit der Kameraanordnung
DE102018002177A1 (de) System zur visuellen dreidimensionalen Überwachung von Räumen
DE102012205130A1 (de) Verfahren zum automatischen Betreiben einer Überwachungsanlage
DE102010036852A1 (de) Stereokamera
DE202012102541U1 (de) 3D-Kamera
DE102017211038A1 (de) Verfahren zum Einstellen einer Kamera
EP3496398B1 (de) Sichere stereokamera und verfahren zum prüfen der funktionsfähigkeit der bildsensoren
EP3318838B1 (de) 3d-scanvorrichtung und verfahren zum dreidimensionalen scannen von objekten
DE102022201316B3 (de) Markierung und Verfahren zur Positionsbestimmung sowie zugehöriges Kamerasystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication