WO2017071687A1 - Bild-/videodatenvisualisierungssystem - Google Patents

Bild-/videodatenvisualisierungssystem Download PDF

Info

Publication number
WO2017071687A1
WO2017071687A1 PCT/DE2016/100500 DE2016100500W WO2017071687A1 WO 2017071687 A1 WO2017071687 A1 WO 2017071687A1 DE 2016100500 W DE2016100500 W DE 2016100500W WO 2017071687 A1 WO2017071687 A1 WO 2017071687A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
video
video data
data
visualization system
Prior art date
Application number
PCT/DE2016/100500
Other languages
English (en)
French (fr)
Inventor
Tom Kwasnitschka
Original Assignee
Geomar Helmholtz-Zentrum Für Ozeanforschung Kiel
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Geomar Helmholtz-Zentrum Für Ozeanforschung Kiel filed Critical Geomar Helmholtz-Zentrum Für Ozeanforschung Kiel
Priority to EP16801373.8A priority Critical patent/EP3369246A1/de
Publication of WO2017071687A1 publication Critical patent/WO2017071687A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the invention relates to an image and / or video data visualization system comprising at least one robot which has exactly one operational digital camera, at least one
  • Data information storage unit and at least one
  • Data information processing unit as well as an image and / or video output on at least two parallel image output devices.
  • the prior art shows a number of examples of the use of industrial and scientific diving robots using multiple video cameras, some of which are mounted on pan and tilt heads. These commonly have an image angle of less than 64 ° in the case of simple flat pressure windows and when using
  • Ball windows also called Domeport, a swing of over 100 °.
  • the document DE 698 37 932 T2 shows a method for detecting immersive images, wherein the transformation is provided for each eye of a user by a transformation of a part of in each case two totally immersive representations by a correction.
  • ROV RemoteSy Operated Vehicle
  • the car calibration software from Fraunhofer FOKUS ensures that the individual live biiders of the diving robot can be seen pixeigenau on the screen, so that the researchers in the control container have a similar view as in a submarine.
  • the projection is enriched with the locally accurate GIS : Sonar and other measurement data.
  • the presence presence system improves the one
  • the dome projection allows the scientists a greater field of vision.
  • the additional location-specific measurement data makes it easier to (re) find points of interest, such as hydrothermal springs on the seafloor. Fraunhofer FOKUS fits its software for automatic calibration
  • the invention has for its object to provide a system for visualization of image data and / or video data in use with robots, wherein an increase in the
  • a further task in this respect is to be a special requirement which should be able to be fulfilled in addition, namely to employ the use of the robots in the sea and deep sea equipped accordingly with the system for the visualization of image data and / or video data.
  • the image and / or video data visualization system includes:
  • At least one robot having exactly one operational digital camera
  • At least one data information storage unit and at least one
  • Data information processing unit wherein the data information storage unit and / or data information processing unit stores and / or processes the image and / or video data captured by the camera, wherein the image and / or video data of at least one interface for the image and / or video output to
  • the image and / or video output is performed on at least two image output devices operating in parallel, wherein the image output devices are selected from:
  • the at least two parallel-working image output devices in terms of time and / or spatially provide independent image and / or video information from the provided image and / or video data.
  • Tilt cameras The peripheral field of view is widened, allowing pilots to navigate safely.
  • the high-resolution, wide-angle image is suitable for the sustainable
  • the images are also suitable as a data basis for photogrammetric reconstruction of the seafloor, as the large angle of view facilitates the reconstruction based on common feature marks in the image and the high resolution in a high spatial
  • the inventive system has, in particular, the following modules, which are also available as units or
  • the image and / or video information may be provided with additional image and / or
  • Data information about the image and / or video information can be laid.
  • the image and / or video information is especially in the spectral range from near infrared to ultraviolet.
  • the camera has, in particular, an optical system, wherein the optical system can have a rectilinear wide-angle and / or fisheye objective with an image angle range greater than 180 ° or 180 ° to 240 ° and the optic is selected from: fisheye or hyperfisheye.
  • the camera can have a high resolution and frame rate, especially in the
  • Range of 60fps and about 5,000 x 5,000 pixels The resolution may be greater than 4,000 x 4,000 pixels and / or the frame rate may be greater than / equal to 60 fps.
  • supplementary image data and / or data can additionally be displayed on the image output devices, wherein these supplementary image data and / or data are selected from: removal of objects recorded with the camera, light intensity, orientation and / or orientation, size comparisons, resolution, location, position and or
  • the data information storage unit and / or data information processing unit is arranged together with the camera in the robot.
  • the camera and visualization system can create an immersive telepresence in robotic deep-sea research.
  • the inventive system for the visualization of image data and video data in use with robots is breaking new ground here, in that a single camera head, in addition to which several cameras can be installed on one robot or multiple robots with one camera head each, can be combined to form a system.
  • a system which has a rectilinear wide-angle or fisheye lens of, for example, 180 ° to 240 ° angle of view and is provided with a correspondingly designed dome port.
  • the camera itself has a much higher resolution (for example, 5012 x 5012 pixels) and a higher frame rate (e.g., 60 fps) than conventional systems, and is mounted horizontally foresight or, in the case of multiple cameras, overlapping in each quadrant.
  • the considerable amounts of data generated by the camera head are recorded losslessly in a recorder and / or forwarded to an integrated or separate real-time processing unit for suitable immersive representation of the video image.
  • the recorder / processing combination can, depending on the provided infrastructure of the carrier device, in particular depending on the bandwidth of the transmission cable, be placed directly on the diving robot, where
  • an optical multiplexer / demultiplexer each between camera, signal transmission of the robot and deck unit on board.
  • the processing unit computes one or more virtual perspective slices simultaneously from the hemispherical fisheye image, which can be viewed using various immersive imaging techniques.
  • Conceivable for this purpose are monitors, curved canvases or domes and the like, but in particular also head mounted displays, HMD, such as Oculus Rift or Microsoft Hololens and the like, or holographic displays.
  • the orientation of the displayed image section is determined interactively by the viewer. This is done either via motor feedback sensors on the HMD or via
  • Controls such as touch screens, joysticks, game consoles or similar controls. In the case of projecting the entire image into a dome, no trimming of the visual field occurs.
  • the complete fisheye image or a partial view can also be compressed or
  • the peripheral field of vision is expanded and allows the pilot or users a safe navigation.
  • the high-resolution, wide-angle image is suitable for the sustainable documentation and publicity purposes, e.g. Reformatting as a large format movie.
  • the images are also suitable as a data basis for photogrammetric reconstruction of the seabed, since the large angle of view of the reconstruction based on

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

Die Erfindung betrifft ein Bild- und/oder Videodatenvisualisierungssystem mit wenigstens einem Roboter, der genau eine operative digitale Kamera aufweist, wenigstens einer Dateninformationsspeichereinheit und wenigstens einer Dateninformationsverarbeitungseinheit, wobei die Dateninformationsspeichereinheit und/oder Dateninformationsverarbeitungseinheit die von der Kamera aufgenommenen Bild- und/oder Videodaten speichert und/oder verarbeitet, wobei die Bild- und/oder Videodaten wenigstens einer Schnittstelle für die Bild- und/oder Videoausgabe zur Verfügung gestellt werden, wobei die Bild- und/oder Videoausgabe auf wenigstens zwei parallel arbeitenden Bildausgabevorrichtungen erfolgt, wobei die Bildausgabevorrichtungen ausgewählt sind aus: Display, Monitor, Bildschirm, Flachbildschirm, Anzeigewand, Projektionsdisplay, Virtual reality-Helm, Virtual reality-Brille, head-mounted Display, Augmented reality-Brille, -Helm und/oder -Display, wobei die wenigstens zwei parallel arbeitenden Bildausgabevorrichtungen zeitlich und/oder räumlich jeweils unabhängige Bild- und/oder Videoinformationen aus den bereit gestellten Bild- und/oder Videodaten bereit stellen.

Description

Bild-A ideodatenvisualisierungssystem
Die Erfindung betrifft ein Bild- und / oder Videodatenvisualisierungssystem mit wenigstens einem Roboter, der genau eine operative digitale Kamera, wenigstens eine
Dateninformationsspeichereinheit und wenigstens eine
Dateninformationsverarbeitungseinheit, sowie eine Bild- und / oder Videoausgabe auf wenigstens zwei parallel arbeitenden Bildausgabevorrichtungen aufweist.
Als System, im Sinne der Erfindung, wird dabei die Gesamtheit der Module bezeichnet, die derart aufeinander bezogen oder miteinander verbunden sind und in einer Weise
wechselwirken, dass sie als zweckgebundene Einrichtung die im Weiteren gestellte Aufgabe lösen.
Der Stand der Technik zeigt eine Reihe von Beispielen für die Nutzung von Tauchrobotern für industrielle und wissenschaftliche Zwecke unter Einsatz von mehreren Videokameras, die teils auf Schwenk-Neigeköpfen montiert werden. Diese haben gemeinhin einen Bildwinkel von weniger als 64° im Falle von einfachen planen Druckfenstern und bei Anwendung von
Kugelfenstern, auch Domeport genannt, einen Wnkel von über 100°.
Derartige Tauchgänge von unbemannten Tauchrobotern werden i.d.R. von mehreren
Personen gleichzeitig aus der Ferne verfolgt. Dabei bedeutet das selektive Verfolgen einzelner Kameraeinstellungen auf unterschiedlichen Bildschirmen eine massive Einschränkung für die Beurteilung der optisch untersuchbaren Bereiche. Weiter wird durch das für alle Betrachter gleiche Blickfeld, welches durch die jeweilige gerichtete Kamera bestimmt wird, eine
Beeinträchtigung der Produktivität durch die Benutzer.
Dies wird häufig noch dadurch verstärkt, dass die Beleuchtung von Tauchrobotern nicht mit den jeweiligen Kameras in Blickrichtung mitschwenkt und daher ein Blickfeld ausgeleuchtet wird, welches selbst von schwenkbaren Kameras nicht erfasst wird.
Die Druckschrift DE 698 37 932 T2 zeigt ein Verfahren zur Erfassung von immersiven Bildern, wobei durch eine Transformation eines Teils von jeweils zwei total-immersiven Darstellungen durch eine Korrektur die Darstellung für jedes Auge eines Benutzers bereitgestellt wird.
Weiter ist aus der Druckschrift DE 10 2009 001 496 A1 eine Audio- Visionseinrichtung bekannt, die Bilder auf das Innere einer Kuppel projiziert.
Aus dem Projekt ARMARE ist ferner ein Augmented-Reality-Telepräsenz-System für die Tiefsee (2012) bekannt, bei dem ein Tauchroboter MARUM-QUEST zur Erforschung der Tiefsee verwendet wird. Dabei liefern meist kabeigeführte, ferngesteuerte Tauchroboter wie der MARUM-QUEST Daten, Das sogenannte RemoteSy Operated Vehicle, kurz ROV, kann bis zu 4.000 Meter tief tauchen und ist u.a. mit HD-Kameras ausgestattet. Sie senden Videos aus der Tiefsee über Glasfaserkabel an den Kontrolicontainer auf dem Forschungsschiff in dem ein Teiepräsenz-System eingesetzt wird. Es besteht aus einer aufrechten Kuppelprojektion mit einem horizontalen und vertikalen Winkel von 180°. Die Autokaiibrierungssoftware von Fraunhofer FOKUS sorgt dafür, dass die einzelnen Live-Biider des Tauchroboters pixeigenau auf der Leinwand zu sehen sind, so dass die Forscher im Kontrollcontainer eine ähnliche Sicht wie in einem U-Boot haben. Die Projektion wird mit den ortsgenauen GIS-: Sonar- und weiteren Messdaien angereichert. Das Teiepräsenz-System verbessert zum einen die
Navigation des Tauchroboters. Den Wissenschaftlern ermöglicht die Kuppelprojektion ein größeres Sichtfeid. Durch die zusätzlichen ortsgenauen Messdaten, können interessante Punkte, wie hydrothermale Quellen am Meeresgrund, leichter (wieder-) gefunden werden. Fraunhofer FOKUS passt dafür seine Software zur automatischen Kalibrierung den
Bedingungen unter Wasser an und setzt diese in Augmented-Reaiity-Funktionen um.
Der Erfindung liegt die Aufgabe zugrunde, ein System zur Visualisierung von Bilddaten und / oder Videodaten im Einsatz mit Robotern bereitzustellen, wobei eine Steigerung der
Arbeitseffizienz bei gleichzeitiger Reduktion der verwendeten Hardware erzielt werden soll. Eine weitere Aufgabe soll diesbezüglich eine spezielle Anforderung sein, die ergänzend erfüllbar sein soll, nämlich den Einsatz der entsprechend mit dem System zur Visualisierung von Bilddaten und / oder Videodaten ausgestatteten Roboter in der See- und Tiefsee einzusetzen.
Diese Aufgabe wird durch die Bild- und / oder Videodatenvisualisierungssystem gemäß dem Hauptanspruch gelöst.
Das Bild- und / oder Videodatenvisualisierungssystem weist auf:
- wenigstens einen Roboter, der genau eine operative digitale Kamera aufweist,
- wenigstens eine Dateninformationsspeichereinheit und wenigstens eine
Dateninformationsverarbeitungseinheit, wobei die Dateninformationsspeichereinheit und / oder Dateninformationsverarbeitungseinheit die von der Kamera aufgenommenen Bild- und / oder Videodaten speichert und / oder verarbeitet, wobei die Bild- und / oder Videodaten wenigstens einer Schnittstelle für die Bild- und / oder Videoausgabe zur
Verfügung gestellt werden, wobei die Bild- und / oder Videoausgabe auf wenigstens zwei parallel arbeitenden Bildausgabevorrichtungen erfolgt, wobei die Bildausgabevorrichtungen ausgewählt sind aus:
- Display, Monitor, Bildschirm, Flachbildschirm, Anzeigewand, Projektionsdisplay,
- Virtual reality-Helm, Virtual reality-Brille, head-mounted Display,
- Augmented reality-Brille, -Helm und / oder -Display;
wobei die wenigstens zwei parallel arbeitenden Bildausgabevorrichtungen zeitlich und / oder räumlich jeweils unabhängige Bild- und / oder Videoinformationen aus den bereit gestellten Bild- und / oder Videodaten bereit stellen.
Mittels dieses Systems zur Visualisierung von Bilddaten und / oder Videodaten ist es möglich, das Bild einer einzigen Kamera zu prozessieren, so dass mehrere Betrachter des
aufgenommenen Bildes unterschiedliche Ausschnitte, Blickrichtungen und / oder
Informationen erhalten können, die rechnerisch den Benutzern zur Verfügung gestellt werden.
Insbesondere ist der Einsatz des Systems zur Visualisierung von Bilddaten und / oder
Videodaten in Verbindung mit Tauchrobotern für industrielle, aber auch Forschungszwecke in der Tiefsee besonders von Vorteil und entsprechend angezeigt. Unter Wasser wird durch dieses System die Arbeitseffizienz erheblich gesteigert. Insbesondere ist der Einsatz in der Unterwasserwirtschaft für Offshoreanlagenbau und -betrieb zu Kontrollzwecken besonders vorteilhaft, da ein kostengünstiges und einfach ausgebildetes System verwendet werden kann.
Gegenüber einer einzelnen Kameraperspektive bei herkömmlichen Kameras erlaubt dieses System eine beliebige Anzahl an gleichzeitig nutzbaren, virtuell emulierten Schwenk-/
Neigekameras. Das periphere Gesichtsfeld wird erweitert und erlaubt den Piloten sicheres Navigieren. Das hochauflösende, weitwinklige Bild eignet sich für die nachhaltige
Dokumentation und Zwecke der Öffentlichkeitsarbeit, z.B. Umformatierung als Großformatfilm.
Die Bilder eignen sich ferner als Datengrundlage für photogrammetrische Rekonstruktion des Meeresbodens, da der große Bildwinkel die Rekonstruktion anhand von gemeinsamen Featuremarken im Bild erleichtert und die hohe Auflösung in einer hohen räumlichen
Auflösung resultiert.
Das erfinderische System weist zur Visualisierung von Bilddaten und Videodaten im Einsatz mit Robotern insbesondere die folgenden Module auf, die auch als Einheiten bzw.
Untereinheiten bezeichnet werden.
Insbesondere können weitere Merkmale zusätzlich bevorzugt angeordnet sein:
Die Bild- und / oder Videoinformationen können mit zusätzlichen Bild- und / oder
Dateninformationen ergänzt werden, wobei diese zusätzlichen Bild- und / oder
Dateninformationen über die Bild- und / oder Videoinformationen legbar sind.
Die Bild- und / oder Videoinformationen liegen insbesondere im spektralen Bereich vom nahen infrarot bis ultraviolett.
Die Kamera weist insbesondere eine Optik auf, wobei die Optik ein rektilineares Weitwinkel- und / oder Fisheyeobjektiv mit einem Bildwinkelbereich größer als 180° oder 180° bis 240° aufweisen kann und die Optik ausgewählt ist aus: Fisheye oder Hyperfisheye. Ergänzend kann die Kamera eine hohe Auflösung und Bildrate aufweisen, vor allem im
Bereich von 60fps und ca. 5.000 x 5.000 Pixeln. Hierbei kann die Auflösung größer als 4.000 x 4.000 Pixel und / oder die Bildrate größer als / gleich 60fps sein.
Weiter können ergänzende Bilddaten und / oder Daten auf den Bildausgabevorrichtungen zusätzlich darstellbar sein, wobei diese ergänzenden Bilddaten und / oder Daten ausgewählt sind aus: Entfernung von mit der Kamera aufgenommenen Objekten, Lichtstärke, Orientierung und / oder Ausrichtung, Größenvergleiche, Auflösung, Standort, Position und / oder
Kommentare von Nutzern, wobei die Nutzer räumlich getrennt sind.
Die Dateninformationsspeichereinheit und / oder Dateninformationsverarbeitungseinheit ist gemeinsam mit der Kamera in dem Roboter angeordnet.
Die Kamera- und Visualisierungsanlage kann insbesondere eine immersive Telepräsenz in der robotischen Tiefseeforschung schaffen.
Das erfinderische System zur Visualisierung von Bilddaten und Videodaten im Einsatz mit Robotern geht hier neue Wege, indem ein einzelner Kamerakopf, es können ergänzend auch mehrere Kameras an einem Roboter installiert werden oder mehrere Roboter mit jeweils einem Kamerakopf Verwendung finden, zu einem System zusammengefasst werden, welches über ein rektilineares Weitwinkel- oder Fischaugenobjektiv von beispielsweise 180° bis zu 240° Bildwinkel verfügt und mit einem entsprechend ausgelegten Domeport versehen ist. Die Kamera selbst verfügt über eine deutlich höhere Auflösung (beispielsweise 5012 x 5012 Pixel) und eine höhere Bildrate (z.B. 60fps) als herkömmliche Anlagen und wird horizontal vorausblickend oder, im Falle mehrerer Kameras, überlappend in jedem Quadranten montiert.
Die beträchtlichen Datenmengen welche vom Kamerakopf erzeugt werden, beispielsweise im Bereich von 25Gbit/s werden in einem Rekorder verlustfrei aufgezeichnet und / oder an eine integrierte oder separate Echtzeit-Verarbeitungseinheit zur geeigneten immersiven Darstellung des Videobildes weitergegeben. Die Rekorder/ Verarbeitungskombination kann, je nach bereitgestellter Infrastruktur des Trägergerätes, insbesondere in Abhängigkeit der Bandbreite des Übertragungskabels, direkt auf dem Tauchroboter platziert werden, wobei dies
beispielsweise im Falle autonomer Geräte sinnvoll und effizient ist, oder an Bord des Schiffes vorgehalten werden, was ein geeignetes Modem, beispielsweise einen optischen Multiplexer / Demultiplexer, jeweils zwischen Kamera, Signalübertragung des Roboters und Deckseinheit an Bord erfordert.
Die Verarbeitungseinheit errechnet einen oder mehrere virtuelle Perspektivenausschnitte gleichzeitig aus dem hemisphärischen Fischaugenbild, welche mit verschiedenen immersiven bildgebenden Verfahren betrachtet werden können. Denkbar sind hierfür Monitore, gekrümmte Leinwände oder Kuppeln und dergleichen, insbesondere aber auch Head Mounted Displays, HMD, wie beispielsweise Oculus Rift oder Microsoft Hololens und dergleichen oder holographische Displays.
Die Orientierung des gezeigten Bildausschnittes wird interaktiv vom Betrachter festgelegt. Dies erfolgt entweder über motorische Feedbacksensoren am HMD oder über
Bedienelemente wie Touchscreens, Joysticks, Game Konsolen oder ähnliche Regler. Im Falle der Projektion des Gesamtbildes in eine Kuppel erfolgt kein Beschnitt des Gesichtsfeldes.
Das komplette Fischaugenbild oder eine Teilansicht kann ferner komprimiert oder
unkomprimiert per Satellit an Land übertragen werden und somit die Nutzeranzahl drastisch erhöht werden. Das aufgezeichnete Bild steht zur späteren Dokumentation und
Öffentlichkeitsarbeit zur Verfügung.
Insgesamt ergeben sich folgende Alleinstellungsmerkmale gegenüber dem Stand der Technik:
Gegenüber einer einzelnen Kameraperspektive bei herkömmlichen Kameras erlaubt dieses System eine beliebige Anzahl an gleichzeitig nutzbaren, virtuell emulierten
Schwenk-/Neigekameras.
- Das periphere Gesichtsfeld wird erweitert und erlaubt den Piloten bzw. Anwendern ein sicheres Navigieren.
Das hochauflösende, weitwinklige Bild eignet sich für die nachhaltige Dokumentation und Zwecke der Öffentlichkeitsarbeit, z.B. Umformatierung als Großformatfilm.
Die Bilder eignen sich ferner als Datengrundlage für photogrammetrische Rekonstruktion des Meeresbodens, da der große Bildwinkel die Rekonstruktion anhand von
gemeinsamen Featuremarken im Bild erleichtert und die hohe Auflösung in einer hohen räumlichen Auflösung resultiert.

Claims

A N S P R Ü C H E
Bild- und / oder Videodatenvisualisierungssystem mit:
- wenigstens einem Roboter, der genau eine operative digitale Kamera aufweist,
- wenigstens einer Dateninformationsspeichereinheit und wenigstens einer
Dateninformationsverarbeitungseinheit, wobei die Dateninformationsspeichereinheit und / oder Dateninformationsverarbeitungseinheit die von der Kamera aufgenommenen Bild- und / oder Videodaten speichert und / oder verarbeitet, wobei die Bild- und / oder Videodaten wenigstens einer Schnittstelle für die Bild- und / oder Videoausgabe zur Verfügung gestellt werden, wobei die Bild- und / oder Videoausgabe auf wenigstens zwei parallel arbeitenden Bildausgabevorrichtungen erfolgt, wobei die
Bildausgabevorrichtungen ausgewählt sind aus:
- Display, Monitor, Bildschirm, Flachbildschirm, Anzeigewand, Projektionsdisplay,
- Virtual reality-Helm, Virtual reality-Brille, head-mounted Display,
- Augmented reality-Brille, -Helm und / oder -Display;
wobei die wenigstens zwei parallel arbeitenden Bildausgabevorrichtungen zeitlich und / oder räumlich jeweils unabhängige Bild- und / oder Videoinformationen aus den bereit gestellten Bild- und / oder Videodaten bereit stellen.
Bild- und / oder Videodatenvisualisierungssystem nach Anspruch 1 ,
dadurch gekennzeichnet, dass
die Bild- und / oder Videoinformationen mit zusätzlichen Bild- und / oder
Dateninformationen ergänzbar sind, wobei diese zusätzlichen Bild- und / oder
Dateninformationen über die Bild- und / oder Videoinformationen legbar sind.
Bild- und / oder Videodatenvisualisierungssystem nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass
die Bild- und / oder Videoinformationen im spektralen Bereich vom nahen infrarot bis ultraviolett liegen.
Bild- und / oder Videodatenvisualisierungssystem nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, dass
die Kamera eine Optik aufweist.
5. Bild- und / oder Videodatenvisualisierungssystem nach Anspruch 4, dadurch gekennzeichnet, dass
die Optik ein rektilineares Weitwinkel- und / oder Fisheyeobjektiv mit einem
Bildwinkelbereich größer als 180° oder 180° bis 240° aufweist.
Bild- und / oder Videodatenvisualisierungssystem nach Anspruch 4 oder 5,
dadurch gekennzeichnet, dass
die Optik ausgewählt ist aus:
- Fisheye
- Hyperfisheye.
Bild- und / oder Videodatenvisualisierungssystem nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, dass
die Kamera eine hohe Auflösung und Bildrate aufweist.
8. Bild- und / oder Videodatenvisualisierungssystem nach Anspruch 7,
dadurch gekennzeichnet, dass
die Auflösung größer als 4.000 x 4.000 Pixel und / oder die Bildrate größer als / gleich 60fps ist.
Bild- und / oder Videodatenvisualisierungssystem nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, dass
ergänzende Bilddaten und / oder Daten auf den Bildausgabevorrichtungen zusätzlich darstellbar sind, wobei diese ergänzenden Bilddaten und / oder Daten ausgewählt sind aus:
- Entfernung von mit der Kamera aufgenommenen Objekten,
- Lichtstärke, Orientierung und / oder Ausrichtung,
- Größenvergleiche,
- Auflösung, Standort, Position
und / oder
- Kommentare von Nutzern, wobei die Nutzer räumlich getrennt sind.
10. Bild- und / oder Videodatenvisualisierungssystem nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, dass
die Dateninformationsspeichereinheit und / oder Dateninformationsverarbeitungseinheit gemeinsam mit der Kamera in dem Roboter angeordnet ist.
PCT/DE2016/100500 2015-10-29 2016-10-25 Bild-/videodatenvisualisierungssystem WO2017071687A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP16801373.8A EP3369246A1 (de) 2015-10-29 2016-10-25 Bild-/videodatenvisualisierungssystem

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015118540.7A DE102015118540B4 (de) 2015-10-29 2015-10-29 Tauchroboter-Bild-/Videodatenvisualisierungssystem
DE102015118540.7 2015-10-29

Publications (1)

Publication Number Publication Date
WO2017071687A1 true WO2017071687A1 (de) 2017-05-04

Family

ID=57396237

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2016/100500 WO2017071687A1 (de) 2015-10-29 2016-10-25 Bild-/videodatenvisualisierungssystem

Country Status (3)

Country Link
EP (1) EP3369246A1 (de)
DE (1) DE102015118540B4 (de)
WO (1) WO2017071687A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69837932T2 (de) 1997-10-08 2008-02-14 Interactive Pictures Corp., Oak Ridge Verfahren und system zur herstellung und anzeige von völlig inversiven stereoskopischen bildern
DE102009001496A1 (de) 2009-03-11 2010-09-16 LivinGlobe Development GbR (vertretungsberechtigter Gesellschafter: Bettina Pfänder, 14050 Berlin) Audiovisions-Einrichtung
CN201690518U (zh) * 2010-01-21 2010-12-29 天津理工大学 基于fpga的嵌入式鱼眼图像实时畸变校正装置
KR20120080554A (ko) * 2012-05-21 2012-07-17 한국과학기술원 어안렌즈를 이용한 증강현실 구현 시스템 및 그 구현 방법
EP2613296A1 (de) * 2010-08-30 2013-07-10 The University of Tokyo System zur anzeige einer gemischten realität, bildbereitstellungsserver, anzeigevorrichtung und anzeigeprogramm
CH707185A2 (de) * 2012-11-08 2014-05-15 Cityguide AG Verfahren und System zum automatischen Erstellen von Panoramabildern.

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4010619A (en) * 1976-05-24 1977-03-08 The United States Of America As Represented By The Secretary Of The Navy Remote unmanned work system (RUWS) electromechanical cable system
JPH0253693A (ja) * 1988-08-13 1990-02-22 Sakagami Masao 海底作業システム
JPH0784180A (ja) * 1993-09-13 1995-03-31 Nikon Corp 水中用魚眼レンズ
US8155479B2 (en) * 2008-03-28 2012-04-10 Intuitive Surgical Operations Inc. Automated panning and digital zooming for robotic surgical systems
US9440356B2 (en) * 2012-12-21 2016-09-13 Crosswing Inc. Customizable robotic system
US20130222590A1 (en) * 2012-02-27 2013-08-29 Honeywell International Inc. Methods and apparatus for dynamically simulating a remote audiovisual environment
US8954853B2 (en) * 2012-09-06 2015-02-10 Robotic Research, Llc Method and system for visualization enhancement for situational awareness
US9843713B2 (en) * 2014-04-02 2017-12-12 Nebulys Technologies, Inc. Systems and methods for video communication

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69837932T2 (de) 1997-10-08 2008-02-14 Interactive Pictures Corp., Oak Ridge Verfahren und system zur herstellung und anzeige von völlig inversiven stereoskopischen bildern
DE102009001496A1 (de) 2009-03-11 2010-09-16 LivinGlobe Development GbR (vertretungsberechtigter Gesellschafter: Bettina Pfänder, 14050 Berlin) Audiovisions-Einrichtung
CN201690518U (zh) * 2010-01-21 2010-12-29 天津理工大学 基于fpga的嵌入式鱼眼图像实时畸变校正装置
EP2613296A1 (de) * 2010-08-30 2013-07-10 The University of Tokyo System zur anzeige einer gemischten realität, bildbereitstellungsserver, anzeigevorrichtung und anzeigeprogramm
KR20120080554A (ko) * 2012-05-21 2012-07-17 한국과학기술원 어안렌즈를 이용한 증강현실 구현 시스템 및 그 구현 방법
CH707185A2 (de) * 2012-11-08 2014-05-15 Cityguide AG Verfahren und System zum automatischen Erstellen von Panoramabildern.

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DAVID L. GILBLOM ET AL: "Infrared and ultraviolet imaging with a CMOS sensor having layered photodiodes", SPIE - INTERNATIONAL SOCIETY FOR OPTICAL ENGINEERING. PROCEEDINGS, vol. 5301, 7 June 2004 (2004-06-07), US, pages 186, XP055335905, ISSN: 0277-786X, ISBN: 978-1-5106-0753-8, DOI: 10.1117/12.528427 *
PROJEKT ARMARE IST FERNER EIN AUGMENTED-REALITY-TELEPRÄSENZ-SYSTEM, 2012

Also Published As

Publication number Publication date
EP3369246A1 (de) 2018-09-05
DE102015118540B4 (de) 2021-12-02
DE102015118540A1 (de) 2017-05-04

Similar Documents

Publication Publication Date Title
CN108139799B (zh) 基于用户的兴趣区(roi)处理图像数据的系统和方法
US9747725B2 (en) Video system for piloting a drone in immersive mode
DE102016008770A1 (de) Bildanzeigesystem
US20110147528A1 (en) Method and system for enhanced vision in aerial refueling operations
KR20170031895A (ko) 가상 선교 시스템 및 그의 제어방법
DE102016223179A1 (de) Koordinaten-Abgleichvorrichtung für ein Head-Up-Display
DE102017217592A1 (de) Kinetosefreies Betrachten eines digitalen Inhalts in einem Fahrzeug
EP3152900B1 (de) System und verfahren zur fernüberwachung von mindestens einem beobachtungsbereich
US20030193562A1 (en) Natural vision-based video surveillance system
DE102014012250B4 (de) Verfahren zur Bilderverarbeitung und -darstellung
WO2017071687A1 (de) Bild-/videodatenvisualisierungssystem
DE102011100269A1 (de) Elektrooptische Feuerleiteinheit für ein Geschütz
DE102013021280A1 (de) Objekt Vergrösserungs-Gerät
WO2019157543A1 (de) System zur darstellung und identifikation von markern einer veränderbaren geometrischen abbildung
DE102016215704A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102015015695B4 (de) Anzeigesystem und Verfahren zum Betreiben eines Anzeigesystems
DE102013223995A1 (de) Verfahren zur Erstellung einer Tiefenkarte für eine Kamera
DE102014105011B4 (de) System zur Visualisierung des Sichtfeldes einer optischen Vorrichtung
EP1296213A1 (de) Verfahren und Vorrichtung zum Führen eines unbemannten Fluggerätes
DE102018007503A1 (de) Sichtassistenztaucherbrille
DE102010026572A1 (de) Verfahren und Einrichtung zur Aufnahme und Wiedergabe von Panoramadarstellungen
Woods et al. Field trials of stereoscopic video with an underwater remotely operated vehicle
Korteling et al. Visual support for the control of unmanned platforms
DE102005025048B4 (de) Teleskop
DE102013015189A1 (de) Mobiles Kamerasystem mit einer eigenfortbewegungsfähigen Plattform sowie Verfahren zur optischen Erfassung wenigstens eines Objektes

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16801373

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2016801373

Country of ref document: EP