DE102018004829A1 - Ermittlung von Vorverzerrungsdaten für eine Projektion und Projektormodul - Google Patents

Ermittlung von Vorverzerrungsdaten für eine Projektion und Projektormodul Download PDF

Info

Publication number
DE102018004829A1
DE102018004829A1 DE102018004829.3A DE102018004829A DE102018004829A1 DE 102018004829 A1 DE102018004829 A1 DE 102018004829A1 DE 102018004829 A DE102018004829 A DE 102018004829A DE 102018004829 A1 DE102018004829 A1 DE 102018004829A1
Authority
DE
Germany
Prior art keywords
camera
projector
target surface
relative position
interior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018004829.3A
Other languages
English (en)
Inventor
Martin Bachhuber
Frank Schmid
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl Aerospace GmbH
Original Assignee
Diehl Aerospace GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Diehl Aerospace GmbH filed Critical Diehl Aerospace GmbH
Priority to DE102018004829.3A priority Critical patent/DE102018004829A1/de
Priority to BR102019010983A priority patent/BR102019010983A2/pt
Priority to CA3045176A priority patent/CA3045176A1/en
Priority to US16/430,972 priority patent/US11636617B2/en
Priority to FR1906313A priority patent/FR3082610B1/fr
Publication of DE102018004829A1 publication Critical patent/DE102018004829A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • G06T5/80
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

Bei einem Verfahren zur Ermittlung von Vorverzerrungsdaten (2) für eine Projektion von einem Projektor (4) auf eine Zielfläche (13) mit bekannten Geometriedaten wird eine Kamera (10) in bekannter Relativlage (RKP) zum Projektor platziert und auf die Zielfläche (13) ausgerichtet, wird aus einem Kamerabild vermittels maschinellem Sehen die Relativlage der Kamera zur Zielfläche (RKZ) ermittelt, und hieraus und aus der Relativlage (RKP) die Relativlage (RPZ) des Projektors (4) zur Zielfläche (13) ermittelt und werden die Vorverzerrungsdaten (2) anhand der Geometriedaten und der Relativlage (RPZ) des Projektors (4) zur Zielfläche (13) ermittelt.
Ein Projektormodul (22) enthält eine Recheneinheit (3) zur Durchführung des Verfahrens und den Projektor (4) und die Kamera (10).
Die Kamera (10) des Projektormoduls (22) oder im Verfahren wird zur optischen Überwachung des Innenraums (5) verwendet.
Eine Innenraumkamera wird als Kamera (10) des Projektormoduls (22) oder im Verfahren verwendet.

Description

  • Die Erfindung betrifft ein Verfahren zur Ermittlung von Vorverzerrungsdaten für eine Projektion eines Bildinhalts von einem Projektor in einem Innenraum eines Fahrzeuges auf eine Zielfläche des Innenraums und ein Projektormodul für eine Projektion eines Bildinhalts in einem Innenraum eines Fahrzeuges auf eine Zielfläche des Innenraums.
  • Aus der Praxis ist es bekannt, mit einem Projektionssystem Inhalte, wie zum Beispiel Bilder oder Lichtmuster, auf z.B. geneigte und/oder gekrümmte Oberflächen in einem Innenraum eines Fahrzeugs, speziell der Passagierkabine eines Flugzeugs, zu projizieren. Die Oberflächen sind zum Beispiel geschlossene Gepäckfächer. Um die durch die Form der Oberfläche entstehenden Verzerrungen in der Wiedergabe des Inhalts (Bildverzerrungen) zu korrigieren, sind Korrekturinformationen (Vorverzerrung im Projektor anhand von Vorverzerrungsdaten) notwendig. Die Ermittlung dieser Vorverzerrungsdaten ist in der Praxis aufwendig.
  • Aufgabe der vorliegenden Erfindung ist es, die Ermittlung von Vorverzerrungsdaten bei einer entsprechenden Projektion zu verbessern.
  • Die Aufgabe wird gelöst durch ein Verfahren gemäß Patentanspruch 1 zur Ermittlung von Vorverzerrungsdaten für eine Projektion eines Bildinhalts auf eine Zielfläche. Bevorzugte oder vorteilhafte Ausführungsformen der Erfindung sowie anderer Erfindungskategorien ergeben sich aus den weiteren Ansprüchen, der nachfolgenden Beschreibung sowie den beigefügten Figuren.
  • Die Projektion erfolgt von einem Projektor aus. Der Projektor befindet sich in einem Innenraum eines Fahrzeuges. Die Zielfläche ist eine Zielfläche des Innenraums. Geometriedaten der Zielfläche sind bekannt. Der Projektor befindet sich in einem bestimmungsgemäßen Montagezustand im Innenraum. Bei dem Verfahren wird eine Kamera in einer bekannten Relativlage zum Projektor platziert. Die Kamera wird dabei so ausgerichtet, dass zumindest ein Teil der Zielfläche im Blickfeld der Kamera liegt. Wenn also die Kamera ein Kamerabild aufnimmt, ist zumindest ein Teil der Zielfläche im Kamerabild abgebildet. Mit der Kamera wird dann ein Kamerabild aufgenommen. Aus dem Kamerabild wird die Relativlage der Kamera zur Zielfläche ermittelt. Die Relativlage bezieht sich auf den Zeitpunkt der Aufnahme des Kamerabildes. Die Ermittlung wird vermittels maschinellem Sehen vorgenommen, d.h. Methoden, Vorgehensweisen und Grundlagen des maschinellen Sehens werden zur Ermittlung der Relativlage im Rahmen einer Auswertung des Kamerabildes angewandt. Aus der ermittelten Relativlage der Kamera zur Zielfläche und der bekannten Relativlage der Kamera zum Projektor wird die Relativlage des Projektors zur Zielfläche ermittelt. Die Vorverzerrungsdaten werden dann anhand der bekannten Geometriedaten der Zielfläche und der ermittelten Relativlage des Projektors zur Zielfläche ermittelt.
  • Unter „Bildinhalt“ ist jedwede, vom entsprechenden Projektor wiedergebbare Lichtinformation zu verstehen, wie zum Beispiel Videos, Bilder, Texte, Muster oder einfach nur einfarbiges Licht. Die Zielfläche ist eine Oberfläche des Innenraumes, auf der die Projektion des Bildinhaltes erwünscht ist. Der Begriff „Lage“ ist vorliegend stets als Kombination einer Position (Ortsinformation) und Orientierung (Richtungsinformation) zu verstehen. Unter Relativlage ist insbesondere die Koordinateninformation in einem Koordinatensystem zu verstehen, insbesondere in einem Koordinatensystem, in dem auch CAD-Daten für die Zielfläche und sonstige, weiter unten genannte Gegenstände vorliegen. Zumindest sind die Koordinatentransformationen zwischen verschiedenen Koordinatensystemen bekannt, in denen die jeweiligen Informationen vorliegen.
  • Die Kamera ist dabei so platziert, dass angenommen werden kann, dass in der Regel freie Sicht von der Kamera zur Oberfläche hin gegeben ist, wenn sich nicht z.B. temporär ein Hindernis, wie zum Beispiel eine Person, im Blickfeld befindet. Die „Geometriedaten“ beschreiben die Gestalt bzw. Form der Zielfläche, z.B. ob und wie diese gekrümmt ist, welche Abmessungen sie aufweist usw. Insbesondere ist die Zielfläche zumindest abschnittsweise gekrümmt und/oder weist Kanten und/oder ebene Flächenstücke auf. Insbesondere ist die Zielfläche zumindest abschnittsweise gegenüber einer optischen Achse des Projektors, die zur Zielfläche hin gerichtet ist, geneigt.
  • Die entsprechende Vorverzerrung des Bildinhaltes kann auch mit dem Begriff „image warping“ bezeichnet werden. Unter „maschinellem Sehen“ sind insbesondere automatische und/oder rechnergestützte Verfahren und Algorithmen zur Bildauswertung zu verstehen, die geometrische Maße, Daten, Zusammenhänge liefern.
  • Gemäß der Erfindung ergibt sich so eine automatische kamerabasierte Projektorkonfiguration. Die Erfindung schlägt im Ergebnis ein Verfahren vor, welches anhand einer Schätzung bzw. Ermittlung der Relativ-Position von Projektor zu Projektionsfläche (Zielfläche) anhand von maschinellem Sehen (insbesondere photogrammetrische Methoden) die Korrekturinformationen zur Entzerrung des projizierten Bildes auf einer insbesondere gekrümmten Oberfläche ermittelt.
  • Die Erfindung beruht auf der Idee, dass mit einem Projektor bzw. Projektionssystem für den bzw. im Fahrzeuginnenraum (Flugzeugkabine) auf gekrümmte Oberflächen projiziert werden soll. Um die durch die Krümmung entstehenden Verzerrungen zu korrigieren, schlägt die Erfindung ein Verfahren vor, welches diese Korrekturinformationen aus den Geometriedaten (insbesondere CAD-Modell der Kabine) und der Relativ-Position von Projektor zu Projektionsziel (Zielfläche) errechnet. Da es nicht ausgeschlossen ist, dass sich diese Relativ-Position während der System-Lebensdauer im Innenraum (Kabine) ändert, wird ein Verfahren vorgeschlagen, welches diese Relativ-Position im Innenraum (Flugzeugkabine) anhand von maschinellem Sehen (insbesondere photogrammetrische Methoden) ermitteln bzw. schätzen kann, um die Korrekturinformationen (Vorverzerrungsdaten) mit dieser Information zu aktualisieren.
  • Die Erfindung löst die Aufgabe durch den Einsatz von maschinellem Sehen (Computer Vision). Dazu wird zusätzlich zum System Projektor-Zielfläche eine Kamera installiert, welche den Bereich des projizierten Bildes (und insbesondere dessen nähere Umgebung) erfassen kann. Anhand des Abbilds der Zielfläche (insbesondere markanten Punkten auf der Projektionsfläche, sogenannten Features) kann die relative Position der Kamera zur Zielfläche (insbesondere zu diesen markanten Punkten) geschätzt bzw. ermittelt werden. Ist nun die Kamera in einer bekannten, insbesondere unveränderlichen, Relativlage (Abstand, Orientierung) zum Projektor montiert (z.B. im selben Gehäuse), ist damit auch die relative Position des Projektors zur Zielfläche bekannt und die Korrekturinformation (Vorverzerrungsdaten oder deren Korrektur) kann basierend auf den Geometriedaten (insbesondere CAD-Modell) und der ermittelten relativen Position bestimmt werden.
  • Der Vorteil der Erfindung liegt darin, dass mit dem beschriebenen Verfahren die Korrektur der Verzerrung durch gekrümmte Oberflächen, also die Vorverzerrungsdaten, während der Lebensdauer des Systems berührungslos automatisch bestimmt werden kann. Das Kamerasystem könnte insbesondere (in Form der von der Kamera aufgenommenen Bilddaten) zusätzlich Informationen über den Innenraum (die Kabine) liefern, wie z.B. eine Erkennung eines offenen Bins (Gepäcksfaches).
  • Entsprechende Methoden des maschinellen Sehens sind hinreichend bekannt. Lediglich beispielhaft sei hierzu verwiesen auf: „X. Gao, X. Hou, J. Tang, H. Cheng. Complete Solution Classification for the Perspective-Three-Point Problem. IEEE, 2003. S. 4f.", „Open Source Computer Vision Library. www.opencv.org“, „LearnOpenCV: Approximate Focal Length for Webcams and Cell Phone Cameras.
    www.learnopencv.com/approximate-focal-length-for -webcams-and-cell-phone-cameras/ (21.12.2017)“, „ArUco Marker. www.uco.es/ investiga/ grupos/ ava/ node/ 26“ oder „S. Garrido-Jurado, R. Munoz-Salinas, F.J. Marin-Jimenez. Automatic generation and detection of high reliable diucial markers under occlusion. University of Cordoba, Cordoba, 2014“. Das beschriebene Verfahren ist daher mit bekannten Methoden einfach umsetzbar.
  • In einer bevorzugten Ausführungsform wird das maschinelle Sehen zumindest teilweise in Form photogrammetrischer Methoden ausgeführt. Entsprechende Methoden sind hinreichend bekannt. Auch solche sind hinreichend bekannt, so dass das Verfahren hier bedarfsgerecht durchgeführt werden kann.
  • In einer bevorzugten Ausführungsform werden als Geometriedaten der Zielfläche CAD-Daten der Zielfläche benutzt. Derartige CAD Daten sind für Fahrzeuge, insbesondere Flugzeuge, in der Regel ausreichend und in der notwendigen Genauigkeit verfügbar, sodass die benötigten Geometriedaten besonders einfach erhältlich sind.
  • In einer bevorzugten Ausführungsform wird die Kamera so ausgerichtet, dass zumindest ein Teil der Umgebung der Zielfläche im Blickfeld der Kamera liegt, wobei auch Geometriedaten der durch die Kamera erfassten Umgebung in Relation zur Zielfläche bekannt sind. Somit stehen zusätzliche Informationen zur Auswertung im maschinellen Sehen zur Verfügung. Die gelieferten Ergebnisse werden damit in der Regel verbessert. Selbst für einheitlich glatte Zielflächen ohne Ecken und Kanten, welche unter Umständen durch maschinelles Sehen schwer auswertbar wären, kann durch eine geeignete Wahl der Umgebung sichergestellt werden, dass entsprechend auswertbare Strukturen (Kanten, Ecken, usw.) im Kamerabild enthalten sind. So kann auch für diesen Fall eine hochgenaue Ermittlung der Relativlage der Kamera zum Projektor erfolgen.
  • Insbesondere für den Fall von CAD Daten liegen in der Regel auch Geometriedaten für die entsprechende Umgebung als CAD Daten vor, wobei dann die relativen Lageverhältnisse zwischen Umgebung und Zielfläche bekannt sind.
  • In einer bevorzugten Ausführungsform wird als zumindest Teil des maschinellen Sehens mindestens ein markantes Element im Kamerabild detektiert. Die Relativlage des markanten Elements zur Zielfläche ist dabei bekannt. Insbesondere werden zwei, drei oder vier oder mehr Elemente detektiert. „Detektiert“ bedeutet dabei, dass diese im Kamerabild erkannt werden und deren Relativlage zur Kamera bestimmt wird. Über die bekannte Relativlage zwischen Element und Zielfläche ist dann wieder die Relativlage zwischen Kamera und Zielfläche ermittelbar.
  • In einer bevorzugten Variante dieser Ausführungsform wird als mindestens eines der Elemente eine charakteristische Struktur der Zielfläche und/oder - falls vorhanden - der Umgebung der Zielfläche, detektiert. Solche „charakteristischen Strukturen“ sind solche, die ohnehin an der Zielfläche und/oder der Umgebung vorhanden sind, z.B. Punkte, Linien, Kanten, Ecken. Beispiele sind Ränder, Kanten, Zierleisten, Handgriffe eines Staufaches, Austrittsöffnungen für Luft, Leuchten usw. hierdurch ist vermieden, dass zum Zwecke des Verfahrens spezielle Marker oder Ähnliches als Elemente angebracht werden müssen. Die Marker gehören zum originären Innenraum bzw. der Zielfläche an sich.
  • In einer bevorzugten Variante des Verfahrens wird als mindestens eines der Elemente ein an der Zielfläche und/oder - falls vorhanden - an der Umgebung der Zielfläche angebrachter Marker detektiert wird. Die entsprechenden Marker werden insbesondere zum Zwecke des Verfahrens extra angebracht und gehören somit nicht zum originären Innenraum bzw. der Zielfläche an sich. Derartige Marker können für den Menschen sichtbar oder unsichtbar (Infrarot, Ultraviolett), jedenfalls aber mit der Kamera (also im Kamerabild) detektierbar sein. Die Marker können dabei aktiv (selbstleuchtend) oder passiv sein. Beispiele sind z.B. Aufkleber, farbige Lackierungen, aktive Leuchtmarker (LEDs), usw. Derartige Marker können dann besonders gut auf die Kamera bzw. die Erkennbarkeit im Kamerabild abgestimmt werden und führen zu einer besonders zuverlässigen Auswertung im Rahmen des maschinellen Sehens.
  • Zusammenfassend lässt sich also sagen: Als Marker bzw. markante Punkte eignen sich insbesondere die Kanten des Zielpanels (Innenraumpanel als Zielfläche), aufgebrachte (für den Menschen) sichtbare Markierungen (z.B. Aruco-Marker), aufgebrachte (für den Menschen) nicht sichtbare Markierungen (z.B. UV-Farbe angestrahlt mit UV-LEDs aus Projektor oder Kamera) oder in das Panel eingelassene Infrarot-Quellen. Anhand von mindestens drei markanten Stellen (Elementen) kann insbesondere die Relativposition allgemein berechnet werden. Durch mehr als drei Marker kann insbesondere die Genauigkeit erhöht werden. Bei weniger als drei Punkten kann insbesondere durch zusätzliche Plausibilitätsbetrachtungen eine Aussage über die relative Position (Relativlage der Kamera zu den Markern und damit zur Zielfläche) getroffen werden.
  • In einer bevorzugten Ausführungsform des Verfahrens wird davon ausgegangen, dass bereits vor Beginn der Ermittlung von Vorverzerrungsdaten, wie sie bisher beschrieben wurde, derartige Vorverzerrungsdaten vorliegen bzw. existieren. Die vorliegenden Vorverzerrungsdaten betreffen dabei eine erste Relativlage des Projektors zur Zielfläche. Nun wird mit der Durchführung des Verfahrens, so wie es bisher beschrieben wurde, begonnen. Hierbei wird eine zweite Relativlage des Projektors zur Zielfläche ermittelt. Nun wird eine Abweichung zwischen der zweiten und der ersten Relativlage ermittelt. Ist die Abweichung größer einem vorgeben Schwellenwert, werden die Vorverzerrungsdaten anhand der zweiten Relativlage korrigiert bzw. neu ermittelt. Das bisher beschriebene Verfahren wird daher ggf. (für eine Abweichung kleiner dem Schwellenwert) dadurch abgeschlossen, dass die Ermittlung der Vorverzerrungsdaten darin besteht, dass die bereits vorbekannten Vorverzerrungsdaten beibehalten werden. Ansonsten wird das Verfahren damit beendet, dass die Vorverzerrungsdaten neu ermittelt oder (insbesondere geringfügig) korrigiert werden. Eine „Ermittlung“ im engeren Sinne einer vollständigen mathematischen Neuberechnung der Vorverzerrungsdaten usw. findet in diesem Fall also insbesondere nicht statt. Mit anderen Worten entartet dann das „Ermittlungs-Verfahren“ zu einem „Vergleichs-“ oder „Korrektur-Verfahren“. Die festgestellte Abweichung kann insbesondere Null sein.
  • In einer bevorzugten Ausführungsform wird als Zielfläche eine solche benutzt, die in mindestens einem Abschnitt gekrümmt ist. Für gekrümmte Zielflächen ist eine adäquate Vorverzerrung des wiederzugebenden Bildinhalts besonders wichtig, welche mit dem beschriebenen Verfahren besonders einfach durchgeführt werden kann.
  • In einer bevorzugten Ausführungsform wird als Zielfläche eine Oberfläche eines Staufaches gewählt. Insbesondere handelt es sich dabei um ein Staufach im Innenraum, insbesondere der Passagierkabine eines Flugzeuges als Fahrzeug. Derartige Staufächer weisen oft komplex gekrümmte Oberflächen auf, sind jedoch als Ort für eine entsprechende Projektion wünschenswert. Mit dem beschriebenen Verfahren kann eine verzerrungsfreie Projektion besonders einfach realisiert werden.
  • In einer bevorzugten Ausführungsform wird das Verfahren in einem Flugzeug als Fahrzeug mit einer Passagierkabine als Innenraum ausgeführt. Die oben beschriebenen Vorteile des Verfahrens können so besonders für diesen Anwendungsfall genutzt werden.
  • Die Aufgabe der Erfindung wird auch gelöst durch ein Projektormodul für eine Projektion eines Bildinhalts in einem Innenraum eines Fahrzeuges auf eine Zielfläche des Innenraums gemäß Patentanspruch 12. Das Projektormodul enthält eine Recheneinheit, die zur Durchführung des erfindungsgemäßen Verfahrens eingerichtet ist, und den im Zusammenhang mit dem Verfahren erläuterten Projektor und die entsprechende Kamera.
  • Das Projektormodul und zumindest ein Teil dessen Ausführungsformen sowie die jeweiligen Vorteile wurden sinngemäß bereits im Zusammenhang mit dem erfindungsgemäßen Verfahren erläutert.
  • In einer bevorzugten Ausführungsform enthält das Projektormodul eine Tragstruktur, an der der Projektor und die Kamera in fester Relativlage zueinander befestigt sind. Insbesondere sind Projektor und Kamera im gleichen Gehäuse untergebracht. Insbesondere ist die Tragstruktur zumindest ein Teil des Gehäuses bzw. zumindest ein Teil des Gehäuses ist als Tragstruktur ausgeführt. Die im Verfahren geforderte bekannte Relativlage zwischen Kamera und Projektor kann so besonders einfach realisiert werden.
  • Die Aufgabe der Erfindung wird auch gelöst durch eine Verwendung gemäß Anspruch 14 der Kamera des erfindungsgemäßen Projektormoduls bzw. der im erfindungsgemäßen Verfahren genutzten Kamera zur optischen Überwachung des Innenraums. Die „Überwachung“ kann hierbei „manuell“, d.h. durch Betrachtung des Kamerabildes durch eine Person oder automatisch durch maschinelle Auswertung des Kamerabildes erfolgen. Die Kamera erfüllt somit einen Doppelzweck, nämlich erstens denjenigen, der ihr durch das oben beschriebene Verfahren oder Projektormodul zugewiesen ist; sowie zweitens denjenigen einer herkömmlichen Überwachungskamera. Dies bietet sich insbesondere beim Einsatz im Flugzeug an, da hierdurch eine weitere Komponente (zweite Kamera) und damit Gewicht eingespart werden kann.
  • Die Aufgabe der Erfindung wird auch gelöst durch eine Verwendung gemäß Anspruch 15 einer Innenraumkamera in einem Innenraum eines Fahrzeuges als Kamera des erfindungsgemäßen Projektormoduls oder in dem erfindungsgemäßen Verfahren. Die Innenraumkamera ist insbesondere eine Überwachungskamera, die ohnehin im Innenraum installiert ist. Durch deren Doppelnutzung muss für das Verfahren bzw. das Projektormodul keine separate Kamera vorgesehen werden. Dies bietet wieder insbesondere im Flugzeug die oben genannten Vorteile (Gewichtsersparnis).
  • Die Erfindung beruht auf folgenden Erkenntnissen, Beobachtungen bzw. Überlegungen und weist noch die nachfolgenden Ausführungsformen auf. Die Ausführungsformen werden dabei teils vereinfachend auch „die Erfindung“ genannt. Die Ausführungsformen können hierbei auch Teile oder Kombinationen der oben genannten Ausführungsformen enthalten oder diesen entsprechen und/oder gegebenenfalls auch bisher nicht erwähnte Ausführungsformen einschließen.
  • Grundidee der Erfindung ist ein Konzept zur Kamera-geregelten Kalibrierung und Steuerung eines Projektionssystems. Die Erfindung beruht auf dem Gedanken, unter Zuhilfenahme der Photogrammetrie ein Verfahren zur automatischen Kalibrierung und Nachregelung der Bildverzerrung (bzw. der Vorverzerrung) des Projektorsystems in einer Flugzeugkabine durch die im Projektor(modul) installierte Kamera vorzuschlagen. Aufgabe der Kalibrierung ist die Vorverzerrung des vom Projektor erzeugten Bildes in der Art und Weise, dass das auf die Zielfläche auftreffende Bild unabhängig von der Geometrie der Zielfläche und der Ausrichtung des Projektors relativ zur Zielfläche („unabhängig“ heißt: abhängig von den aktuellen, verschiedenen bzw. variablen Verhältnissen) verzerrungsfrei dargestellt wird. Grundidee der Erfindung ist weiterhin eine Kalibriermethode, welche die Kalibrierinformationen anhand des CAD Modells von Flugzeugkabine und Projektorintegration ermittelt. In Erweiterung dessen wird ein Konzept vorgeschlagen, mit dem wesentliche Parameter für die CAD-basierte Kalibrierung in der Kabine mit den Mitteln der Photogrammetrie bestimmt werden. Das System kann somit auch im eingebauten Zustand selbstständig auf Veränderungen, wie z.B. den variablen Abstand zwischen Projektor und Zielfläche aufgrund von Luftdruckänderungen, reagieren.
  • Gemäß der Erfindung ergibt sich insbesondere der Einsatz von Computer Vision (maschinellem Sehen) zur berührungslosen automatischen Schätzung der relativen Position von Projektor zu Projektionsfläche (Zielfläche) und der Auswahl von geeigneten in der Flugzeugkabine einsetzbaren Markern.
  • Die grundsätzliche Methode zur Vorverzerrung (Warping) des Projektorbilds stellt sich z.B. wie folgt dar: Zunächst wird das zu verzerrende Bild mit einem Gitter vereint, sodass Pixelpositionen regelmäßigen Gitterpunkten zugeordnet werden. Durch ein Korrektur-Vektorfeld, welches durch Vektoren an den Stellen der Gitterpunkte definiert wird, wird das Gitter daraufhin in die Zielform transformiert. Die vorher definierten Pixel-Gitterpunkt-Paare werden entsprechend dieser Vorschrift exakt verschoben und Pixelorte zwischen den Gitterpunkten durch Interpolation bestimmt.
  • Der Kalibrieralgorithmus bestimmt in Abhängigkeit der Geometrie der Zielfläche, der relativen Position von Projektor und Zielfläche, sowie der Eigenschaften des Projektors (Abstrahlverhalten) das optimale Korrektur-Vektorfeld.
  • Weitere Merkmale, Wirkungen und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels der Erfindung sowie der beigefügten Figuren. Dabei zeigen in einer schematischen Prinzipskizze:
    • 1 eine Projektion auf eine Zielfläche,
    • 2 eine Erfassung der Zielfläche durch eine Kamera,
    • 3 ein Gepäckfach als alternative Zielfläche mit Erfassung der Objektkanten.
  • In 1 ist eine CAD-basierte Berechnung von Vorverzerrungsdaten 2 (symbolisch als Korrektur-Vektorfeld perspektivisch und nochmals im Detail I dargestellt) schematisch dargestellt. Die Berechnung erfolgt in einer hier nur symbolisch angedeuteten Recheneinheit 3. Ein Projektor 4 in einem nicht näher dargestellten Innenraum 5 eines Fahrzeugs, hier einer Passagierkabine eines Flugzeugs, wird hier durch seinen Strahlengang 6 und durch seine (gedachte, virtuelle) Referenzfläche 8 modelliert. Der Projektor befindet sich in einem Montagezustand M im Flugzeug, ist also an seinem bestimmungsgemäßen Einbauort montiert. Die Referenzfläche 8 ist dabei die Fläche, auf der der Projektor 4 ein verzerrungsfreies, homogenes und fokussiertes Bild eines hier symbolisch dargestellten Bildinhaltes 9 darstellen kann. Der Bildinhalt 9 wird tatsächlich auf eine Zielfläche 13 projiziert. Für eine Kameraregelung ist parallel zum Projektor 4 eine Kamera 10 mit bekannter Relativposition RKP (durch einen Doppelpfeil angedeutet) zum Projektor 4 installiert, welche die Zielfläche 13 aufzeichnen bzw. in einem Kamerabild abbilden kann. Die Positionen aller beteiligten Objekte sind gegenüber einem frei wählbaren geometrischen Referenzpunkt 12 (Nullpunkt) referenziert.
  • Im ersten Schritt wird auf der Zielfläche 13, hier einem Gepäckfach, des Innenraums 5 ein regelmäßiges Gitter 14 definiert (hier angedeutet durch ein Schachbrettmuster), welches die Form des darzustellenden Bildes bestimmt. Nun wird durch ein Strahlverfolgungsverfahren der Strahlengang 6 für jeden einzelnen Gitterpunkt 16 des Schachbrettmusters ermittelt, um so auf das Bild 18 zu schließen, welches auf der Referenzfläche 8 dargestellt werden muss, so das auf der Zielfläche 13 ein unverzerrtes Bild erreicht wird. Aufgrund der bekannten Distanz D (beispielhaft angedeutet durch eine verstärkte Linie) zwischen den Gitterpunkten 16 auf Referenzfläche 8 und Zielfläche 13 kann auch zusätzlich auf einen gegebenenfalls anzupassenden Helligkeitsunterschied zwischen den einzelnen Gitterpunkten 16 geschlossen werden.
  • Für den Einsatz in der Flugzeugkabine soll das Abstrahlverhalten und die Referenzfläche 8 des Projektors 4, sowie die Geometrie der Zielfläche 13 als konstant angesehen werden. Beide Parameter können anhand der CAD Daten der Kabine bzw. aus Messungen ermittelt werden.
  • Als veränderlich soll die Relativposition RPZ von Projektor 4 zu Zielfläche 13 betrachtet werden. Die Relativposition RZP setzt sich aus einer Translation t und einer Rotation R zusammen, welche der Projektor 4 gegenüber der Zielfläche 13 einnimmt.
  • Die Relativposition RPZ kann im Wesentlichen aus den folgenden Gründen von der geplanten Integration abweichen.
    • - Toleranzen der Installation des Systems
    • - Vom Kabinendruck abhängige Änderung der Panelposition
  • Diese beiden Aspekte sollten daher in der Kabine durch ein Kamerasystem behandelt werden. Man geht dabei davon aus, dass eine Kamera 10 mit bekannter relativer Position RKP zum Projektor 4 installiert ist. Durch ein Verfahren der Photogrammetrie soll die Relativposition RKZ der Kamera 10 in Abhängigkeit von Markern 20 (hier markanten Punkten) auf der Zielfläche 13 bestimmt werden und damit auch die Position RPZ des Projektors relativ dazu (siehe 2).
  • 2 illustriert folgendes: Um die Relativposition RKZ zu bestimmen, erfasst die Kamera 10 mindestens drei markante Elemente 20, hier Marker bzw. Punkte auf der Zielfläche 13, deren 3D-Koordinaten relativ zum geometrischen Ursprung (Referenzpunkt 12) bekannt sind. Die zu erfassenden Elemente 20 sind hier sichtbare Ecken, Vorsprünge oder Markierungen.
  • Durch Vergleich der zweidimensionalen Koordinaten der Marker 20 bzw. Punkte auf dem Kamerabild und deren bekannten 3D-Koordinaten kann dann auf die Orientierung und Position der Kamera 10 relativ zum geometrischen Referenzpunkt 12 geschlossen werden. Mit mehr als drei Markern 20 bzw. Punkten lässt sich die Genauigkeit der Ortsbestimmung steigern.
  • Der Projektor 4, die Kamera 10 und die Recheneinheit 3 bilden zusammen ein Projektormodul 22. Projektor 4 und Kamera 10 sind dabei an einer Tragstruktur 24 des Projektormoduls 22 befestigt. Dadurch ist deren Relativlage RKP zueinander fest vorgegeben bzw. vorgebbar.
  • 3 zeigt beispielhaft einen Ausschnitt aus einem alternativen Innenraum 5 einer Passagierkabine eines Flugzeugs. Dargestellt sind drei Gepäckfächer (zwei ausschnittsweise), von denen das mittlere eine aktuelle Zielfläche 13 bildet. Dargestellt ist das von der Kamera 10 erfasste Kamerabild. Eine mit Hilfe der Kamera 10 bzw. der Recheneinheit 3 ermittelte Kontur 26 ist gestrichelt dargestellt. Die Kontur 26 ist hier in Form von Rändern bzw. Kanten des Gepäckfaches gebildet, die hier die markanten Elemente 20 der Zielfläche 13 darstellen.
  • Aus der Kontur 26 wird wieder die Relativlage RKZ ermittelt. Ansonsten wird das Verfahren sinngemäß wie oben beschrieben weitergeführt, um die Vorverzerrungsdaten 2 zu ermitteln.
  • 3 zeigt auch, wie die Kamera 10 einen Doppelnutzen erfüllen kann. Das Kamerabild kann nämlich auch zur Kontrolle genutzt werden, ob noch Gepäckfächer offen stehen. Hierbei kann entweder die Kamera 10 des Projektormoduls 22 zur Gepäckfachüberwachung mitgenutzt werden oder „umgekehrt“ eine ohnehin zur Gepäckfachüberwachung vorhandene Kamera 10 als Kamera 10 im Projektormodul 22 mitgenutzt werden.
  • Bezugszeichenliste
  • 2
    Vorverzerrungsdaten
    3
    Recheneinheit
    4
    Projektor
    5
    Innenraum
    6
    Strahlengang
    8
    Referenzfläche
    9
    Bildinhalt
    10
    Kamera
    12
    Referenzpunkt / Nullpunkt
    13
    Zielfläche
    14
    Gitter
    16
    Gitterpunkt
    18
    Bild
    20
    markantes Element
    22
    Projektormodul
    24
    Tragstruktur
    26
    Gepäckfach
    RKP
    Relativposition Kamera zu Projektor
    RPZ
    Relativposition Projektor zu Zielfläche
    RKZ
    Relativposition Kamera zu Zielfläche
    D
    Distanz
    t
    Translation
    R
    Rotation
    M
    Montagezustand
    I
    Detail
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • X. Gao, X. Hou, J. Tang, H. Cheng. Complete Solution Classification for the Perspective-Three-Point Problem. IEEE, 2003. S. 4f.“ [0013]

Claims (15)

  1. Verfahren zur Ermittlung von Vorverzerrungsdaten (2) für eine Projektion eines Bildinhalts (9) von einem Projektor (4) in einem Innenraum (5) eines Fahrzeuges auf eine Zielfläche (13) des Innenraums (5), wobei Geometriedaten der Zielfläche (13) bekannt sind, und sich der Projektor (4) in einem bestimmungsgemäßen Montagezustand (M) im Innenraum (5) befindet, bei dem: - eine Kamera (10) in einer bekannten Relativlage (RKP) zum Projektor platziert wird, wobei die Kamera (10) so ausgerichtet wird, dass zumindest ein Teil der Zielfläche (13) im Blickfeld der Kamera (10) liegt, - ein Kamerabild mit der Kamera (10) aufgenommen wird, - aus dem Kamerabild vermittels maschinellem Sehen die Relativlage der Kamera zur Zielfläche (RKZ) ermittelt wird, - aus der Relativlage (RKZ) der Kamera (10) zur Zielfläche (13) und der Relativlage (RKP) der Kamera (10) zum Projektor (4) die Relativlage (RPZ) des Projektors (4) zur Zielfläche (13) ermittelt wird, - die Vorverzerrungsdaten (2) anhand der Geometriedaten der Zielfläche (13) und der Relativlage (RPZ) des Projektors (4) zur Zielfläche (13) ermittelt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das maschinelle Sehen zumindest teilweise in Form photogrammetrischer Methoden ausgeführt wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Geometriedaten der Zielfläche (13) CAD-Daten der Zielfläche (13) benutzt werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kamera (10) so ausgerichtet wird, dass zumindest ein Teil der Umgebung der Zielfläche (13) im Blickfeld der Kamera (10) liegt, wobei auch Geometriedaten der durch die Kamera (10) erfassten Umgebung in Relation zur Zielfläche (13) bekannt sind.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als zumindest Teil des maschinellen Sehens mindestens ein markantes Element (20) im Kamerabild detektiert wird, dessen Relativlage zur Zielfläche (13) bekannt ist.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass als mindestens eines der Elemente (20) eine charakteristische Struktur der Zielfläche (13) und/oder - falls vorhanden - der Umgebung der Zielfläche (13) detektiert wird.
  7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass als mindestens eines der Elemente (20) ein an der Zielfläche (13) und/oder - falls vorhanden - an der Umgebung der Zielfläche (13) angebrachter Marker detektiert wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - bereits Vorverzerrungsdaten (2) zu einer ersten Relativlage (RPZ) des Projektors (4) zur Zielfläche (13) existieren, wobei - in dem Verfahren nach einem der Ansprüche 1 bis 7 eine zweite Relativlage (RPZ) des Projektors (4) zur Zielfläche (13) ermittelt wird, - eine Abweichung zwischen zweiter und erster Relativlage (RPZ) ermittelt wird, - bei einer Abweichung größer einem vorgebbaren Schwellwert die Vorverzerrungsdaten (2) anhand der zweiten Relativlage (RPZ) in dem Verfahren nach einem der Ansprüche 1 bis 7 korrigiert oder neu ermittelt werden.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Zielfläche (13) eine solche benutzt wird, die in mindestens einem Abschnitt gekrümmt ist.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Zielfläche (13) eine Oberfläche eines Staufaches gewählt wird.
  11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren in einem Flugzeug als Fahrzeug mit einer Passagierkabine als Innenraum (5) ausgeführt wird.
  12. Projektormodul (22) für eine Projektion eines Bildinhalts (9) in einem Innenraum (5) eines Fahrzeuges auf eine Zielfläche (13) des Innenraums (5), mit einer Recheneinheit (3), die zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 11 eingerichtet ist, und mit dem Projektor (4) und der Kamera (10).
  13. Projektormodul (22) nach Anspruch 12, dadurch gekennzeichnet, dass das Projektormodul (22) eine Tragstruktur (24) enthält, an der der Projektor (4) und die Kamera (10) in fester Relativlage (RKP) zueinander befestigt sind.
  14. Verwendung der Kamera (10) eines Projektormoduls (22) nach einem der Ansprüche 12 bis 13 oder der im Verfahren nach einem der Ansprüche 1 bis 11 genutzten Kamera (10) zur optischen Überwachung des Innenraums (5).
  15. Verwendung einer Innenraumkamera in einem Innenraum (5) eines Fahrzeuges als Kamera (10) eines Projektormoduls (22) nach einem der Ansprüche 12 bis 13 oder in einem Verfahren nach einem der Ansprüche 1 bis 11.
DE102018004829.3A 2018-06-15 2018-06-15 Ermittlung von Vorverzerrungsdaten für eine Projektion und Projektormodul Pending DE102018004829A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102018004829.3A DE102018004829A1 (de) 2018-06-15 2018-06-15 Ermittlung von Vorverzerrungsdaten für eine Projektion und Projektormodul
BR102019010983A BR102019010983A2 (pt) 2018-06-15 2019-05-29 determinação de dados de pré-distorção para uma projeção e módulo projetor
CA3045176A CA3045176A1 (en) 2018-06-15 2019-06-04 Ascertainment of predisposition data for a projection and projector module
US16/430,972 US11636617B2 (en) 2018-06-15 2019-06-04 Ascertainment of predistortion data for a projection and projector module
FR1906313A FR3082610B1 (fr) 2018-06-15 2019-06-13 Procédé de détermination de données de prédistorsion en vue de la projection d’un contenu d’image par un projecteur et module de projection correspondant

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018004829.3A DE102018004829A1 (de) 2018-06-15 2018-06-15 Ermittlung von Vorverzerrungsdaten für eine Projektion und Projektormodul

Publications (1)

Publication Number Publication Date
DE102018004829A1 true DE102018004829A1 (de) 2019-12-19

Family

ID=68724301

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018004829.3A Pending DE102018004829A1 (de) 2018-06-15 2018-06-15 Ermittlung von Vorverzerrungsdaten für eine Projektion und Projektormodul

Country Status (5)

Country Link
US (1) US11636617B2 (de)
BR (1) BR102019010983A2 (de)
CA (1) CA3045176A1 (de)
DE (1) DE102018004829A1 (de)
FR (1) FR3082610B1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018167999A1 (ja) * 2017-03-17 2018-09-20 パナソニックIpマネジメント株式会社 プロジェクタ及びプロジェクタシステム
CN113313966A (zh) * 2020-02-27 2021-08-27 华为技术有限公司 一种位姿确定方法以及相关设备
CN115278184B (zh) * 2022-07-18 2024-03-15 峰米(重庆)创新科技有限公司 投影画面校正方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007023344A1 (de) * 2007-05-16 2008-12-18 Eads Deutschland Gmbh Projektion verschiedener Bildinhalte in einer Großraumkabine eines Transportmittels
DE102009008084A1 (de) * 2009-02-09 2010-09-30 Airbus Deutschland Gmbh Bilderzeugende Beleuchtung für Flugzeuginnenflächen
US20110164226A1 (en) * 2010-01-04 2011-07-07 Industrial Technology Research Institute System and method for projection correction
US20140192268A1 (en) * 2013-01-07 2014-07-10 Gregory C. Petrisor Personal Interactive Overhead Projection Inflight Entertainment System
US20160264243A1 (en) * 2015-03-11 2016-09-15 The Boeing Company Unique System and Method of Creating Scenes Within a Moving Vehicle Such as an Aircraft
US20170262967A1 (en) * 2016-03-10 2017-09-14 Netflix, Inc. Perspective correction for curved display screens

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007023344A1 (de) * 2007-05-16 2008-12-18 Eads Deutschland Gmbh Projektion verschiedener Bildinhalte in einer Großraumkabine eines Transportmittels
DE102009008084A1 (de) * 2009-02-09 2010-09-30 Airbus Deutschland Gmbh Bilderzeugende Beleuchtung für Flugzeuginnenflächen
US20110164226A1 (en) * 2010-01-04 2011-07-07 Industrial Technology Research Institute System and method for projection correction
US20140192268A1 (en) * 2013-01-07 2014-07-10 Gregory C. Petrisor Personal Interactive Overhead Projection Inflight Entertainment System
US20160264243A1 (en) * 2015-03-11 2016-09-15 The Boeing Company Unique System and Method of Creating Scenes Within a Moving Vehicle Such as an Aircraft
US20170262967A1 (en) * 2016-03-10 2017-09-14 Netflix, Inc. Perspective correction for curved display screens

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
X. Gao, X. Hou, J. Tang, H. Cheng. Complete Solution Classification for the Perspective-Three-Point Problem. IEEE, 2003. S. 4f."

Also Published As

Publication number Publication date
CA3045176A1 (en) 2019-12-15
US20190385330A1 (en) 2019-12-19
FR3082610B1 (fr) 2021-10-08
US11636617B2 (en) 2023-04-25
FR3082610A1 (fr) 2019-12-20
BR102019010983A2 (pt) 2019-12-17

Similar Documents

Publication Publication Date Title
DE102014108684B4 (de) Fahrzeug mit Umfeldüberwachungseinrichtung sowie Verfahren zum Betreiben einer solchen Überwachungseinrichtung
DE102013108070A9 (de) Bildkalibrierung und Entzerrung einer Weitwinkelkamera
DE112016001150T5 (de) Schätzung extrinsischer kameraparameter anhand von bildlinien
DE102014116199B4 (de) Bildverzerrungs-Kompensationsvorrichtung und Betriebsverfahren dafür
DE102010030044A1 (de) Wiederherstellvorrichtung für durch Wettereinflüsse verschlechterte Bilder und Fahrerunterstützungssystem hiermit
DE112018000107T5 (de) Fahrzeugkamerakalibrierungsvorrichtung und -Verfahren
DE102018004829A1 (de) Ermittlung von Vorverzerrungsdaten für eine Projektion und Projektormodul
EP3014239A1 (de) Verfahren zum überprüfen der einstellung eines scheinwerfers in einem kraftfahrzeug
DE102017109445A1 (de) Kalibration einer Fahrzeug-Kameraeinrichtung in Fahrzeuglängsrichtung oder Fahrzeugquerrichtung
EP2562681B1 (de) Objektverfolgungsverfahren für ein Kamerabasiertes Fahrerassistenzsystem
EP3711289B1 (de) Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems
DE102013203404A1 (de) Verfahren und Vorrichtung zur dreidimensionalen Abbildung zumindest eines Teilbereichs eines Fahrzeugumfelds
EP3293971B1 (de) Verfahren zur nachführung eines bildausschnitts
DE102017210415B4 (de) Verfahren zum Bereitstellen einer Bildmaske für die Abgrenzung einer Interessensregion in einem Kamerabild einer Umfeldkamera eines Kraftfahrzeugs sowie Steuervorrichtung, Umfeldkamera und Kraftfahrzeug
DE102016224904A1 (de) Dreidimensionales Rundumsichtsystem
DE102018130569B4 (de) System und Verfahren zur Darstellung eines Kabinenlayouts im Originalmaßstab
EP3872725A1 (de) Verfahren zur ermittlung des beladungszustandes, system und transportmanagementsystem
DE102014219418B4 (de) Verfahren zur Stereorektifizierung von Stereokamerabildern und Fahrerassistenzsystem
DE102010021221A1 (de) Verfahren zur Bestimmung einer Ausrichtung einer an einem Fahrzeug angeordneten Kamera
DE102017217063A1 (de) Erkennungssystem, Arbeitsverfahren und Trainingsverfahren zum Erzeugen eines 3D-Modells mit Referenzdaten
DE102014219428A1 (de) Selbstkalibrierung eines Stereokamerasystems im Auto
DE102020215651A1 (de) Fahrzeugsichtsystem
DE102015205479A1 (de) Verfahren zum Darstellen einer Fahrzeugumgebung eines Fahrzeuges
DE102019208864A1 (de) Erkennungssystem, Arbeitsverfahren und Trainingsverfahren
EP3985608B1 (de) Computer-implementiertes verfahren zur erstellung von mehrdimensionalen gegenstands-datenstrukturen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication