DE102022212679A1 - Verfahren zum Betrieb eines Bildaufnahmesystems; Bildaufnahmesystem; Computerprogrammprodukt - Google Patents

Verfahren zum Betrieb eines Bildaufnahmesystems; Bildaufnahmesystem; Computerprogrammprodukt Download PDF

Info

Publication number
DE102022212679A1
DE102022212679A1 DE102022212679.3A DE102022212679A DE102022212679A1 DE 102022212679 A1 DE102022212679 A1 DE 102022212679A1 DE 102022212679 A DE102022212679 A DE 102022212679A DE 102022212679 A1 DE102022212679 A1 DE 102022212679A1
Authority
DE
Germany
Prior art keywords
image
optics
flare
light source
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022212679.3A
Other languages
English (en)
Inventor
Lars Omlor
Benjamin VOELKER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss AG
Original Assignee
Carl Zeiss AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss AG filed Critical Carl Zeiss AG
Priority to DE102022212679.3A priority Critical patent/DE102022212679A1/de
Priority to CN202311594792.5A priority patent/CN118102067A/zh
Priority to US18/521,321 priority patent/US20240177346A1/en
Publication of DE102022212679A1 publication Critical patent/DE102022212679A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betrieb eines mobilen Endgeräts (1), das eine Bildaufnahmeeinrichtung (4) aufweist. Verfahrensgemäß wird wenigstens eine Aufnahme (30) einer Szene erfasst und zumindest eine der gegebenenfalls mehreren Aufnahmen (30) auf das Vorhandensein einer Lichtquelle überprüft. Anschließend wird eine Position (P) der Lichtquelle relativ zu einem optischen Zentrum (Z) ermittelt und für die Lichtquelle eine Form (S), eine Intensität (I) und/oder eine Farbe (F) ermittelt wird. Mittels eines auf Abbildungseigenschaften einer vorgegebenen Optik trainierten Algorithmus wird dann unter Nutzung der Position (P) der Lichtquelle ein Flare-Bild (40) einer lens flare (42) für diese Lichtquelle und die vorgegebene Optik erzeugt. Das Flare-Bild (40) wird anschließend mit der Aufnahme (30) zu einem Kombinationsbild (44) kombiniert und das Kombinationsbild (44) in einem Speicherbaustein (20) abgelegt.

Description

  • Die Erfindung betrifft ein Verfahren zum Betrieb eines Bildaufnahmesystems mit einem mobilen Endgerät, das eine Bildaufnahmeeinrichtung aufweist. Des Weiteren betrifft die Erfindung ein Bildaufnahmesystem aufweisend ein mobiles Endgerät, das insbesondere dazu eingerichtet ist, das vorstehend genannte Verfahren durchzuführen. Außerdem betrifft die Erfindung ein Computerprogrammprodukt.
  • Bildaufnahmeeinrichtungen bilden meist photographische und/oder kinematographische Systeme, meist als Kamera bezeichnet, zur Erfassung von Einzelbildern bzw. Bewegtbildfolgen. Üblicherweise umfasst ein solches System einen Bildsensor und eine zugeordnete Optik, meist als Objektiv bezeichnet. Letzteres weist regelmäßig ein Linsensystem auf, gebildet aus einer Anzahl von optischen Linsen - d. h. Linsen zur Abbildung von Licht im visuell sichtbaren Spektralbereich (d. h. insbesondere zwischen 380 und 780 Nanometer Wellenlänge). Grundsätzlich sind aber auch Spiegeloptiken oder Kombinationen aus Spiegeln und Linsen möglich sowie bekannt. Der Bildsensor dient zur opto-elektronischen Wandlung des mittels der Optik auf dem Bildsensor abgebildeten Bilds in ein elektronisches Signal.
  • Das Ziel bei der Auslegung und Herstellung von (Kamera-) Optiken, also Objektiven, sowie deren Linsensystemen ist stets, eine Abbildung mit möglichst geringen Abbildungsfehlern zu erzeugen. Zu den Abbildungsfehlern zählen dabei unter anderem Farblängs- und Farbquerfehler, die unter anderem zu unerwünschten Farbsäumen in der Aufnahme führen, sphärische Aberrationen, sogenannte Verzeichnungen, die zu einer tonnen- oder kissenförmigen Verzerrung von Geraden führen, und dergleichen. Aber auch Reflexionen an den quer zur Lichtstrahlrichtung stehenden Linsenflächen führen zu Abbildungsfehlern, die unter anderem als Linsenreflexionen, Blendenflecke, „lens flares“ oder „ghosts“ bezeichnet werden. Derartige Linsenreflexionen werden meist durch vergleichsweise starke Lichtquellen hervorgerufen und häufig als störend empfunden, da diese regelmäßig mit einem Informationsverlust (insbesondere durch Überdeckung von darzustellenden Szenenelementen) einhergehen. Ein weiteres Ziel ist es, die Transmission durch die gesamte Optik (hindurch), d. h. insbesondere durch das Linsensystem hindurch, möglichst hoch zu gestalten, um möglichst wenig Lichtverluste in der Abbildung hinnehmen zu müssen. Dadurch wird die sogenannte „Lichtstärke“ des entsprechenden Objektivs ebenfalls hochgehalten, so dass auch bei vergleichsweise schlechter Belichtung oder Lichtverhältnissen mit geringen Beleuchtungswerten, bspw. bei Nacht, in Räumen ohne zusätzliche Beleuchtung und dergleichen Aufnahmen durchgeführt werden können.
  • Um möglichst hohe Transmissionswerte zu erhalten, aber auch um o. g. Linsenreflexionen (lens flares) zu verringern, muss entsprechend der Anteil des an den optischen Flächen (insbesondere den Grenzflächen der Linsen) reflektierten Lichts gering gehalten werden. Dazu werden bei modernen Objektiven die Linsen „vergütet“, insbesondere mit Beschichtungen versehen, die Reflexion verringern. Bei Linsenflächen, die insbesondere eine Glas-Luft-Grenzfläche bilden, werden dabei üblicherweise Beschichtungen mit mehreren Lagen unterschiedlicher Materialien mit entsprechend unterschiedlichem Brechungsindex eingesetzt. Dadurch werden Reflexionen an diesen Flächen unterbunden oder zumindest weitestgehend reduziert, so dass ein möglichst großer Anteil des einfallenden Lichts auch tatsächlich (insbesondere bis zum Bildsensor der entsprechenden Kamera) transmittiert wird.
  • Andererseits liegt es teilweise auch im Interesse von Nutzern, sichtbare Reflexionen in der Aufnahme zu erhalten, insbesondere wenn es um künstlerische Darstellungen geht, bspw. um Stimmungen besser transportieren, grelles Licht andeuten zu können und dergleichen. Dies steht im Spannungsfeld mit der Lichtstärke, da auch in einem solchen Fall die Transmission möglichst hoch sein soll.
  • Bei herkömmlichen Kamerasystemen kann dies dadurch gelöst werden, dass für Aufnahmen andere Objektive verwendet werden, bspw. indem für eine Aufnahme, in der Linsenreflexionen explizit gewünscht sind, ein weniger stark vergütetes Objektiv zum Einsatz kommt. Mobile Endgeräte, insbesondere Smartphones, drängen allerdings immer mehr auf den Markt und verbessern sich im Bereich der Photographie stetig weiter, sei es durch verbesserte Optiken und/oder durch Bildsensoren mit einer zunehmenden Pixeldichte. Aufgrund der geforderten Kompaktheit in diesem Bereich sind allerdings Wechseloptiken unerwünscht und/oder technisch nicht vorgesehen. Üblicherweise sind die hier zum Einsatz kommenden Optiken somit zur Unterdrückung regelmäßig unerwünschter Effekte eingerichtet.
  • Der Erfindung liegt die Aufgabe zugrunde, auch mit einem mobilen Endgerät künstlerisch ansprechende Aufnahmen erzeugen zu können.
  • Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1. Ferner wird diese Aufgabe erfindungsgemäß gelöst durch ein Bildaufnahmesystem mit den Merkmalen des Anspruchs 14. Außerdem wird diese Aufgabe erfindungsgemäß gelöst durch ein Computerprogrammprodukt mit den Merkmalen des Anspruchs 15. Vorteilhafte und teils für sich erfinderische Ausführungsformen und Weiterentwicklungen der Erfindung sind in den Unteransprüchen und der nachfolgenden Beschreibung dargelegt.
  • Das erfindungsgemäße Verfahren dient zum Betrieb eines Bildaufnahmesystems, das ein mobiles Endgerät (beispielsweise ein Smartphone) aufweist, das wiederum eine Bildaufnahmeeinrichtung aufweist. Die Bildaufnahmeeinrichtung weist dabei vorzugsweise wenigstens einen Bildsensor sowie eine diesem zugeordnete Optik auf. Im Rahmen des erfindungsgemäßen Verfahrens wird zunächst (insbesondere mittels der Bildaufnahmeeinrichtung) wenigstens eine Aufnahme einer Szene erfasst. Diese Aufnahme oder zumindest eine der gegebenenfalls mehreren Aufnahmen wird anschließend auf das Vorhandensein einer Lichtquelle überprüft. Des Weiteren wird - sofern eine Lichtquelle vorhanden ist - eine Position der Lichtquelle relativ zu einem optischen Zentrum ermittelt. Ferner wird für die Lichtquelle eine Form (der Lichtquelle), eine Intensität und/oder eine Farbe ermittelt. Außerdem wird mittels eines auf Abbildungseigenschaften einer vorgegebenen Optik trainierten Algorithmus (insbesondere also einem eine „künstliche Intelligenz“ bildenden Algorithmus, „KI“ oder auch „machine learning algorithm“) unter Nutzung der Position der Lichtquelle ein (insbesondere künstliches) Flare-Bild eines lens flare (auch: Linsenreflexion, „ghost“ oder Blendenfleck) für diese Lichtquelle erzeugt. Dieses Flare-Bild wird (insbesondere anschließend) mit der Aufnahme zu einem Kombinationsbild kombiniert und das Kombinationsbild in einem Speicherbaustein abgelegt (optional zusätzlich auch auf einer Anzeigevorrichtung, insbesondere des mobilen Endgeräts, zur Anzeige gebracht).
  • Unter dem Begriff „optisches Zentrum“ wird hier und im Folgenden insbesondere das Zentrum der Aufnahme oder die optische (Zentrums-) Achse der Optik verstanden. Vorzugsweise fallen beide Merkmale aber faktisch zusammen, d. h. die optische Achse trifft im Zentrum der Aufnahme auf den Bildsensor. Die Position der Lichtquelle gibt dabei vorzugsweise zumindest den Abstand der Lichtquelle (parallel zur Oberfläche des Bildsensors) mittelbar oder unmittelbar zum optischen Zentrum wieder. Bevorzugt wird die Position - im Fall einer rotationssymmetrischen Optik - durch einen Radius und einen zugeordneten Winkel zum optischen Zentrum angegeben. Im Fall einer nicht-rotationssymmetrischen Optik, bspw. da zumindest ein optisches Element (z. B. eine Linse, ein Spiegel oder dergleichen) eine Freiformfläche aufweist und/oder anamorphotisch ausgebildet ist, wird die Position dagegen insbesondere in kartesischen Koordinaten wiedergegeben.
  • Einfach ausgedrückt folgt die Erfindung also dem Ansatz, das Flare-Bild mittels künstlicher Intelligenz (also dem vorstehend genannten trainierten Algorithmus) zu erstellen. Dies hat den Vorteil, dass hierdurch eine vergleichsweise zeitsparende Erstellung des Flare-Bilds ermöglicht wird. Eine üblicherweise aufwendige und zeitintensive Simulation des Flare-Bilds mittels an sich bekannter „ray tracing“ Verfahren kann so vermieden werden. Dies beruht darauf, dass derartige, trainierte Algorithmen nicht auf die Berechnung der konkreten Lösung an sich gerichtet sind, sondern auf die Findung einer Lösung, die entweder aus dem antrainierten Erfahrungsschatz bereits bekannt ist oder sich aus diesem vergleichsweise einfach herleiten lässt. Dies ermöglicht wiederum, ein einen oder mehrere lens flares enthaltendes Bild für grundsätzlich für die Vermeidung solcher Effekte eingerichteten Optiken nahezu in Echtzeit oder mit zumindest geringer Verzögerung erstellen zu können (z. B. innerhalb weniger als 30 Sekunden, was wiederum abhängig von einer Rechenleistung des mobilen Endgeräts, aber dennoch um ein Vielfaches kürzer als bei einer herkömmlichen Berechnung mittels ray tracing ist).
  • Das Betriebsverfahren dient also insbesondere zur Bildbe- oder verarbeitung.
  • Zur Kombination des Flare-Bilds mit der Aufnahme wird das Flare-Bild vorzugsweise über die Aufnahme gelegt, bspw. auf diese addiert, oder mit dieser fusioniert, bspw. mittels sogenannter multi-skalen Fusion.
  • In einer optionalen Verfahrensvariante wird für jede einzelne Lichtquelle gemäß dem hier und im Folgenden beschriebenen Vorgehen ein separates Flare-Bild mit einem zugeordneten lens flare erstellt und mit der Aufnahme kombiniert. Alternativ werden für mehrere Lichtquellen die entsprechenden lens flares in nur einem Flare-Bild erzeugt oder zusammengefasst.
  • In einer besonders zweckmäßigen Verfahrensvariante wird das Flare-Bild vor dessen Kombination mit der Aufnahme gegenüber der Aufnahme ausgerichtet. Insbesondere wird das Flare-Bild hierzu derart rotiert, dass das Flare-Bild, konkret der spezifische lens flare, mit einer theoretischen Position eben dieser lens flare in der Aufnahme zur Deckung gebracht wird. Dies ist insbesondere im Fall einer rotationssymmetrischen Optik vorteilhaft, da hierbei zur Bestimmung (insbesondere der Form oder Ausprägung) des lens flare lediglich deren Abstand zum optischen Zentrum (entspricht regelmäßig dem Rotations-Zentrum der Optik) ausreichend ist. Die hier beschriebene zur Bestimmung des lens flare nachträgliche Rotation des zugeordneten Flare-Bild ermöglicht somit, Rechenzeit bei der Bestimmung des lens flare einzuparen. Grundsätzlich ist es aber auch möglich das „endgültige“ (zur Position der Lichtquelle ausgerichtete) Flare-Bild anhand des Abstands (Radius) und des Winkels zum Zentrum oder anhand von kartesischen Koordinaten zu bestimmen.
  • In einer weiteren zweckmäßigen Verfahrensvariante wird das Flare-Bild vor dessen Kombination mit der Aufnahme mit der (insbesondere ermittelten) Form der Lichtquelle (optional auch einem Intensitätsbild, das deren Form beinhaltet) gefaltet. Dies ist dahingehend vorteilhaft, dass der lens flare im Flare-Bild insbesondere ausgehend von einer punktförmigen Lichtquelle erstellt wird. Durch die Faltung kann der lens flare dann an die Ausdehnung und Form der Lichtquelle (insbesondere angegeben in Pixeln) „angepasst“, vorzugsweise mit einer korrespondierenden Unschärfe versehen („verschmiert“) werden. Dadurch wird ein vergleichsweise realitätsnahes Kombinationsbild ermöglicht. Im Fall der Sonne würde also das Flare-Bild mit einer runden Scheibe gefaltet werden, im Fall eines (insbesondere überstrahlten) Fernsehers mit einem Rechteck. Optional kann hierbei auch die Intensitätsverteilung der Lichtquelle (über deren Form), insbesondere farbaufgelöst, zum Falten mit dem Flare-Bild herangezogen werden. Da aber bereits das (insbesondere vorstehend genannten Intensitäts-) Bild der Lichtquelle hier bereits eine hinreichend hohe Ähnlichkeit aufweist, kann diese Maßnahme auch entfallen, so dass bei Einsparung von Rechenzeit (und/oder Rechenleistung) dennoch subjektiv qualitativ ausreichend hochwertige Ergebnisse erzielt werden können.
  • Um den lens flare an die Farbe der Lichtquelle anzupassen, wird insbesondere im Rahmen der vorstehend beschriebenen Faltung gemäß einer vorteilhaften Verfahrensvariante zumindest ein Farbfilter, der die Farbe und insbesondere auch die Intensität der Lichtquelle enthält, angewendet. Anders ausgedrückt wird ein solches Farbfilter in die Faltung integriert. Die Farbe eines lens flare hängt vom Spektrum der Lichtquelle (sowie insbesondere auch von Antireflexionsbeschichtungen und/oder Materialien der Optik) ab und kann deshalb mit der für die Lichtquelle ermittelten Farbe gewichtet werden. Dies führt vorteilhafterweise zu einer möglichst realitätsnahen Darstellung des lens flare. Hierzu werden insbesondere die Intensitätswerte der jeweiligen Farbkanäle der Aufnahme der Lichtquelle gewichtet bei der Faltung des lens flare mit dem Intensitätsbild der Lichtquelle berücksichtigt. Bspw. wird hierzu ein sogenannter Filterkernel, der abhängig von der Intensitätswert der Farbkanäle gewichtet ist, bei der Faltung eingesetzt.
  • Für eine möglichst hohe Flexibilität - insbesondere auch in künstlerischer Hinsicht - wird als vorgegebene Optik in einer optionalen Verfahrensvariante eine Optik herangezogen, die unterschiedlich zu der Optik für die mit dem Flare-Bild zu kombinierenden Aufnahme (insbesondere also unterschiedlich gegenüber der entsprechenden Optik der Bildaufnahmeeinrichtung) ist. So kann bspw. über eine mit dem mobilen Endgerät (bspw. einem Smartphone oder Tablet) erfasste Aufnahme ein lens flare „gelegt“ werden, der von seiner Ausprägung her bspw. von einem cinematischen oder anderweitigen (bspw. aus dem professionellen Bereich stammenden) Objektiv stammen würde. Dadurch können also Aufnahmen vergleichsweise einfacher Endgeräte mit professionell anmutenden Effekten, hier die lens flares, versehen werden.
  • Bspw. kann die Optik für die Erstellung des lens flare fest vorgegeben sein, bspw. als die vorgenannte cinematische Optik. Zweckmäßigerweise wird einem Nutzer des Bildaufnahmesystems, insbesondere des mobilen Endgeräts, aber (entsprechend vor der Erstellung des lens flares) eine Auswahl an (mehreren) verschiedenen Optiken angeboten, für die der jeweilige lens flare erstellt werden soll. Aus dieser wählt der Nutzer dann die gewünschte Optik als vorgegebene Optik aus. Bspw. umfasst diese Auswahl (insbesondere neben der vorstehend genannten cinematischen, optional auch anderen professionellen Optiken) auch die real eingesetzte Optik, also die für die mit dem Flare-Bild zu kombinierende Aufnahme herangezogene Optik. Der Nutzer kann also in dieser Variante die Optik, für die der lens flare erstellt werden soll, spezifisch vorgeben.
  • Unter „cinematischer“ oder „professioneller“ Optik oder Objektiv werden hier und im Folgenden insbesondere solche Optiken verstanden, die aufgrund ihrer optischen Eigenschaften, Vergütungen und/oder geringen Fertigungstoleranzen üblicherweise nur in der Cinematographie oder professionellen Photographie zum Einsatz kommen (insbesondere da diese für übliche Verbraucher häufig nicht verfügbar oder in einem unrentablen Preisbereich liegen).
  • In einer zweckmäßigen Verfahrensvariante werden vor oder nach der Kombination des Flare-Bilds mit der Aufnahme die Farbkanäle der Aufnahme und/oder bzw. des Kombinationsbilds entsprechend einer Transmissionskurve der vorgegebenen Optik bzw. der Optik der Bildaufnahmeeinrichtung korrigiert. Für den Fall, dass als vorgegebene Optik eine andere Optik als die für die mit dem Flare-Bild zu kombinierende Aufnahme zur Erstellung des lens flare herangezogen wird, wird vorteilhafterweise die Aufnahme an die Transmissionskurve der vorgegebenen Optik angepasst, um die gegebenenfalls unterschiedlichen Farbspektren der aus den unterschiedlichen Optiken hervorgehenden aneinander anzupassen. Für den Fall, dass bspw. als vorgegebene Optik das vorstehend genannte cinematische Objektiv verwendet werden soll, kann so die bspw. mit dem Smartphone erstellte Aufnahme an die Transmissionskurve des cinematischen Objektivs angepasst werden, so dass der Gesamteindruck aus Aufnahme und zugefügtem lens flare hinsichtlich ihrer Spektren „zusammenpassen“. Ebenso kann aber auch die „ursprüngliche“ Aufnahme zunächst anhand der Transmissionskurve der „eigenen“ Optik korrigiert werden, um eventuell aufgetretene Bildfehler zu verringern.
  • In einer bevorzugten Verfahrensvariante wird die Bestimmung der Position, der Form, der Intensität bzw. der Farbe der Lichtquelle mittels Segmentierung der entsprechenden Aufnahme durchgeführt. Vorzugsweise wird auch das Vorhandensein der Lichtquelle an sich mittels Segmentierung überprüft (oder: analysiert).
  • In einer besonders zweckmäßigen Verfahrensvariante wird die Bestimmung zumindest der Intensität (insbesondere der absoluten Intensität) der Lichtquelle, optional aber auch der Position, der Form und/oder der Farbe der Lichtquelle, anhand einer von der mit dem Flare-Bild zu kombinierenden Aufnahme unterschiedlichen, insbesondere mittels eines zusätzlichen Bildsensors mit einer entsprechend zugeordneten zusätzlichen Optik erfassten, Aufnahme („Überblick-Aufnahme“) durchgeführt, die einen höheren dynamischen Umfang als die zu kombinierende Aufnahme aufweist. Anders ausgedrückt werden zumindest zwei Aufnahmen (insbesondere parallel) erstellt, wobei eine der beiden Aufnahmen die eigentliche Bildinformation enthält und die andere Aufnahme als Informationsquelle über die Lichtquelle dient. Für letztere Aufnahme (also die Überblick-Aufnahme) wird insbesondere eine möglichst kleine ISO-Zahl und/oder eine kurze Belichtungszeit verwendet, um einen für die möglichst vollständige Erfassung der Intensität der Lichtquelle erforderlichen Dynamikumfang zu erreichen. Bei herkömmlichen Aufnahmeeinstellungen kommt es nämlich häufig zu sogenanntem clipping (Übersteuern oder Überbelichten einzelner Bildpunkte oder Pixel, d. h. die tatsächliche Intensität übersteigt die mit einem Pixel erfassbare Intensität). Optional kann hierzu auch ein Neutraldichtefilter (oder ein vergleichbares, die Transmission dämpfendes Filter für die zusätzliche Optik zum Einsatz kommen. Dieses Vorgehen ist bei einem das mobile Endgerät bildenden Smartphone von Vorteil, da moderne Smartphones häufig mehrere parallel arbeitende „Kameras“ mit unterschiedlichen Optiken, z. B. Weitwinkel, Tele und dergleichen, aufweisen. Vorzugsweise werden für die Überblick-Aufnahme eine Weitwinkel-Optik sowie ein Bildsensor, der zweckmäßigerweise für entsprechende ISO-Zahlen eingerichtet ist, herangezogen. Solche Kameras sind insbesondere bei Smartphones vorteilhafterwiese auch derart nahe zueinander angeordnet, dass der Versatz der jeweiligen optischen Achsen zueinander vernachlässigbar ist.
  • Vorzugsweise wird für die Überblick-Aufnahme eine Optik (und insbesondere auch ein zugeordneter Bildsensor) herangezogen, die gegenüber der Optik (sowie insbesondere dem zugeordneten Bildsensor) für die mit dem Flare-Bild zu kombinierenden Aufnahme ein größeres Sichtfeld, d. h. ein größeres „field of view“ (FOV) aufweist. Dies wird im Fall des Smartphones bspw. wie vorstehend beschrieben insbesondere durch Einsatz der Kamera mit der Weitwinkel-Optik erreicht. Dadurch wird vorteilhafterweise zusätzlich ermöglicht, auch Lichtquellen, die außerhalb der „eigentlichen“ (d. h. der mit dem Flare-Bild zu kombinierenden) Aufnahme (also außerdem deren Sichtfelds) liegen (aber innerhalb des FOV der zusätzlichen Optik), zu erfassen und zur Erzeugung eines entsprechenden lens flare heranzuziehen.
  • In einer optionalen Verfahrensvariante wird diese Überblick-Aufnahme mittels eines separaten Geräts, bspw. einer von dem mobilen Endgerät separaten Kamera, erstellt. Diese Kamera umfasst in diesem Fall also insbesondere die zusätzliche Optik sowie den zusätzlichen Bildsensor. Entsprechend umfasst das Bildaufnahmesystem hierbei neben dem mobilen Endgerät zweckmäßigerweise auch diese separate Kamera. Zweckmäßigerweise steht die separate Kamera in datenübertragungstechnischer Verbindung mit dem mobilen Endgerät, insbesondere um die Überblick-Aufnahme an das mobile Endgerät übertragen zu können, sowie optional auch, um eine Auslösung der Überblick-Aufnahme von dem mobilen Endgerät aus steuern zu können.
  • In einer alternativen Verfahrensvariante kann alternativ kann aber auch nur ein Bildsensor mit einer zugeordneten Optik zum Einsatz kommen, wenn dieser Bildsensor zur Erfassung von HDR-Aufnahmen (d. h. Aufnahmen mit hohem Dynamikumfang, „high dynamic range“) eingerichtet ist.
  • Weiter alternativ, allerdings mit höherem Aufwand verbunden, kann die Intensität der Lichtquelle aber auch aus der (gegebenenfalls clipping unterworfenen) Aufnahme zumindest grob geschätzt werden, indem ein Halo um eine überbelichtete Lichtquelle in Bezug auf eine Form einer Punktspreizfunktion und auch die aus der Segmentierung ermittelte Form der Lichtquelle ausgewertet werden. Beispielsweise werden dazu als „inverse tonemapping“ bekannte Methoden herangezogen.
  • Um eine möglichst realistische Einstellung des lens flare zu erreichen, wird dessen Intensität zweckmäßigerweise in Abhängigkeit von der für die (entsprechend zugeordneten) Lichtquelle ermittelten Intensität, optional der absoluten Intensität, skaliert, vorzugsweise an diese Intensität angepasst. Unter der „absoluten Intensität“ ist insbesondere die Zahl der vom Bildsensor erfassten Zahl an Photonen (insbesondere im Fall sogenannten photonenzählenden Bildsensoren) zu verstehen.
  • In einer bevorzugten Verfahrensvariante kommt als trainierter Algorithmus insbesondere einer zum Einsatz, der auf ein ray tracing oder ähnliches Modell für die vorgegebene Optik oder auf reale Messungen und/oder Bildaufnahmen mittels der vorgegebenen Optik trainiert wurde. Optional ist der Algorithmus auf mehrere Optiken trainiert, so dass die vorstehend beschriebene nutzerspezifische Auswahl einer bestimmten Optik bspw. einem im Rahmen des Algorithmus berücksichtigten Parametersatz verändert. Alternativ kommt für jede zur Auswahl stehende Optik ein spezifischer, gemäß vorstehenden Ausführungen trainierter Algorithmus zum Einsatz, der bei entsprechender Auswahl eines Objektivs durch den Nutzer „aktiviert“ wird.
  • Vorzugsweise wird für den Algorithmus (oder im Fall mehrerer optional auch für jeden Algorithmus) ein Convolutional Neural Network (kurz: CNN) herangezogen. Alternativ wird ein nicht-linearer Regressionsalgorithmus, ein dictionary learning Algorithmus oder dergleichen herangezogen.
  • Das erfindungsgemäße Bildaufnahmesystem weist das vorstehend beschriebene mobile Endgerät auf, das wiederum wie vorstehend beschrieben die Bildaufnahmeeinrichtung aufweist. Letztere umfasst wiederum den wenigstens einen Bildsensor sowie die entsprechend zugeordnete Optik zur Erfassung der vorstehend genannten Aufnahme der Szene. Das Endgerät weist ferner einen Prozessor auf, der dazu eingerichtet ist, das vorstehend beschriebene Verfahren, insbesondere selbsttätig, durchzuführen.
  • Das Bildaufnahmesystem, insbesondere das mobile Endgerät - vorzugsweise ein Smartphone -, weist mithin ebenfalls die vorstehend beschriebenen körperlichen Merkmale, aber auch die Verfahrens-Merkmale auf. Somit teilen sich das Verfahren und das Endgerät auch die sich aus den Verfahrensschritten bzw. den körperlichen Merkmalen ergebenden Vorteile.
  • Vorzugsweise handelt es sich bei dem Prozessor zumindest im Kern um einen Mikroprozessor mit zugeordnetem Speicher, auf dem eine (insbesondere durch Programmcode gebildete) Softwareapplikation zur Durchführung des vorstehend beschriebenen Verfahrens lauffähig implementiert ist. Das Verfahren wird also bei Ausführung der Softwareapplikation durch den Mikroprozessor durchgeführt. Hier ist ferner von Vorteil, dass moderne Smartphone-Prozessoren häufig bereits zur Ausführung von Algorithmen aus dem Bereich der künstlichen Intelligenz eingerichtet sind.
  • Optional ist das Bildaufnahmesystem insbesondere durch das mobile Endgerät selbst gebildet. Für den vorstehend beschriebenen Fall der separaten Kamera für die Übersichtsaufnahme kann das Bildaufnahmesystem aber zusätzlich auch diese separate Kamera umfassen.
  • Die Erfindung betrifft außerdem ein Computerprogrammprodukt (auch als „Softwareprogramm“ oder „Applikation“, kurz: „App“ bezeichnet), das Befehle aufweist (enthält), die bei der Ausführung des Computerprogrammprodukts auf einem Prozessor des Bildaufnahmesystems, insbesondere auf dem (vorstehend genannten) Prozessor des Endgeräts, dieses veranlassen, das vorstehend beschriebene Verfahren auszuführen.
  • Die Konjunktion „und/oder“ ist hier und im Folgenden insbesondere derart zu verstehen, dass die mittels dieser Konjunktion verknüpften Merkmale sowohl gemeinsam als auch als Alternativen zueinander ausgebildet sein können.
  • Nachfolgend wird ein Ausführungsbeispiele der Erfindung anhand einer Zeichnung näher erläutert. Darin zeigen:
    • 1 in einer schematischen Aufsicht auf eine Rückseite ein mobiles Endgerät,
    • 2 in einer schematischen Darstellung einen Ablauf eines Betriebsverfahrens für das mobile Endgerät, und
    • 3 in einem schematischen Ablaufdiagramm Schritte des Betriebsverfahrens.
  • Einander entsprechende Teile und Größen sind in allen Figuren stets mit gleichen Bezugszeichen versehen.
  • In 1 ist schematisch ein Bildaufnahmesystem aufweisend ein mobiles Endgerät, konkret ein Smartphone 1, mit Blick auf dessen Rückseite dargestellt. Das Smartphone 1 umfasst neben den üblichen Komponenten wie einem Gehäuse 2 und einem Bildschirm an der nicht dargestellten Vorderseite, etc., zumindest eine Bildaufnahmeeinrichtung 4. Diese ist im vorliegend behandelten Ausführungsbeispiel durch drei einzelne Kameras, nämlich eine Hauptkamera 6, eine Weitwinkelkamera 8 und eine Telekamera 10 gebildet. Jede dieser Kameras weist einen nicht näher dargestellten Bildsensor sowie eine Optik 12, 14 bzw. 16 (Objektiv) auf, die im Zusammenspiel mit dem jeweiligen Bildsensor die entsprechende Funktion (z. B. Weitwinkel-Aufnahmen) ermöglicht. Des Weiteren umfasst das Smartphone 1 einen Prozessor 18. Auf einem dem Prozessor 18 zugeordneten Speicher 20 ist ein Softwareprogramm lauffähig installiert, unter dessen Ausführung im Betrieb der Prozessor 18 ein nachfolgend näher beschriebenes Betriebsverfahren durchführt.
  • Die Optiken 12, 14 und 16 des Smartphones 1 sind vergütet, d. h. mit Anti-Reflex-Beschichtungen versehen, damit Reflexionen an den jeweiligen Linsenoberflächen unterbunden oder zumindest verringert werden, um die Transmission einer jeden Optik 12, 14 und 16 möglichst hoch zu halten. Dadurch werden zwar Linsenreflexionen, die auch als lens flares, ghosts, Blendenflecke oder dergleichen bezeichnet werden, unterbunden oder auf ein vernachlässigbares Maß verringert, da diese in vielen Bildaufnahmen als störend empfunden werden. Allerdings sind vor allem für künstlerische Bildaufnahmen solche lens flares wünschenswert, um bestimmte Bildelemente hervorheben oder unterstreichen zu können. Beispielsweise kann eine herkömmliche Kamera den natürlichen Dynamikumfang nicht abbilden, helle Lichtquellen führen zu einer Übersteuerung einzelner Sensorpixel und werden aufgrund von Clipping in ihrem Dynamikumfang verringert. Um künstlerisch die Helligkeit einer Lichtquelle hervorzuheben, wird sich häufig der Wirkung der erwähnten lens flares bedient, da diese eine Art Blendwirkung veranschaulichen können. Bei herkömmlichen Spiegelreflexkameras kann hierzu bspw. ein anderes Objektiv verwendet werden, das nicht oder nur gering vergütet ist. Bei einem Smartphone wie dem dargestellten, ist dies allerdings nicht möglich. Aus diesem Grund ist das Smartphone 1 mittels des Softwareprogramms dazu eingerichtet, lens flares für eine Bildaufnahme künstlich zu erzeugen.
  • Hierzu wird gemäß einem ersten Verfahrensschritt S1 (s. 3) mit der Hauptkamera 6 eine (Haupt-) Aufnahme 30 erfasst. Im vorliegenden Ausführungsbeispiel wird zumindest auch mit einer der anderen Kameras, hier mit der Weitwinkelkamera 8 zeitgleich eine Übersichtsaufnahme (nicht dargestellt) der gleichen Szene und mit gleichen Bildabmessungen wie die Aufnahme 30, jedoch mit möglichst niedriger ISO-Zahl, erfasst, um einen möglichst hohen Dynamikumfang abbilden zu können.
  • Aus der Übersichtsaufnahme wird gemäß einem zweiten Verfahrensschritt S2 mittels Segmentierung eine Position P einer Lichtquelle - in der Aufnahme 30 konkret eines Leuchtkörper 32 einer Laterne 34 - detektiert. Diese Position P wird durch einen Abstand A vom optischen Zentrum Z (hier dem Zentrum der Aufnahme 30 bzw. der Übersichtsaufnahme) sowie einen Winkel W gegenüber einer Horizontalen H beschrieben. Dies gilt für die hier verwendeten rotationssymmetrischen Optiken 12 bzw. 14. Des Weiteren wird im zweiten Verfahrensschritt S2 mittels der Segmentierung auch eine Intensität I, eine Form S und eine Farbe F des Lichts des Leuchtkörpers 32 bestimmt.
  • Auf Basis der Position P des Leuchtkörpers 32 wird in einem dritten Verfahrensschritt S3 ein Flare-Bild 40 mit einem lens flare 42 für diese Lichtquelle erstellt. Hierzu wird ein auf die Abbildungseigenschaften einer vorgegebenen Optik trainierter Algorithmus, im vorliegenden Ausführungsbeispiel konkret ein CNN-Algorithmus verwendet. Die Abbildungseigenschaften der vorgegebenen Optik wurden dem Algorithmus dabei mittels realer Bildaufnahmen mittels dieser vorgegebenen Optik (oder zumindest einer baugleichen Optik) und/oder mittels einer mittels eines ray tracing Verfahrens ermittelten Eigenschaften antrainiert. Im vorliegenden Ausführungsbeispiel wird als vorgegebene Optik bspw. eine cinematische Optik herangezogen. Alternativ - bspw. nutzerspezifisch über ein Menü des Softwareprogramms auswählbar - kann aber auch die Optik 12 der Hauptkamera 6 als vorgegebene Optik zum Einsatz kommen. Im Fall der Auswahlmöglichkeit verschiedener Optiken ist ein jeweils entsprechend trainierter Algorithmus hinterlegt und wird bei entsprechender Auswahl aktiviert. Nach Erstellung des Flare-Bilds 40 wird dieses in Abhängigkeit von dem Winkel W rotiert, so dass eine Längsachse des lens flare 42 der Ausrichtung der Lichtquelle gegenüber dem Zentrum Z entspricht.
  • In einem vierten Verfahrensschritt S4 wird das Flare-Bild 40 mit der Form S der Lichtquelle gefaltet. Dadurch wird der lens flare 42 auf die Ausdehnung und Form S der Lichtquelle angepasst, was sich unter anderem in einer gewissen Schärfereduktion des lens flare 42 äußert. Im Rahmen dieser Faltung wird aber auch ein Farbfilter auf den lens flare 42 angewendet, um die Farben des lens flare 42 an das Spektrum der Lichtquelle anzupassen.
  • In einem nachfolgenden, fünften Verfahrensschritt S5 wird das derart bearbeitete Flare-Bild 40 mit der Aufnahme 30 zu einem Kombinationsbild 44 kombiniert. Dazu wird das Flare-Bild 40 bspw. in einer zugeordneten Bildebene vor die Aufnahme gelegt oder auf die Aufnahme 30 aufaddiert. Das Kombinationsbild 44 wird anschließend in dem Speicher 20 abgelegt sowie auf dem Bildschirm des Smartphones 1 angezeigt.
  • Optional werden die Farbkanäle der Aufnahme 30 vor der Kombination zu dem Kombinationsbild 44 noch an die Transmissionskurve der vorgegebenen Optik angeglichen, damit der lens flare 42 aufgrund seiner Farbgebung nicht als subjektiv unerwartet aus dem Kombinationsbild 44 heraussticht.
  • Der Gegenstand der Erfindung ist nicht auf das vorstehend beschriebene Ausführungsbeispiel beschränkt. Vielmehr können weitere Ausführungsformen der Erfindung von dem Fachmann aus der vorstehenden Beschreibung abgeleitet werden.
  • Der Vorteil des vorstehend beschriebenen Vorgehens liegt unter anderem darin, dass bei bekannter Position der Lichtquelle die übrigen Parameter (insbesondere Farbe der Lichtquelle, Form etc.) zur Beschreibung des lens flare vergleichsweise einfach beschreibbar bzw. ermittelbar sind. Für die Nutzung der KI zur Erstellung des Flare-Bilds reicht somit die Position der Lichtquelle. Alle weiteren Operationen (Rotation, Faltung etc.) sind vergleichsweise einfacher Natur.
  • Bezugszeichenliste
  • 1
    Smartphone
    2
    Gehäuse
    4
    Bildaufnahmeeinrichtung
    6
    Hauptkamera
    8
    Weitwinkelkamera
    10
    Telekamera
    12
    Optik
    14
    Optik
    16
    Optik
    18
    Prozessor
    20
    Speicher
    30
    Hauptaufnahme
    32
    Leuchtkörper
    34
    Laterne
    40
    Flare-Bild
    42
    lens flare
    44
    Kombinationsbild
    S1, S2
    Verfahrensschritt
    P
    Position
    A
    Abstand
    Z
    Zentrum
    W
    Winkel
    H
    Horizontale
    I
    Intensität
    S
    Form
    F
    Farbe
    S3, S4, S5
    Verfahrensschritt

Claims (15)

  1. Verfahren zum Betrieb eines Bildaufnahmesystems, das ein mobiles Endgeräts (1) mit einer Bildaufnahmeeinrichtung (4) aufweist, wobei verfahrensgemäß - wenigstens eine Aufnahme (30) einer Szene erfasst wird, - zumindest eine der gegebenenfalls mehreren Aufnahmen (30) auf das Vorhandensein einer Lichtquelle überprüft wird, - eine Position (P) der Lichtquelle relativ zu einem optischen Zentrum (Z) ermittelt wird, - für die Lichtquelle eine Form (S), eine Intensität (I) und/oder eine Farbe (F) ermittelt wird, - mittels eines auf Abbildungseigenschaften einer vorgegebenen Optik trainierten Algorithmus unter Nutzung der Position (P) der Lichtquelle ein Flare-Bild (40) einer lens flare (42) für diese Lichtquelle und die vorgegebene Optik erzeugt wird, und - das Flare-Bild (40) mit der Aufnahme (30) zu einem Kombinationsbild (44) kombiniert und das Kombinationsbild (44) in einem Speicherbaustein (20) abgelegt wird.
  2. Verfahren nach Anspruch 1, wobei das Flare-Bild (40) vor der Kombination mit der Aufnahme (30) gegenüber der Aufnahme (30) ausgerichtet wird, insbesondere wobei das Flare-Bild (40) derart rotiert wird, dass das Flare-Bild (40) mit einer theoretischen Position der lens flare (42) in der Aufnahme (30) zur Deckung gebracht wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Flare-Bild (40) vor der Kombination mit der Aufnahme (30) mit der Form der Lichtquelle gefaltet wird.
  4. Verfahren nach Anspruch 3, wobei im Rahmen der Faltung zumindest ein Farbfilter, der die Farbe (F) und Intensität (I) der Lichtquelle enthält, angewendet wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei als vorgegebene Optik eine Optik herangezogen wird, die unterschiedlich zu einer Optik (12, 14, 16) der Bildaufnahmeeinrichtung (4) für die mit dem Flare-Bild (40) zu kombinierenden Aufnahme (30) ist.
  6. Verfahren nach Anspruch 5, wobei einem Nutzer des Bildaufnahmesystems eine Mehrzahl an verschiedenen Optiken zur Auswahl der vorgegebenen Optik angeboten wird.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei Farbkanäle der Aufnahme (30) bzw. des Kombinationsbilds (44) entsprechend einer Transmissionskurve der vorgegebenen Optik und/oder der Optik (12, 14, 16) der Bildaufnahmeeinrichtung (4) korrigiert werden.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei die Bestimmung der Position (P), der Form (S), der Intensität (I) bzw. der Farbe (F) der Lichtquelle mittels Segmentierung durchgeführt wird.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei die Bestimmung zumindest der Intensität (I) der Lichtquelle, insbesondere aber auch der Position (P), der Form (S) und/oder der Farbe (F) der Lichtquelle, anhand einer von der mit dem Flare-Bild (40) zu kombinierenden Aufnahme (30) unterschiedlichen Aufnahme durchgeführt wird, die einen höheren dynamischen Umfang als die zu kombinierende Aufnahme (30) aufweist.
  10. Verfahren nach Anspruch 9, wobei die Aufnahme mit dem höheren dynamischen Umfang mittels eines zusätzlichen Bildsensors sowie einer zusätzlichen Optik (12, 14, 16), die von einem Bildsensor und einer Optik (12, 14, 16) zur Erfassung der mit dem Flare-Bild (40) zu kombinierenden Aufnahme (30) separat sind, wobei die zusätzliche Optik (12, 14, 16) diesen gegenüber vorzugsweise ein größeres Sichtfeld aufweist.
  11. Verfahren nach einem der Ansprüche 1 bis 10, wobei eine Flare-Intensität für das Flare-Bild (40) in Abhängigkeit von der, insbesondere absoluten, Intensität (I) der Lichtquelle skaliert wird.
  12. Verfahren nach einem der Ansprüche 1 bis 11, wobei als trainierter Algorithmus ein auf ein ray tracing Modell für die vorgegebene Optik oder auf reale Messungen und/oder Bildaufnahmen mittels der vorgegebenen Optik trainierter Algorithmus herangezogen wird.
  13. Verfahren nach einem der Ansprüche 1 bis 12, wobei als trainierter Algorithmus ein Convolutional Neural Network, ein nicht-linearer Regressionsalgorithmus, ein dictionary learning Algorithmus oder dergleichen herangezogen wird.
  14. Bildaufnahmesystem, aufweisend ein mobiles Endgerät (1) mit einer Bildaufnahmeeinrichtung (4), wobei die Bildaufnahmeeinrichtung (4) wenigstens einen Bildsensor und eine zugeordnete Optik (12, 14, 16) zur Erfassung einer Aufnahme einer Szene umfasst, und wobei das Endgerät (1) einen Prozessor (18) aufweist, der eingerichtet ist, ein Verfahren gemäß einem der Ansprüche 1 bis 13 durchzuführen.
  15. Computerprogrammprodukt, aufweisend Befehle, die bei der Ausführung des Computerprogrammprodukts auf einem auf einem Prozessor (18) des Bildaufnahmesystems, insbesondere auf dem (vorstehend genannten) Prozessor (18) des Endgeräts (1), dieses veranlassen, das Verfahren nach einem der Ansprüche 1 bis 13 auszuführen.
DE102022212679.3A 2022-11-28 2022-11-28 Verfahren zum Betrieb eines Bildaufnahmesystems; Bildaufnahmesystem; Computerprogrammprodukt Pending DE102022212679A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102022212679.3A DE102022212679A1 (de) 2022-11-28 2022-11-28 Verfahren zum Betrieb eines Bildaufnahmesystems; Bildaufnahmesystem; Computerprogrammprodukt
CN202311594792.5A CN118102067A (zh) 2022-11-28 2023-11-27 用于操作图像记录系统的方法、图像记录系统和计算机程序产品
US18/521,321 US20240177346A1 (en) 2022-11-28 2023-11-28 Method for operating an image recording system, image recording system, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022212679.3A DE102022212679A1 (de) 2022-11-28 2022-11-28 Verfahren zum Betrieb eines Bildaufnahmesystems; Bildaufnahmesystem; Computerprogrammprodukt

Publications (1)

Publication Number Publication Date
DE102022212679A1 true DE102022212679A1 (de) 2024-05-29

Family

ID=91026679

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022212679.3A Pending DE102022212679A1 (de) 2022-11-28 2022-11-28 Verfahren zum Betrieb eines Bildaufnahmesystems; Bildaufnahmesystem; Computerprogrammprodukt

Country Status (3)

Country Link
US (1) US20240177346A1 (de)
CN (1) CN118102067A (de)
DE (1) DE102022212679A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180089874A1 (en) 2015-05-22 2018-03-29 Tencent Technology (Shenzhen) Company Limited Image processing method and device
US20220005169A1 (en) 2018-11-29 2022-01-06 Samsung Electronics Co., Ltd. Image processing method and electronic device supporting same
CN114758054A (zh) 2022-02-23 2022-07-15 维沃移动通信有限公司 光斑添加方法、装置、设备及存储介质
US20220375045A1 (en) 2020-09-28 2022-11-24 Google Llc Learning-Based Lens Flare Removal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180089874A1 (en) 2015-05-22 2018-03-29 Tencent Technology (Shenzhen) Company Limited Image processing method and device
US20220005169A1 (en) 2018-11-29 2022-01-06 Samsung Electronics Co., Ltd. Image processing method and electronic device supporting same
US20220375045A1 (en) 2020-09-28 2022-11-24 Google Llc Learning-Based Lens Flare Removal
CN114758054A (zh) 2022-02-23 2022-07-15 维沃移动通信有限公司 光斑添加方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US20240177346A1 (en) 2024-05-30
CN118102067A (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
DE602005003917T2 (de) Verfahren und Vorrichtung zur Erzeugung von Bildern mit hoher Dynamik aus mehreren Belichtungen
DE112006001017B4 (de) Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur
DE102006057955B4 (de) Optisches Abbildungssystem mit Ultraweitwinkel, Ultraweitwinkel-Abbildungslinsenvorrichtung, und Bildabtasteinrichtung
EP3944604B1 (de) Hintergrundwiedergabesystem
DE112018003153T5 (de) Abbildungslinsensystem mit kleinem formfaktor
DE112013004507T5 (de) Bildverarbeitungsvorrichtung, Bilderfassungsvorrichtung, Bildverarbeitungsverfahren, Programm und Aufzeichnungsmedium
DE19651764B4 (de) Superweitwinkel-Varioobjektiv
DE10203359B4 (de) System und Verfahren zur Linsenfilteremulation bei der Digitalphotographie
DE102017126269B4 (de) Vorrichtung und Verfahren zur hinterleuchteten Gesichtserkennung
DE102012201696A1 (de) Bildverarbeitungsvorrichtung, zugehöriges Steuerverfahren, Programm und Aufzeichnungsmedium
DE69714969T2 (de) Verbesserte tiefenschärfe für fotografie
EP3830796A1 (de) Verfahren und datenverarbeitungssystem zur synthese von bildern
DE102014006717A1 (de) Verfahren zur Erzeugung einer dreidimensionalen Information eines Objektes mit einem Digitalmikroskop und Datenverarbeitungsprogramm zur Abarbeitung des Verfahrens
DE102013020611B4 (de) Ein Ansatz für eine Kamerasteuerung
DE102022212679A1 (de) Verfahren zum Betrieb eines Bildaufnahmesystems; Bildaufnahmesystem; Computerprogrammprodukt
DE102020201794A9 (de) Anamorphotisches linsensystem und verfahren zum ausbilden von anamorphotischen linseneinheiten mit unterschiedlichen brennweiten
EP3172612A1 (de) Verfahren zur korrektur von beleuchtungsbedingten abbildungsfehlern in einem modularen digitalmikroskop, digitalmikroskop und datenverarbeitungsprogramm
DE102009027692A1 (de) Bildverarbeitungsverfahren und Bildverarbeitungsvorrichtung sowie Digitalfotografievorrichtung, die Letztere verwendet
DE102021213330A1 (de) Verfahren zum Erfassen und Verarbeiten eines digitalen Panoramabildes
DE102006030273A1 (de) Abbilden optischer Bilder auf einen Bildsensor mittels einer faseroptischen Platte bzw. eines Faserkeils
DE102004010710B4 (de) Verfahren zum Betreiben einer mobilen Einrichtung zur Projektion von Bilddaten sowie mobile Projektoreinrichtung
DE102008043148A1 (de) Steuereinrichtung, Aufnahmeeinrichtung und Verfahren zur Projektion und Bildaufnahme
DE102023002809A1 (de) Verfahren zur Verbesserung der Bildqualität eines Multikamerasystems
DE102006031757A1 (de) Verfahren zur automatischen Korrektur von Bildfehlern in Video-Assist-Bildern eines Video-Assist-Systems
DE102018113281A1 (de) Verfahren zur Bildharmonisierung, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication