DE102012007838A1 - Hochdynamikbereich-Bildaufnahme mit Mehrfachbelichtung - Google Patents
Hochdynamikbereich-Bildaufnahme mit Mehrfachbelichtung Download PDFInfo
- Publication number
- DE102012007838A1 DE102012007838A1 DE102012007838A DE102012007838A DE102012007838A1 DE 102012007838 A1 DE102012007838 A1 DE 102012007838A1 DE 102012007838 A DE102012007838 A DE 102012007838A DE 102012007838 A DE102012007838 A DE 102012007838A DE 102012007838 A1 DE102012007838 A1 DE 102012007838A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- images
- pixel
- luma
- hdr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 114
- 238000012545 processing Methods 0.000 claims abstract description 102
- 230000033001 locomotion Effects 0.000 claims abstract description 67
- 238000002156 mixing Methods 0.000 claims abstract description 52
- 241000023320 Luma <angiosperm> Species 0.000 claims description 126
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims description 124
- 230000008569 process Effects 0.000 claims description 63
- 229920006395 saturated elastomer Polymers 0.000 claims description 20
- 238000012937 correction Methods 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 230000000877 morphologic effect Effects 0.000 claims description 10
- 230000033458 reproduction Effects 0.000 claims description 6
- 230000007423 decrease Effects 0.000 claims description 4
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 abstract description 68
- 238000013459 approach Methods 0.000 abstract description 6
- 238000001514 detection method Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 25
- 238000004422 calculation algorithm Methods 0.000 description 18
- 230000004927 fusion Effects 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 10
- 239000002131 composite material Substances 0.000 description 10
- 230000000670 limiting effect Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 229910003460 diamond Inorganic materials 0.000 description 7
- 239000010432 diamond Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 229920001817 Agar Polymers 0.000 description 2
- 241001523162 Helle Species 0.000 description 2
- 240000006240 Linum usitatissimum Species 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000007664 blowing Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 206010012239 Delusion Diseases 0.000 description 1
- 241000288921 Desmodus Species 0.000 description 1
- 101100453960 Drosophila melanogaster klar gene Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 231100000868 delusion Toxicity 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 101150101567 pat-2 gene Proteins 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/57—Control of the dynamic range
- H04N25/58—Control of the dynamic range involving two or more exposures
- H04N25/587—Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
- H04N25/589—Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
- G09G5/06—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed using colour palettes, e.g. look-up tables
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/741—Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20208—High dynamic range [HDR] image processing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
- QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
- Diese Anmeldung beansprucht die Priorität unter 35 U.S.C. 119(e) der vorläufigen US-Anmeldung mit der Seriennummer 61/326,769 und dem Titel ”Hochdynamikbereich-Bildaufnahme mit Mehrfachbelichtung”, eingereicht am 22. April 2010, und ist eine Continuation-in-part der US-Patentanmeldung mit der Seriennummer 12/763,693 und dem Titel ”Hochdynamikbereich-Bildaufnahme mit Mehrfachbelichtung”, eingereicht am 20. April 2010, die die Priorität der vorläufigen US-Patentanmeldung mit der Seriennummer 61/171,936 und dem Titel ”HDR von Mehrfachbelichtungen” beansprucht, die am 23. April 2009 eingereicht wurde. Alle oben erwähnten Anmeldungen werden ausdrücklich in ihrer Gesamtheit durch Verweis hier einbezogen.
- HINTERGRUND DER ERFINDUNG
- 1. Gebiet der Erfindung
- Diese Anmeldung betrifft die Aufnahme und Verarbeitung von Bildern, die den ganzen Bereich von Grautönen anzeigen, die in einer physikalischen Szene erscheinen, oft als ”Hochdynamikbereich”- oder ”HDR”-Bild bezeichnet. Spezieller betrifft sie ein System und ein Verfahren zur Bildaufnahme und Verarbeitung eines HDR-Bilds in einer digitalen Bildaufnahmevorrichtung wie einer Digitalkamera für Privatanwender.
- 2. Erörterung des Stands der Technik
- Von Digitalkameras aufgenommene Bilder sind meist Niedrigdynamikbereich-Bilder (LDR), bei denen jedes Bildpixel eine begrenzte Anzahl von digitalen Bits pro Farbe aufweist. Die Anzahl von digitalen Bits pro Pixel wird der digitale Pixelbitbreitenwert genannt. Diese Anzahl beträgt üblicherweise 8 Bits. Solche 8-Bit-Pixel können verwendet werden, um ein Bild mit 256 verschiedenen Grautönen für jede Farbe an jeder Pixelstelle zu bilden. In einem LDR-Bild einer Szene werden Schattenfelder der Szene als völlig schwarz (Schwarzsättigung), helle sonnenbestrahlte Felder der Szene als völlig weiß (Weißsättigung) und Szenenfelder dazwischen in einem Bereich von Grautönen gezeigt. Ein Hochdynamikbereich(HDR)-Bild ist ein solches, das digitale Pixelbitbreitenwerte von mehr als 8 Bits hat; 16 Bits pro Pixel ist ein möglicher Wert. Bei einem solchen Bild kann der volle Bereich von Grautönen, die in einer physikalischen Szene erscheinen, angezeigt werden. Diese Grautöne liefern Bilddetails, die in den Schattenzonen, Glanzlicht-Zonen und Mitteltonzonen der Szene vorhanden sind, die im LDR-Bild fehlen. Somit sind in einem HDR-Bild Szenendetails in dunklen Bildfeldern, die sich aufgrund ihrer Nähe zu hohen Gebäuden und unter Bäumen im Schatten befinden, in Lichtfeldern, die direkt von hellem Sonnenlicht beleuchtet werden, sowie in mittleren Beleuchtungsfeldern vorhanden, die zwischen diesen beiden Extremen belichtet werden.
- Ein HDR-Bild kann durch Erfassung einer Vielzahl von LDR-Bildern einer Szene aufgenommen werden, die bei unterschiedlichen Belichtungsstufen aufgenommen werden. Diese mehreren LDR-Bilder werden eine reihenbelichtete Bildserie genannt. Eine niedrige Belichtungsstufe erfasst die Grautöne korrekt in Szenefeldern, die voll von hellem Sonnenlicht beleuchtet werden, und eine hohe Belichtungsstufe erfasst die Grautöne korrekt in Szenefeldern, die durch Gebäude und Bäume vollständig von der Sonne und dem Himmel abgeschirmt sind. Bei der niedrigen Belichtungsstufe sind die Felder der Szene im Schatten aber völlig schwarz, in Schwarzsättigung, und zeigen kein Detail, und die Mitteltonfelder verlieren an Detail. Ferner sind bei der hohen Belichtungsstufe die Glanzlichter der Szene völlig weiß, in Weißsättigung, und zeigen kein Detail, und die Mitteltonfelder verlieren wieder an Detail. So wird oft auch ein drittes Mittelbelichtungsstufenbild aufgenommen, das Mittelstufen-Grautöne korrekt erfasst. Durch Mischen dieser drei LDR-Bilder kann ein HDR-Bild erzeugt werden, das den ganzen Grautonbereich der Szene darstellt.
- Das Ableiten eines HDR-Bilds von einer reihenbelichteten Bildserie erfordert derzeit eine komplexe Implementierung, die eine teure Rechenmaschine verwendet. Dies wird bedingt durch die Notwendigkeit, drei getrennte Verarbeitungsvorgänge, um die reihenbelichtete Bildserie korrekt in ein einziges HDR-Bild zu mischen, und einen vierten durchzuführen, um das resultierende Bild, das nun aus Pixeln mit digitalen Pixelbitbreitenwerten von mehr als 8 Bits pro Farbe besteht, in ein Bild umzuwandeln, das auf gängigen 8-Bit-pro-Pixel-pro-Farbe-Anzeigeeinrichtungen angezeigt werden kann. Diese vier Verarbeitungsvorgänge sind:
”Bildregistrierung” zur akkuraten Ausrichtung der vielen Bilder zueinander;
”Bildmischen” zum Verschmelzen der vielen Bilder mit der richtigen Gewichtung;
”Geisterbild-Entfernung” zum Entfernen ortsverschobener Wiedergaben von Szeneobjekten oder ”Geisterbildern”, die im gemischten HDR-Bild aufgrund der Bewegung dieser Objekte in der Zeit auftreten würden, in der die vielen Bilder aufgenommen wurden; und
”Tone-Mapping” zur Vorbereitung des endgültigen HDR-Bilds zur Präsentation auf üblichen Anzeigeeinrichtungen, die darauf beschränkt sind, 8-Bit-pro-Pixel-pro-Farbe-Bildpixel anzuzeigen. - Die Ausführung dieser vier Verarbeitungsvorgänge erfordert die Durchführung einer großen Anzahl von Gleitkommaoperationen in einem kurzen Zeitraum, wie aus einer Durchsicht des Artikels "High Dynamic Range Imaging Acquisition, Display, and Image-Based Lighting" der Autoren Erik Reinhard, Sumanta Pattanaik, Greg Ward und Paul Debevec, veröffentlicht von Morgan Kaufmann Publishers, Copyright 2005 von Elsevier, Inc. ersichtlich ist. Dies ist insbesondere der Fall bei den Verarbeitungsvorgängen der Bildmischung und Geisterbild-Entfernung. So müssen leistungsstarke und teure Rechenmaschinen (Zentralrechnereinheiten oder CPUs) verwendet werden. Ihre Kosten können möglicherweise bei der Verwendung von professionellen Digitalkameras toleriert werden, aber bei billigen ”Point and Shoot” Digitalkameras, die CPUs mit begrenzter Verarbeitungsleistung umfassen, stellen sie eine unpraktikable Lösung dar.
- Ein HDR-Bild kann aus einer reihenbelichteten Bildserie, die von einer billigen Digitalkamera erfasst wurde, durch Hochladen der Bildserie von der Kamera in einen Universalcomputer, wie einen Personal Computer (PC), erzeugt werden. Eine Bildverarbeitungsanwendung, wie Adobe Photoshop, kann verwendet werden, um den erforderlichen komplexen HDR-Bildkombinationsprozess auf einem Desktop zu kombinieren. Diese Vorgehensweise ist nicht effizient oder geeignet und erfüllt nicht die Anforderungen der Wiederherstellung eines HDR-Bilds auf der eingebauten Anzeige der Kamera kurz nach seiner Aufnahme.
- Es gibt daher einen Bedarf für ein kamerainternes Verfahren und eine solche Vorrichtung, die schnell ein HDR-Bild von einer reihenbelichteten Bildserie erzeugen und es auf der kamerainternen Anzeigeeinrichtung kurz nach der Aufnahme anzeigen kann, unter Verwendung einer CPU mit begrenzter Verarbeitungsleistung.
- KURZFASSUNG DER ERFINDUNG
- Es werden Systeme, Verfahren und Computerprogrammprodukte zur Erzeugung eines zusammengesetzten Hochdynamikbereich-Bilds aus Mehrfachbelichtungen offenbart.
- Ausführungsformen der Erfindung können eine lokale Bewegung zwischen einem Bezugsbild und einer Vielzahl von Vergleichsbildern erfassen, relevante Pixel in Patches clustern, ein Ersatzbild aus einer Vielzahl von Kandidat-Ersatzbildern als eine Quelle für Ersatzpatch-Bilddaten auswählen, Patch-Bilddaten in einem zusammengesetzten Bild ersetzen, und Bilder von einem Ursprungsformat in ein Format mit weniger Bits-pro-Pixel zur Anzeige umwandeln.
- Die Erfindung kann als ein Verfahren zum Mischen einer Vielzahl digitaler Bilder einer Szene ausgeführt werden, einschließlich der Aufnahme der Bilder bei verschiedenen Belichtungsstufen, dem Registrieren von Gegenstückpixeln zu jedem Bild, dem Ableiten einer normierten Bildbelichtungsstufe für jedes Bild, und dem Einsetzen der normierten Bildbelichtungsstufen in einem Bildverschmelzungsprozess. Der Bildverschmelzungsprozess umfasst das Verwenden des Bildverschmelzungsprozesses, um ein erstes ausgewähltes Bild und ein zweites ausgewähltes Bild zu verschmelzen, um ein Zwischenbild zu erzeugen, und wenn die Vielzahl aus zwei Bildern besteht, das Zwischenbild als ein gemischtes Ausgabebild auszugeben. Wenn die Vielzahl aus mehr als zwei Bildern besteht, enthält der Bildverschmelzungsprozess die Wiederholung des Bildverschmelzungsprozesses unter Verwendung des vorher erzeugten Zwischenbilds anstelle des ersten ausgewählten Bilds und eines ferneren ausgewählten Bilds anstelle des zweiten ausgewählten Bilds, bis alle Bilder verschmolzen sind, und die Ausgabe des letzten erzeugten Zwischenbilds als das gemischte Ausgabebild.
- Das Verfahren kann auch eine selektive Umwandlung der Bilder von einem niedrigeren Bits-pro-Pixel-Format zu einem höheren Bits-pro-Pixel-Format vor der Verwendung des Bildverschmelzungsprozesses, und dann die selektive Umwandlung des gemischten Ausgabebilds zu einem vorbestimmten niedrigeren Bits-pro-Pixel-Format umfassen.
- Der Bildverschmelzungsprozess verschmilzt die Gegenstückpixel von zwei Bildern und umfasst die Ableitung eines Luma-Werts für ein Pixel im zweiten ausgewählten Bild, Verwendung des Luma-Werts eines zweiten ausgewählten Bildpixels als ein Index in eine Nachschlagetabelle, um einen Gewichtungswert zwischen den Zahlen Null und Eins zu erhalten, Verwendung des Gewichtungswerts, der normierten Belichtungsstufe des zweiten ausgewählten Bilds und des zweiten ausgewählten Bildpixels, um ein verarbeitetes zweites ausgewähltes Bildpixel zu erzeugen, Auswahl eines ersten ausgewählten Bildpixels, das dem zweiten ausgewählten Bildpixel entspricht, Verwenden des ersten ausgewählten Bildpixels und des Ergebnisses der Subtraktion des Gewichtungswerts von Eins, um ein verarbeitetes erstes ausgewähltes Bildpixel zu erzeugen, Hinzufügen des verarbeiteten ersten ausgewählten Bildpixels zum verarbeiteten zweiten ausgewählten Gegenstückbildpixel, um ein verschmolzenes Bildpixel zu erzeugen, und Wiederholen der obigen Verarbeitungsfolge, bis jedes zweite ausgewählte Bildpixel mit seinem ersten ausgewählten Gegenstückbildpixel verschmolzen ist.
- Das Verfahren kann das Merkmal umfassen, dass der erhaltene Gewichtungswert abnimmt, wenn der als Index in die Nachschlagetabelle verwendete Luma-Wert zunimmt. Das Verfahren kann auch die Verwendung einer unterschiedlichen Nachschlagetabelle für jedes Bild umfassen, um den Gewichtungswert zu erhalten. Das Verfahren kann auch das Bildmischen vor der Aufnahme aller Bilder der Vielzahl beginnen. Das Verfahren kann auch das Bildmischen direkt nach der Aufnahme des zweiten Bilds der Vielzahl beginnen.
- Die Ausführungsformen umfassen ferner ein Verfahren zum Entfernen von ortsverschobenen Wiedergaben von Szeneobjekten, die in einem gemischten Bild erscheinen, das durch einen digitalen Bildmischungsprozess erzeugt wird, der auf eine Vielzahl von Bilder angewendet wird, die bei verschiedenen Belichtungsstufen und zu verschiedenen Zeiten aufgenommen wurden, wobei die Gegenstückpixel der Bilder zueinander registriert sind. Das Verfahren umfasst das Normieren von Luma-Werten der Bilder auf eine spezifische Standardableitung und Mittelwert, das Detektieren einer lokalen Bewegung zwischen mindestens einem Bezugsbild und mindestens einem Vergleichsbild, das Clustern von Vergleichsbildpixeln mit lokaler Bewegung in Patches, die Auswahl entsprechender Patches aus dem Bezugsbild, die Erzeugung eines verbundenen binären Bilds durch logisches Verodern der von bestimmten Bezugsbildern erzeugten Patches zusammen, und das Verschmelzen des gemischten Bilds mit den Bezugsbildern, wobei jedes Bezugsbild durch einen Gewichtungswert gewichtet wird, der vom verbundenen binären Bild berechnet wird, um ein Ausgabebild zu erzeugen.
- Das Verfahren kann eine lokale Bewegung durch Bestimmen einer absoluten Luma-Varianz zwischen jedem Pixel des Bezugsbilds und dem Vergleichsbild, um ein Differenzbild zu erzeugen, und Erkennen von Differenzbildzonen, deren absolute Luma-Varianzen eine Schwelle überschreiten, detektieren. Das Clustern kann das Finden von Sätzen von verbundenen erkannten Bild-Blobs unter Verwendung morphologischer Operationen und das Begrenzen jedes Satzes durch ein Polygon umfassen. Die als Bezugsbilder verwendeten ausgewählten Bilder können das Bild mit der niedrigsten Belichtungsstufe, das Bild mit der höchsten Belichtungsstufe oder beliebige Bilder mit Zwischenbelichtungsstufen umfassen. Der Luma-Wert der zu verarbeitenden Bilder kann vor der Verarbeitung herabgestuft werden.
- Eine Ausführungsform wählt Bezugsbilder für ein Kandidat-Bezugsbild mit Zwischenbelichtungswert, Berechnen einer Summe von Feldern von gesättigten Zonen und ein Verhältnis der Summe von gesättigten Feldern zu Gesamt-Patchfeldern, Auswählen des Kandidat-Bezugsbilds als das Bezugsbild, wenn das Verhältnis geringer als oder gleich einem Parameterwert ist, zum Beispiel 0.03 bis 1, und Auswählen eines Bild von weniger als dem Zwischenbelichtungswert als das Bezugsbild, wenn das Verhältnis größer ist als der Parameterwert.
- Die Erfindung kann auch als eine Bildaufnahmevorrichtung ausgeführt werden, die eine Vielzahl von digitalen Bildern einer Szene bei unterschiedlichen Belichtungsstufen aufnimmt, die einen Bildregistrierungsprozessor, der Gegenstückpixel jedes Bilds der Vielzahl zueinander registriert und einen Bildmischer umfasst, der mehrere Bilder der Vielzahl kombiniert, um ein einziges Bild zu erzeugen. Der Bildmischer kann einen Bildnormierer, der die Bildbelichtungsstufe für jedes Bild normiert, und einen Bildverschmelzer umfassen, der die normierte Belichtungsstufe verwendet, um ein erstes ausgewähltes Bild und ein zweites ausgewähltes Bild zu verschmelzen, um ein Zwischenbild zu erzeugen, und wenn die Vielzahl aus zwei Bildern besteht, das Zwischenbild als ein gemischtes Ausgabebild ausgibt. Wenn die Vielzahl aus mehr als zwei Bildern besteht, kann der Bildverschmelzer wiederholt das vorher erzeugte Zwischenbild anstelle des ersten ausgewählten Bilds und ein ferneres ausgewähltes Bild anstelle des zweiten ausgewählten Bilds verschmelzen, bis alle Bilder verschmolzen sind, und gibt das letzte erzeugte Zwischenbild als das gemischte Ausgabebild aus.
- Die Bildaufnahmevorrichtung kann ferner einen Gammakorrektur-Wandler umfassen, der selektiv die Bilder von einem niedrigeren Bits-pro-Pixel-Format zu einem höheren Bits-pro-Pixel-Format vor einer Bildmischung umwandelt, und selektiv das gemischte Ausgabebild in ein vorbestimmtes niedrigeres Bits-pro-Pixel-Format umwandelt.
- Die Bildaufnahmevorrichtung kann ferner eine Luma-Umwandlungsschaltung, die den Luma-Wert eines eingegebenen Pixels ausgibt, eine Nachschlagetabelle, die einen Gewichtungswert zwischen den Zahlen Null und Eins für einen eingegebenen Luma-Wert ausgibt, eine Verarbeitungsschaltung, die einen abgeleiteten Luma-Wert für ein Pixel in dem zweiten ausgewählten Bild von der Luma-Umwandlungsschaltung aufnimmt, einen Gewichtungswert von der Nachschlagetabelle für den abgeleiteten Luma-Wert erhält, und ein verarbeitetes zweites ausgewähltes Bildpixel von dem zweiten ausgewählten Bildpixel, die normierte Belichtungsstufe des zweiten ausgewählten Bilds und den Gewichtungswerts erzeugt, und eine zweite Verarbeitungsschaltung, die als Eingaben das Ergebnis der Subtraktion des Gewichtungswerts von Eins und das erste ausgewählte Bildpixel entsprechend dem zweiten ausgewählten Bildpixel empfängt, und ein verarbeitetes erstes ausgewähltes Bildpixel erzeugt, und eine Additionsschaltung umfassen, die das verarbeitete erste ausgewählte Bildpixel zum verarbeiteten zweiten ausgewählten Bildpixel addiert, um ein verschmolzenes Bildpixel zu erzeugen.
- Die Bildaufnahmevorrichtung kann einen niedrigeren Gewichtungswert ausgeben, wenn der in die Nachschlagetabelle eingegebene Luma-Wert zunimmt. Sie kann auch eine erste Nachschlagetabelle für das erste ausgewählte Bild und eine zweite Nachschlagetabelle für das zweite ausgewählte Bild verwenden. Die Bildaufnahmevorrichtung kann vor der Aufnahme aller Bilder der Vielzahl damit beginnen, die Vielzahl von Bildern zu mischen. Sie kann direkt nach der Aufnahme des zweiten Bilds der Vielzahl damit beginnen, die Vielzahl von Bildern zu mischen.
- Die Erfindung kann ferner als eine Bildaufnahmevorrichtung ausgeführt werden, die eine Vielzahl von digitalen Bilder einer Szene bei unterschiedlichen Belichtungsstufen und zu unterschiedlichen Zeiten erfasst, die einen Bildregistrierungsprozessor, der die Gegenstückpixel jedes Bilds zueinander registriert, einen Bildmischer, der viele Bilder kombiniert, um ein gemischtes Bild zu erzeugen, und einen Geisterbild-Entferner umfasst. Der Geisterbild-Entferner entfernt ortsverschobene Wiedergaben von Szeneobjekten, die in dem gemischten Bild erscheinen, und kann einen Bildnormierer, der die Bildbelichtungsstufe für jedes Bild auf eine spezifische Standardabweichung und Mittelwert normiert, eine Bezugsbild-Auswahlschaltung, die mindestens ein Bezugsbild aus den Bildern auswählt, eine lokale Bewegungsdetektorschaltung, die eine lokale Bewegung zwischen dem Bezugsbild und mindestens einem Vergleichsbild detektiert, eine Clusterschaltung, die Vergleichsbildpixel mit lokaler Bewegung in Patches clustert und entsprechende Patches aus dem Bezugsbild auswählt, und eine verbundene binäre Bildgeneratorschaltung umfassen, die die von bestimmten Bezugsbildern erzeugten Patches zusammen logisch verodert, wobei der Bildmischer das gemischte Bild mit den Bezugsbildern in einem Endstadium der Verarbeitung mischt, mit jedem Bezugsbild durch einen Gewichtungswert gewichtet, der vom verbundenen binären Bild berechnet wird, um ein Ausgabebild zu erzeugen.
- Die lokale Bewegungsdetektorschaltung kann eine lokale Bewegung durch Bestimmung einer absoluten Luma-Varianz zwischen jedem Pixel des Bezugsbilds und dem Vergleichsbild, um ein Differenzbild zu erzeugen, und durch Identifizieren von Differenzbildzonen detektieren, die absolute Luma-Varianzen haben, die eine Schwelle überschreiten. Die Clusterschaltung kann Vergleichsbildpixel durch Finden von Gruppen von verbundenen Bild-Blobs unter Verwendung morphologischer Operationen und Begrenzen jeder Gruppe durch ein Polygon clustern. Die als Bezugsbilder verwendeten ausgewählten Szenebilder können das Szenebild mit der niedrigsten Belichtungsstufe, das Szenebild mit der höchsten Belichtungsstufe, oder alle Szenebilder mit Zwischenbelichtungsstufen umfassen. Die Bildaufnahmevorrichtung kann auch Schaltungsanordnungen zum Herabstufen der Luma-Werte für die Bilder umfassen. Die Bezugsbild-Auswahlschaltung kann ein Bezugsbild von den Szenebildern für ein Kandidat-Bezugsbild mit Zwischenbelichtungswert durch Berechnen einer Summe von Feldern gesättigter Zonen und eines Verhältnisses der Summe gesättigter Felder zu Gesamt-Patchfeldern, Auswahl des Kandidat-Bezugsbilds als das Bezugsbild, wenn das Verhältnis geringer als oder gleich einem Parameterwert ist, zum Beispiel von 0.03 bis 1, und Auswahl eines Bilds von weniger als einem Zwischenbelichtungswert als das Bezugsbild auswählen, wenn das Verhältnis größer ist als der Parameterwert.
- Eine andere Ausführungsform ist eine Digitalkamera, die eine Vielzahl von digitalen Bildern einer Szene bei unterschiedlichen Belichtungsstufen zu unterschiedlichen Zeiten erfasst und davon ein durch Tone-Mapping bearbeitetes Hochdynamikbereich-Bild erzeugt. Die Kamera kann einen Bildregistrierungsprozessor, der Gegenstückpixel jedes Bilds der Vielzahl zueinander erfasst, einen Bildmischer, der viele Bilder der Vielzahl kombiniert, um ein einziges Bild zu erzeugen, einen Geisterbild-Entferner, der ortsverschobene Wiedergaben von Szeneobjekten entfernt, die in dem gemischten Bild erscheinen, und einen Tone-Mapping-Prozessor umfassen, der die verarbeiteten gemischten Bildpixel mappt, um Pixel mit der Anzahl von digitalen Bits anzuzeigen, die auf einer eingebauten Digitalkamera-Bildanzeige präsentiert werden können.
- Der Bildmischer kann einen Bildnormierer, der die Bildbelichtungsstufe für jedes Bild normiert, und einen Bildverschmelzer umfassen, der die normierte Belichtungsstufe nutzt, um ein erstes ausgewähltes Bild und ein zweites ausgewähltes Bild zu verschmelzen, um ein Zwischenbild zu erzeugen, und wenn die Vielzahl aus zwei Bildern besteht, das Zwischenbild als gemischtes Bild ausgibt. Wenn die Vielzahl aus mehr als zwei Bildern besteht, kann der Bildmischer wiederholt das vorher erzeugte Zwischenbild anstelle des ersten ausgewählten Bilds und ein anderes ausgewähltes Bild anstelle des zweiten ausgewählten Bilds verschmelzen, bis alle Bilder verschmolzen wurden, und gibt das letzte erzeugte Zwischenbild als das gemischte Bild aus.
- Der Geisterbild-Entferner kann einen Bildnormierer, der die Bildbelichtungsstufe für jedes Bild auf eine spezifische Standardabweichung und Mittelwert normiert, eine Bezugsbild-Auswahlschaltung, die mindestens ein Bezugsbild aus den Bildern auswählt, eine lokale Bewegungsdetektorschaltung, die lokale Bewegungen zwischen dem Bezugsbild und mindestens einem Vergleichsbild detektiert, eine Clusterschaltung, die Vergleichsbildpixel mit lokaler Bewegung in Patches clustert und entsprechende Patches aus dem Bezugsbild auswählt, und eine verbundene binäre Bildgeneratorschaltung umfassen, die die von bestimmten Bezugsbildern erzeugten Patches zusammen logisch verodert, wobei der Bildmischer das gemischte Bild mit den Bezugsbildern in einem Verarbeitungs-Endschritt kombiniert, wobei jedes Bezugsbild mit einem Gewichtungswert gewichtet wird, der von dem verbundenen binären Bild berechnet wird, um ein verarbeitetes gemischtes Bild zu erzeugen.
- Die Digitalkamera kann den Bildregistrierungsprozessor, den Bildmischer, den Geisterbild-Entferner und/oder den Tone-Mapping-Prozessor durch die Verwendung mindestens eines programmierbaren Universalprozessors, oder mindestens eines programmierbaren anwendungsspezifischen Prozessors, oder mindestens eines anwendungsspezifischen Prozessors mit festgelegter Funktion implementieren.
- Die Erfindung kann als ein Verfahren zur Erfassung einer lokalen Bewegung zwischen einem Bezugsbild und einer Vielzahl von Vergleichsbildern ausgeführt werden. Das Verfahren kann die Definition einer Anzahl von Luma-Schwellen, die eine Gruppe von Bezugsbild-Luma-Wertbereichen bestimmen, aus denen ein bestimmtes Vergleichsbild ausgewählt wird, wobei die Anzahl der Anzahl von Vergleichsbildern entspricht, und die Definition einer Differenzschwellenfunktion umfassen, die Schwellwerte gemäß Luma-Werten des Bezugsbilds festlegt. Dann kann das Verfahren für jedes bestimmte Vergleichsbild die Erzeugung einer Zwischendetektierungsabbildung, die die lokale Bewegung zwischen dem Bezugsbild und dem bestimmten Vergleichsbild kennzeichnet, durch Anwenden der Schwellwerte auf ein Differenzbild umfassen, das durch Vergleich des Bezugsbilds und des bestimmten Vergleichsbilds gebildet wird. Schließlich kann das Verfahren eine Enddetektierungsabbildung ausgeben, die eine Vereinigung der Zwischendetektierungsabbildungen ist. Das Verfahren kann ein Vergleichsbild mit relativ niedrigerer Luma in relativ höheren Bezugsbild-Luma-Wertbereichen und umgekehrt auswählen. Der Luma-Schwellwert-Satz kann mit Differenzbild-Luma-Werten variieren. Die Zwischendetektierungsabbildung kann durch Berücksichtigung von Pixeln mit Luma-Werten in einem Bereich entsprechend dem bestimmten Vergleichsbild, Berechnen der Standardabweichung und Mittelwert der berücksichtigten Pixel, Normieren der betreffenden Pixel, um die gleiche Standardabweichung und Mittelwert für das Bezugsbild und das bestimmte Vergleichsbild zu haben, Erzeugen einer absoluten Differenzabbildung der berücksichtigten Pixel und Verwenden der Differenzschwellenfunktion an der Differenzabbildung erzeugt werden, um lokale Bewegungsdetektierungen zu erkennen.
- Eine andere Ausführungsform der Erfindung ist ein Verfahren zum Clustern von Pixeln in Patches, das die Anwendung einer morphologischen Dilatationsoperation auf einem binären Bild relevanter Pixel, mit einem 5×5 quadratischen Strukturierungselement zum Beispiel, die Anwendung einer morphologischen Schließoperation au dem binären Bild, mit einem 5×5 quadratischen Strukturierungselement zum Beispiel, die Anwendung eines binären Kennzeichnungsalgorithmus, um verschiedene Patches zu unterscheiden, die Beschreibung jedes Patchs durch ein Grenzpolygon, und die Ausgabe der Patchbeschreibung umfasst. In dieser Ausführungsform können die relevanten Pixel sich erkannte Eigenschaften teilen, die uneinheitliche Luma-Werte von mindestens einem Bildvergleich oder eine erfasste lokale Bewegung umfassen können. Das Grenzpolygon kann ein Achteck sein.
- In einer weiteren Ausführungsform wird ein Verfahren zur Auswahl eines Ersatzbilds aus einer Vielzahl von Kandidat-Ersatzbildern als Quelle für Ersatzpatch-Bilddaten geliefert. Das Verfahren kann die Berechnung eines gewichteten Histogramms von Luma-Werten von Randbereichspixeln eines bestimmten Patches eines Bezugsbilds, die Aufteilung des Histogramms in eine Vielzahl von Zonen gemäß Schwellwerten, die aus relativen Belichtungswerten der Kandidat-Ersatzbilder bestimmt werden, die Berechnung einer Bewertungsfunktion für jede Histogrammzone, die Auswahl der Zone mit der maximalen Bewertung, und die Ausgabe des entsprechenden Kandidat-Ersatzbilds umfassen. Die Histogramm-Gewichtung kann den Einfluss von übersättigten und untersättigten Luma-Werten erhöhen. In dieser Ausführungsform können Kandidat-Ersatzbilder mit relativ niedrigen Belichtungswerten ausgewählt werden, um Patches von Bezugsbildern mit relativ hohen Belichtungswerten zu ersetzen, und umgekehrt. Das Bezugsbild kann ein Bild mittlerer Belichtung mit hochgestuften Luma-Werten sein. Die Bewertungsfunktion für eine bestimmte Histogrammzone kann als das Verhältnis der Anzahl von Pixeln in der bestimmten Histogrammzone unter Berücksichtigung der Größe der bestimmten Histogrammzone zur mittleren Differenz der Histogrammeingaben vom Luma-Wert-Modus für die bestimmte Histogrammzone definiert werden.
- Zusätzlich kann die Erfindung als ein Verfahren zum Ersetzen von Patch-Bilddaten in einem zusammengesetzten Bild ausgeführt werden, das das Glätten eines Patchbild-Grenzpolygons, das Hochstufen der geglätteten Patchbilder auf eine volle Bildauflösung und das Verschmelzen des zusammengesetzten Bilds und des hochgestuften geglätteten Patchbilds umfasst, um ein Ausgabebild zu erzeugen. Das Patchbild-Grenzpolygon kann ein Achteck sein. Das Patchbild-Begrenzungsachteck kann im 8-Bit-Format dargestellt werden, und es wird ein Tiefpassfilter, zum Beispiel 7×7, angewendet.
- Eine weitere Ausführungsform ist ein Verfahren zur Umwandlung von Bildern von einem ursprünglichen Format in ein niedrigeres Bits-pro-Pixel-Format, das die Durchführung eines Tone-Mapping enthält, das an Bild-Luma-Werte anpasst, und die Ausgabe des Tone-Mapping-Bilds aufweist. Das Verfahren kann ferner die Durchführung eines nicht-linearen lokalen Tone-Mappings umfassen, das ein Pixel gemäß der durchschnittlichen Luma-Werte seines Nachbarn in einzelnen Farbkomponenten abbildet, die je von einer vorbestimmten Anzahl von Bits dargestellt werden. Das Verfahren kann ferner zusätzliche Grauskalastufen für häufigere Luma-Werte zuteilen. Bilder können in ein Anzeigeformat umgewandelt werden, das Pixel mit der Anzahl von Bits hat, die auf einer eingebauten Digitalkamera-Bildanzeige präsentiert werden können. Das Verfahren kann auch eine Familie lokaler Mapping-Nachschlagetabellen und eine einzige globale Mapping-Nachschlagetabelle definieren und eine ausgewählte Nachschlagetabelle für jede Bildumwandlungsoperation verwenden, wobei die Auswahl der Nachschlagetabelle auf den Bildszeneneigenschaften basiert. Das Verfahren kann ferner ein Helligkeits-Histogramm eines zusammengesetzten Bilds konstruieren und ein Mapping gemäß der Verteilung von Helligkeitswerten definieren. Das Helligkeits-Histogramm kann unter Verwendung einer Kombination von Histogrammen der herabgestuften Bilder geschätzt werden, die zum Formen des zusammengesetzten Bilds verwendet werden. Ein Histogrammausgleich kann das Mapping definieren.
- Die Erfindung kann als ein System zum Detektieren lokaler Bewegung zwischen einem Bezugsbild und einer Vielzahl von Vergleichsbildern ausgeführt sein. Das System kann einen Prozessor umfassen, der eine Anzahl von Luma-Schwellen definiert, die eine Gruppe von Bezugsbild-Luma-Wertbereichen bestimmen, in der ein bestimmtes Vergleichsbild ausgewählt wird, wobei die Anzahl der Anzahl von Vergleichsbildern entspricht, und eine Differenzschwellenfunktion definiert, die Schwellwerte gemäß Luma-Werten des Bezugsbilds festlegt. Dann kann der Prozessor für jedes bestimmte Vergleichsbild eine Zwischenerfassungsabbildung erzeugen, die lokale Bewegung zwischen dem Bezugsbild und dem bestimmten Vergleichsbild anzeigt, durch Anwenden der Schwellwerte auf ein Differenzbild, das durch Vergleich des Bezugsbilds und des bestimmten Vergleichsbilds gebildet wird. Schließlich kann der Prozessor eine Enddetektierungsabbildung ausgeben, die eine Vereinigung der Zwischendetektierungsabbildungen ist. Das System kann ein Vergleichsbild mit relativ niedrigerer Luma in relativ höheren Bezugsbild-Luma-Wertbereichen auswählen und umgekehrt. Der Luma-Schwellwertsatz kann mit Differenzbild Luma-Werten variieren. Die Zwischendetektierungsabbildung kann durch Berücksichtigen von Pixeln mit Luma-Werten in einem Bereich entsprechend dem bestimmten Vergleichsbild, Berechnen der Standardabweichung und Mittelwert der berücksichtigten Pixel, Normieren der berücksichtigten Pixel, damit sie die gleiche Standardabweichung und Mittelwert für das Bezugsbild und das bestimmte Vergleichsbild haben, Erzeugen einer absoluten Differenzabbildung der berücksichtigten Pixel und Verwendung der Differenzschwellenfunktion an der Differenzabbildung zur Erkennung lokaler Bewegungserfassungen erzeugt werden.
- Eine weitere Ausführungsform der Erfindung ist ein System zum Clustern von Pixeln in Patches, das einen Prozessor umfasst, der eine morphologische Schließoperation auf ein binäres Bild relevanter Pixel anwenden kann, mit einem 5×5 quadratischen Strukturierungselement zum Beispiel, eine morphologische Schließoperation auf das binäre Bild anwenden kann, mit einem 5×5 quadratischen Strukturierungselement zum Beispiel, einen binären Kennzeichnungsalgorithmus anwenden kann, um verschiedene Patches zu unterscheiden, jedes Patch durch ein Grenzpolygon beschreiben kann, und die Patchbeschreibung ausgeben kann. Die relevanten Pixel können sich erkannte Eigenschaften teilen, die uneinheitliche Luma-Werte von mindestens einem Bildvergleich oder eine erfasste lokale Bewegung umfassen können. Das Grenzpolygon kann ein Achteck sein.
- In einer weiteren Ausführungsform wird ein System zur Auswahl eines Ersatzbildes aus einer Vielzahl von Kandidat-Ersatzbildern als eine Quelle für Ersatzpatch-Bilddaten geliefert. Das System kann einen Prozessor umfassen, der ein gewichtetes Histogramm von Luma-Werten von Randfeld-Pixeln eines bestimmten Patchs eines Bezugsbilds berechnet, das Histogramm in eine Vielzahl von Zonen gemäß Schwellwerten aufteilt, die von relativen Belichtungswerten der Kandidat-Ersatzbilder bestimmt werden, eine Bewertungsfunktion für jede Histogrammzone berechnet, die Zone mit der höchsten Bewertung auswählt, und das entsprechende Kandidat-Ersatzbild ausgibt. Die Histogramm-Gewichtung kann den Einfluss von übersättigten und untersättigten Luma-Werten erhöhen. In dieser Ausführungsform können Kandidat-Ersatzbilder relativ niedriger Belichtungswerte ausgewählt werden, um Patches von Bezugsbildern relativ hoher Belichtungswerte zu ersetzen, und umgekehrt. Das Bezugsbild kann ein Bild mit mittlerer Belichtung mit herabgestuften Luma-Werten sein. Die Bewertungsfunktion für eine bestimmte Histogrammzone kann als das Verhältnis der Anzahl von Pixeln in der bestimmten Histogrammzone unter Berücksichtigung der Größe der bestimmten Histogrammzone zu der mittleren Differenz der Histogrammeingaben von dem Luma-Wert-Modus für die bestimmte Histogrammzone definiert sein.
- Zusätzlich kann die Erfindung als ein System zum Ersetzen von Patch-Bilddaten in einem zusammengesetzten Bild ausgeführt werden, das einen Prozessor umfasst, der ein Patchbild-Grenzpolygon glättet, die geglätteten Patchbilder auf eine volle Bildauflösung hochstuft, und das zusammengesetzte Bild und das hochgestufte geglättete Patchbild verschmilzt, um ein Ausgabebild zu erzeugen. Das Patchbild-Grenzpolygon kann ein Achteck sein. Das Patchbild-Grenzachteck kann im 8-Bit-Format dargestellt sein, und es wird ein Tiefpassfilter, zum Beispiel 7×7, angewendet.
- Eine andere Ausführungsform ist ein System zum Umwandeln von Bildern von einem ursprünglichen Format in ein Format mit einer niedrigeren Bits-pro-Pixel-Anzahl, das einen Prozessor umfasst, der eine Tone-Mapping-Verarbeitung durchführt, die sich an Bild-Luma-Werte anpasst und das durch Tone-Mapping verarbeitete Bild ausgibt. Bei dem System kann der Prozessor außerdem ein nicht-lineares lokales Tone-Mapping ausführen, das ein Pixel gemäß der durchschnittlichen Luma-Werte seines Nachbarn in einzelnen Farbkomponenten abbildet, die je durch eine vorbestimmte Anzahl von Bits dargestellt werden. Bei dem System kann der Prozessor ferner zusätzliche Grauskalastufen für häufigere Luma-Werte zuteilen. Das System kann Bilder in ein Anzeigeformat umwandeln, das Pixel mit der Anzahl von Bits hat, die auf einer eingebauten Digitalkamera-Bildanzeige präsentiert werden können. Das System kann auch umfassen, dass der Prozessor eine Familie von lokalen Mapping-Nachschlagetabellen und eine einzige globale Mapping-Nachschlagetabelle definiert, und eine ausgewählte Nachschlagetabelle für jede Bildumwandlungsoperation verwendet, wobei die Nachschlagetabellenauswahl auf den Eigenschaften der Bildszene basiert. Das System kann ferner umfassen, dass der Prozessor ein Helligkeitshistogramm eines zusammengesetzten Bilds konstruiert und ein Mapping gemäß der Verteilung von Helligkeitswerten definiert. Das Helligkeitshistogramm kann durch Verwendung einer Kombination von Histogrammen der herabgestuften Bilder geschätzt werden, die zum Bilden des zusammengesetzten Bilds verwendet werden. Der Histogrammausgleich kann das Mapping definieren.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Die beiliegenden Zeichnungen sollen nicht maßstabsgerecht sein. In den Zeichnungen ist jedes gleiche oder fast gleiche Bauteil, das in verschiedenen Figuren veranschaulicht wird, durch das gleiche Bezugszeichen dargestellt. Aus Gründen der Klarheit ist ggf. nicht jedes Bauteil in jeder Zeichnung gekennzeichnet. In den Zeichnungen zeigen:
-
1 ein Blockdiagramm einer Digitalkamera oder eines anderen Bilderfassungsgeräts, die eine Vielzahl von digitalen Bildern einer Szene bei verschiedenen Belichtungsstufen und zu verschiedenen Zeiten erfasst und diese Bilder auf der in die Kamera eingebauten Bildanzeigeeinrichtung anzeigt; -
2 ein hochgradiges Blockdiagramm von Verarbeitungsmodulen, wie sie in einer Digitalkamera implementiert werden; -
3 ein Blockdiagramm der 2-Bild-Verschmelzungsmaschine gemäß Ausführungsformen der Erfindung; -
4 ein Ablaufdiagramm, das die vollständige Bildmischprozessfolge eines Bildmischer-Verarbeitungsverfahren gemäß Ausführungsformen der Erfindung veranschaulicht; -
4A detailliert den von der 2-Bild-Verschmelzungsmaschine der3 verwendeten Prozess gemäß Ausführungsformen der Erfindung; -
5 ein Blockdiagramm des Geisterbild-Entferner-Verarbeitungsmoduls gemäß Ausführungsformen der Erfindung; -
6 ein Ablaufdiagramm der Verarbeitungsfolge eines Geisterbild-Entferner-Verarbeitungsverfahrens; -
7 ein Foto mit Geisterbildern, die durch die Verwendung von drei Fotos erzeugt werden, die nacheinander gemacht und zusammengesetzt wurden gemäß Ausführungsformen der Erfindung; -
8 das Foto der7 nach dem Entfernen der Geisterbilder gemäß Ausführungsformen der Erfindung; -
9 ein Foto, das eine HDR-Verarbeitung gemäß Ausführungsformen der Erfindung erfordert; -
10 ein Foto mit Kennzeichnungen entsprechend dem Foto der9 gemäß Ausführungsformen der Erfindung; -
11 ein Foto mit einer Patchauswahl entsprechend dem Foto der9 gemäß Ausführungsformen der Erfindung; -
12 eine Darstellung eines Begrenzungskastens für Pixelpatches gemäß Ausführungsformen der Erfindung; -
13 eine Darstellung eines Begrenzungsdiamanten für Pixelpatches gemäß Ausführungsformen der Erfindung; -
14 eine Darstellung eines Begrenzungsachtecks für Pixelpatches gemäß Ausführungsformen der Erfindung; -
15 eine Veranschaulichung des HDR-Prozesses gemäß Ausführungsformen der Erfindung; -
16 eine Veranschaulichung des algorithmischen HDR-Ablaufs gemäß Ausführungsformen der Erfindung; -
17 eine Veranschaulichung des algorithmischen Bildfusionsablaufs gemäß Ausführungsformen der Erfindung; -
18 ein Beispiel einer stückweisen linearen Funktion für eine Gewichtnachschlagtabelle gemäß Ausführungsformen der Erfindung; -
19 eine Veranschaulichung des Geisterbild-Entfernungsablaufs gemäß Ausführungsformen der Erfindung; und -
20 ein Diagramm, das eine beispielhafte Aufteilung des mittleren Bild-Histogramms in drei unterschiedliche Zonen gemäß Ausführungsformen der Erfindung darstellt. - BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
- Die Erfindung wird nun nachfolgend ausführlicher unter Bezug auf die beiliegenden Zeichnungen beschrieben, die einen Teil von ihr bilden und zur Veranschaulichung spezifische Ausführungsformen zeigen, durch die die Erfindung praktiziert werden kann. Die Erfindung kann aber in vielen verschiedenen Formen ausgeführt werden und ist nicht als auf die hier dargelegten Ausführungsformen beschränkt zu verstehen; im Gegenteil, diese Ausführungsformen werden geliefert, damit diese Offenbarung eingehend und vollständig ist, und übermitteln dem Fachmann voll und ganz den Rahmen der Erfindung. Unter anderen kann die Erfindung als Verfahren oder Vorrichtungen ausgeführt werden. Dementsprechend kann die Erfindung die Form einer ganz aus Hardware bestehenden Ausführungsform in Form von Modulen oder Schaltungen und eine ganz aus Software bestehenden Ausführungsform in Form von Software, die auf einem Universalmikroprozessor, einem anwendungsspezifischen Mikroprozessor, einem Digitalsignal-Universalprozessor oder einem anwendungsspezifischen Digitalsignalprozessor ausgeführt wird, oder eine Ausführungsform annehmen, die Software- und Hardware-Aspekte kombiniert. So werden in der folgenden Beschreibung die Begriffe ”Schaltung” und ”Modul” austauschbar verwendet, um ein Verarbeitungselement zu bezeichnen, das eine Operation an einem Eingangssignal ausführt und ein Ausgangssignal davon liefert, unabhängig von der Hardware- oder Softwareform seiner Implementierung. Desgleichen werden die Begriffe ”registrieren”, ”Registrierung”, ”ausrichten” und ”Ausrichtung” austauschbar verwendet, um den Prozess zu bezeichnen, ähnliche Objekte dazu zu bringen, einander zu entsprechen und sie in die richtige Ausrichtung zu bringen, unabhängig davon, ob der zur Herstellung einer solchen Entsprechung verwendete Mechanismus in der Form von Hardware oder Software implementiert wird. Die folgende ausführliche Beschreibung ist daher nicht einschränkend zu verstehen.
- In der Beschreibung und den Ansprüchen nehmen die folgenden Begriffe die ihnen hier explizit zugeordneten Bedeutungen an, wenn der Kontext es nicht klar anders vorgibt. Der Satz ”in einer Ausführungsform”, wie er hier verwendet wird, bezieht sich nicht unbedingt auf die gleiche Ausführungsform, obwohl er es tun kann. Wie hier verwendet, ist der Begriff ”oder” ein inklusiver ”Oder”-Operator und entspricht dem Begriff ”und/oder”, wenn der Kontext es nicht klar anders vorgibt. Der Begriff ”basierend auf” nicht exklusiv und erlaubt das Basieren auf zusätzlichen, nicht beschriebenen Faktoren, wenn der Kontext es nicht klar anders vorgibt. Zusätzlich enthält die Bedeutung von ”ein”, ”und” und ”der/die/das” in der ganzen Beschreibung Plural-Bezüge. Die Bedeutung von ”in” umfasst ”in” und ”auf”. Auch die Verwendung von ”umfassen”, ”aufweisen”, ”haben”, ”beinhalten”, und hiervon umfassene Variationen soll die nachfolgend aufgelisteten Gegenstände und Äquivalente davon sowie zusätzliche Gegenstände umfassen.
-
1 zeigt eine Digitalkamera oder ein anderes Bildaufnahmegerät, die ein optisches Abbildungssystem105 , einen elektronisch gesteuerten Verschluss180 , eine elektronisch gesteuerte Linsenblende185 , einen optischen Bildsensor110 , einen Analogverstärker115 , einen Analog-Digital-Wandler120 , einen Bilddaten-Signalprozessor125 , eine Bilddaten-Speichereinheit130 , eine Bildanzeigeeinrichtung106 und einen Kamera-Controller165 enthält. Die Bilddaten-Speichereinheit könnte eine Speicherkarte oder ein innerer nicht-flüchtiger Speicher sein. Daten von von einer Kamera aufgenommenen Bildern können auf der Bilddaten-Speichereinheit130 gespeichert sein. In diesem Ausführungsbeispiel kann sie auch einen inneren flüchtigen Speicher für eine vorübergehende Bilddatenspeicherung und Zwischenbildverarbeitungsergebnisse umfassen. Dieser flüchtige Speicher kann auf die einzelnen Bilddaten-Verarbeitungsschaltungen verteilt sein und muss nicht architektonisch in einer einzigen Bilddaten-Speichereinheit wie der Bilddaten-Speichereinheit130 angeordnet sein. Das optische System105 kann eine einzelne Linse sein, wie gezeigt, ist aber normalerweise ein Satz von Linsen. Ein Bild190 einer Szene100 wird in sichtbarer optischer Strahlung auf einer zweidimensionalen Fläche eines Bildsensors110 gebildet. Ein elektrischer Ausgang195 des Sensors transportiert ein Analogsignal, das aus dem Abtasten einzelner Photodetektoren der Fläche des Sensors110 resultiert, auf den das Bild190 projiziert wird. Signale proportional zur auf die einzelnen Photodetektoren auftreffenden Lichtstärke werden in dem Ausgang195 erhalten. Das Analogsignal195 wird über einen Verstärker115 an einen Analog-Digital-Wandler120 mittels des Verstärkerausgangs102 angelegt. Der Analog-Digital-Wandler120 erzeugt ein Bilddatensignal vom Analogsignal an seinem Eingang und legt es über den Ausgang155 an den Bilddaten-Signalprozessor125 an. Die Photodetektoren des Sensors110 erfassen typischerweise die Stärke des auf jedes Photodetektorelement auftreffenden Lichts in einer von zwei oder mehr einzelnen Farbkomponenten. Frühere Detektoren detektierten nur zwei getrennte Farben des Bilds. Die Detektierung von Komponenten von drei Primärfarben, wie rot, grün und blau (RGB), ist jetzt üblich. Heute sind Bildsensoren erhältlich, die mehr als drei Farbkomponenten erfassen. - Mehrere Verarbeitungsvorgänge werden an dem Bilddatensignal vom Analog-Digital-Wandler
120 durch den Bilddaten-Signalprozessor125 durchgeführt. Die Verarbeitung des Bilddatensignals in dieser Ausführungsform ist in1 als durch viele Bilddatensignal-Verarbeitungsschaltungen im Bilddaten-Signalprozessor125 durchgeführt gezeigt. Diese Schaltungen können aber durch einen einzigen IC-Bilddaten-Signalprozessorchip implementiert werden, der einen Universalprozessor, der durch gespeicherte Firmware definierte algorithmische Operationen ausführt, viele Universalprozessoren, die durch gespeicherte Firmware definierte algorithmische Operationen ausführen, oder dedizierte Verarbeitungslogik-Schaltungen wie gezeigt umfassen kann. Zusätzlich können diese Operationen von mehreren miteinander verbundenen IC-Chips implementiert werden, aber ein einzelner Chip wird bevorzugt.1 stellt die Verwendung von in Reihe geschalteten Bilddatensignal-Verarbeitungsschaltungen135 ,140 ,145 und150 dar, um viele algorithmische Verarbeitungsvorgänge an dem Bilddatensignal vom Analog-Digital-Wandler120 auszuführen. Das Ergebnis dieser Vorgänge sind gespeicherte nicht-flüchtige digitale Bilddaten, die entweder auf der internen Bildanzeigeeinrichtung106 der Digitalkamera in1 oder einer externen Anzeigeeinrichtung angesehen werden können. Dieses Ansehen kann entweder durch das physikalische Entfernen einer Speicherkarte aus der Digitalkamera und das Wiedereinführen in eine externe Anzeigeeinrichtung, oder die elektronische Kommunikation der Digitalkamera mit einer externen Anzeigeeinrichtung durch die Nutzung einer Universal-Serial-Bus(USB)-Verbindung oder eines drahtlosen lokalen Wi-Fi- oder Bluetooth-Netzwerks durchgeführt werden. - Zusätzliche Verarbeitungsschaltungen, wie sie durch die Punkte
175 zwischen den Schaltungen145 und150 gezeigt sind, können in dem Bilddaten-Signalprozessor der Digitalkamera umfasst sein. Die Serienstruktur des Bilddaten-Signalprozessors der Ausführungsform ist als eine ”Pipeline”-Architektur bekannt. Diese architektonische Konfiguration wird als das Ausführungsbeispiel der Erfindung verwendet, es können aber andere Architekturen verwendet werden. Zum Beispiel kann ein Bilddaten-Signalprozessor mit einer ”parallelen Architektur”, bei der eine oder mehrere Bilddatensignal-Verarbeitungsschaltungen angeordnet sind, um verarbeitete Bilddatensignale von einer Vielzahl von Bilddatensignal-Verarbeitungsschaltungen zu empfangen, statt nachdem sie seriell von allen vorhergehenden Bilddatensignal-Verarbeitungsschaltungen verarbeitet wurden, verwendet werden. Eine Kombination einer teils parallelen und teils Pipeline-Architektur ist auch eine Möglichkeit. - Die Serie von Bilddatensignal-Verarbeitungsschaltungen des Bilddatenprozessors
125 wird eine ”Bildverarbeitungs-Pipeline” genannt. Ausführungsformen fügen Bilddatensignal-Verarbeitungsschaltungen, die in2 gezeigt sind, zu denjenigen hinzu, die routinemäßig in der Bildverarbeitungs-Pipeline einer Digitalkamera umfasst sind. Bilddatensignal-Verarbeitungsschaltungen, die routinemäßig in der Bildverarbeitungs-Pipeline einer Digitalkamera umfasst sind, umfassen Schaltungen zur Weißabgleichkorrektur (WBC), Linsenabschattungskorrektur (LSC), Gammakorrektur (GC), Farbumwandlungen (CTM), Dynamikbereich-Kompression (DRC), Demosaicing, Rauschunterdrückung (NR), Kantenschärfung (EE), Skalieren und Linsenverzerrungskorrektur (LDC). Wie in2 dargestellt, fügen Ausführungsformen eine Bildregistrierungsprozessor(IRP)-Schaltung210 , eine Bildmischer(IM)-Schaltung220 , eine Geisterbild-Entferner(GR)-Schaltung230 , und eine Tone-Mapping-Prozessor(TMP)-Schaltung235 zum oben erörterten Komplement von Bilddatensignal-Verarbeitungsschaltungen hinzu. Der Bildspeicher200 der2 speichert die digitalen Daten einer Serie von zwei oder mehr Bildern einer Szene, wobei jedes Serienbild aus digitalen Bits umfassenden Pixeln besteht, wobei diese digitalen Bits von den Bilddatensignal-Verarbeitungsschaltungen in der Bildverarbeitungs-Pipeline verarbeitet wurden. Der Bildspeicher200 könnte den Speicher mit dem Bildspeicher130 der1 teilen, Speicherressourcen, die für eine vorübergehende Bilddatenspeicherung und Zwischenbild-Verarbeitungsergebnisse verwendet werden, oder ganz getrennte flüchtige oder nicht-flüchtige Speicherressourcen könnten aber die vom Bildspeicher200 verwendeten Speicherressourcen liefern. - Unter Bezug auf
1 veranlasst der Kamera-Controller165 über die Leitung145 und die Steuer-/Statusleitungen160 den elektronischen Verschluss180 , die elektronische Blende185 , den Bildsensor110 , den Analogverstärker115 , und den Analog-Digital-Wandler120 , eine Serie von Bildern einer Szene aufzunehmen und in digitale Bilddaten umzuwandeln. Diese Bilder werden bei verschiedenen Belichtungsstufen erfasst, von Bilddatensignal-Verarbeitungsschaltungen verarbeitet und im Bildspeicher200 der2 gespeichert. Der Bildregistrierungsprozessor210 liest die digitalen Bilddaten der Bildserie, die im Bildspeicher200 gespeichert sind, und registriert Gegenstückpixel jedes Bilds der Bildserie zueinander, wobei ein Bild (allgemein das Bild mit der mittleren Belichtungszeit) als ein Bezugsbild dient. Die Bildregistrierung wird vor dem Bildmischen ausgeführt, um alle Serienbilder Pixel für Pixel auszurichten. Aufgrund einer Kamerabewegung, die während der Aufnahme einer Bildserie auftritt, ist eine solche Ausrichtung für den Bildmischer220 der2 notwendig, damit er Serienbildpixel korrekt kombinieren und ein Bild mit dem vollen Bereich von Grautönen der erfassten Szene bilden kann. Ein solches Bild wird oft als ein ”High Dynamic Range” (Hochdynamikbereich-) oder ”HDR”-Bild bezeichnet. Im Bildmischer220 wird jedes Serienbildpixel jedes aufgenommenen Serienbilds mit seinem Gegenstückpixel in jedem aufgenommenen Serienbild kombiniert. So wird ein Bildpixel, das eine bestimmte Stellung an der Kante oder innerhalb des Körpers eines Objekts darstellt, das in einem ersten Serienbild erscheint, mit seinem an der gleichen Stelle an der Kante oder innerhalb des Körpers des gleichen Objekts befindlichen Gegenstück gemischt, das in einem zweiten Serienbild erscheint. In diesem Zusammenhang bezieht sich der Standort eines Pixels in einem Bild auf das Objekt, von dem es ein Teil ist, nicht auf das festgelegte Koordinatensystem, das von den senkrechten und waagrechten Außenkanten des Bilds definiert wird. - Der Bildregistrierungsprozessor
210 verwendet im Allgemeinen ein erstes Bild, das mit einer Nennbelichtungseinstellung der Kamera erfasst wird, als ein Bezugsbild, auf das alle anderen Bilder der Serie ausgerichtet werden. Eine Anzahl von Techniken werden derzeit für die Bildausrichtung und -registrierung verwendet. Ein gutes Beispiel wird in "High Dynamic Range Video" von S. B. Kang, M. Uyttendaele, S. Winder und R. Szeliski, Interactive Visual Media Group, Microsoft Research, Redmond, WA, 2003, beschrieben. - Die beschriebene Vorgehensweise behandelt sowohl die Kamerabewegung als auch die Objektbewegung in einer Szene. Für jedes Pixel wird ein Bewegungsvektor zwischen aufeinanderfolgenden Serienbildern berechnet. Dieser Bewegungsvektor wird dann mit zusätzlichen Techniken verfeinert, wie hierarchische Homographie, um Entartungsfälle zu behandeln. Wenn die Bewegung jedes Pixels bestimmt ist, können Rahmen verzogen und mit dem gewählten Bezugsbild registriert werden. Die Bilder können dann vom Bildmischer
220 in ein HDR-Bild gemischt werden. - Es ist anzumerken, dass aus praktischer Sicht in der vorliegenden Anmeldung Bewegungsvektoren von N×M Blöcken abgeleitet werden anstelle von Bewegungsvektoren für jedes Pixel. Zusätzlich wird, sobald die Bewegungsvektoren gegeben sind, eine allgemeine Umwandlung [x' y'] = f(x, y) abgeleitet, wobei x' und y' die neuen Standorte eines gegebenen Punkts {x, y} sind.
- Der Bildmischprozess
- Der Bildmischer
220 hat die Fähigkeit, eine unbegrenzte Anzahl von Bildern zu mischen, verwendet aber eine Bildverschmelzungsmaschine, die die Pixel von zwei Bildern zugleich mischt. Die 2-Bildverschmelzungsmaschine des Mischers220 ist in3 gezeigt. In einer Ausführungsform der Erfindung verschmilzt die Verschmelzungsmaschine die Pixel eines ersten 8-Bit-Bilds, dessen digitale Bilddaten auf der Eingangsleitung300 erscheinen, und die Pixel eines zweiten 8-Bit-Bilds, dessen digitale Bilddaten auf der Eingangsleitung305 erscheinen. Bilder mit Bitbreiten, die größer sind als 8 Bits, zum Beispiel 10 Bits, oder schmaler, zum Beispiel 7 Bits, können verwendet werden. Das Ablaufdiagramm der4 veranschaulicht den vollständigen Bildmischprozess des Bildmischers220 , und4A zeigt im Einzelnen den Block420 der4 , den von der 2-Bildverschmelzungsmaschine der3 verwendeten Prozess. - Unter Bezug auf
3 verschmilzt der Bildmischprozess zwei Bilder während jeder Bildmischoperation. Die ersten zwei zu verschmelzenden Bilder werden beide von der erfassten Bildserie genommen, wobei jedes Bild der erfassten Bildserie vorher mit einem Bezugsbild registriert wurde, das mit einer Nennbelichtungseinstellung der Kamera aufgenommen wurde. Für die anfängliche Bildmischoperation liefert das Serienbild mit einer niedrigeren Belichtungsstufe den digitalen Erstes-Bild-Bilddateneingang, der auf der Leitung300 der3 erscheint, und das Serienbild mit einer höheren Belichtungsstufe liefert den digitalen Zweites-Bild-Bilddateneingang, der auf der Leitung305 erscheint. Für eine zweite und alle folgenden Bildmischoperationen wird ein folgendes Bild der Serie mit dem Ergebnis verschmolzen, das von einer vorhergehenden Bildmischoperation erhalten wird. Für diese nachfolgenden Mischoperationen dienen die digitalen Bilddaten eines folgenden Bilds der Serie als der digitale Zweites-Bild-Bilddateneingang, der auf305 erscheint, und das digitale Mischbild-Bilddatenergebnis dient als der digitale Erstes Bild-Bilddateneingang, der auf der Leitung300 der3 erscheint. In allen Fällen wurde das folgende Bild der Serie mit einer höheren Belichtungsstufe belichtet als sein direkter Vorgänger in der Bildserie. - Die digitalen Zweites-Bild-Bilddaten auf der Leitung
305 werden anfangs auf zwei Arten verarbeitet. (1) Die Luma-Umwandlungsschaltung320 extrahiert die Luma, die Schwarz-Weiß-Komponente der kombinierten Rot-, Grün- und Blau(RGB)-Komponentendaten, die die digitalen Zweites Bild-Bilddaten305 umfassen, und gibt die Luma-Komponente jedes Bilddatenpixels auf der Leitung325 aus. (2) Der Bildnormierer310 normiert die Belichtungsstufe jeder RGB-Komponente der Zweites-Bild-Bilddaten auf der Leitung305 auf die Belichtungsstufe eines Bezugsbilds, und gibt auf der Leitung302 jedes Bilddatenpixel, für jede Farbkomponente, normiert auf die Bezugs-Bildbelichtungsstufe aus. Es ist anzumerken, dass das verwendete Bezugsbild nicht unbedingt das gleiche Bezugsbild ist, das für den vorher beschriebenen Registrierungsprozess verwendet wird. Für eine Ausführungsform der Erfindung dient die Belichtungsstufe des dunkelsten Bilds der Serie, d. h. des Bilds, das am wenigsten belichtet wird, als die Bezugsbelichtungsstufe, und alle anderen Bilder der Serie werden darauf normiert. Wenn zum Beispiel die erfasste Bildserie aus drei Bildern besteht, einem dunklen Bild, das 1/64 s lang belichtet wird, einem mittleren Bild, das 1/16 s belichtet wird, und einem hellen Bild, das 1/2 s belichtet wird, wäre der normierte Wert jedes Pixels des auf der Leitung302 erscheinenden mittleren Bilds:Mittlerer PixelwertNormiert = Mittlerer PixelwertEingang/((1/16)1(1164)) = Mittlerer PixelwertEingang/4; (1) 302 erscheinenden hellen Bilds wäre:Heller PixelwertNormiert = Heller PixelwertEingang/((1/2)/(1/64)) = Heller PixelwertEingang/32 (2) - Daher gilt für diese Ausführungsform der Erfindung:
BelichtungsstufeNormiert = BelichtungsstufeSerienbild/Belichtungsstufeam wenigsten belichtetes Serienbild (3) 305 und Ausgangs auf der Leitung302 ist:Zweites Bild-PixelwertNormiert = Zweites Bild-PixelwertEingang/Zweites Bild-BelichtungsstufeNormiert (4) - Die Luma-Komponente jedes digitalen Zweites-Bild-Bilddatenpixels, das auf der Leitung
325 der3 erscheint, wird in die Nachschlagetabelle (LUT)315 eingegeben, um einen Pro-Pixel-Gewichtungsparameter, Wi, auf den Leitungen330 und335 zu erhalten. Die Luma-Komponente jedes digitalen Zweites-Bild-Pixels dient als ein Index in die LUT315 und verursacht, dass ein Gewichtungsparameterwert Wi zwischen den Zahlen Null und Eins auf den Leitungen330 und335 für jeden eingegebenen Luma-Wert ausgegeben wird. Dieser Wert wird in Form einer zweidimensionalen Matrix ausgegeben, in der gilt:W(m, n) = 255 – Luma(m, n); (5) - Luma(m, n) ist die Luma-Komponente jedes digitalen Zweites-Bild-Datenpixels an den Bildkoordinaten (m, n), die für diese Ausführungsform der Erfindung einen maximalen Wert von 255 erreichen kann, da die Ausführungsform die Pixel von 8-Bit-Serienbildern verschmilzt, und 255 = Eins, was den 100%-Ausgangswert der Tabelle
315 darstellt. Zweites-Bild-Pixelwerte, die als Indices in die LUT315 dienen, sind digitale 8-Bit-Werte mit einem Zahlenbereich von 0 bis 255. Daher ermöglicht die Definition von 255 als Eins eine direkte Abbildung vom Eingangsindexwert zum Ausgangsgewichtungsparameterwert und reduziert die Gewichtungsparameteranwendung-Berechnungsarbeitslast. Es können andere Werte von Eins gewählt werden. Wenn zum Beispiel die Zweites-Bild-Pixelwerte der Luma-Komponente, die als Indices in die LUT315 dienen, digitale 10-Bit-Werte sind, mit einem Zahlenbereich von 0 bis 1023, wäre es angebracht und günstig, Eins den Wert von 1023 zuzuweisen. - Für diese Ausführungsform nimmt der Gewichtungsparameterwertausgang von der LUT
315 linear ab, wenn der Zweites-Bild-Pixelwert der Luma-Komponente, der als Index in die LUT315 dient, zunimmt. Andere LUT-Funktionen, zum Beispiel trapezförmige Funktionen, bei denen der von der LUT315 erhaltene Gewichtungsparameterwert auf einem vorbestimmten Wert bleibt und linear abzunehmen beginnt, wenn der Zweites Bild-Pixelwertindex der Luma-Komponente unter eine Schwelle abnimmt, können auch verwendet werden. Die Wahl der Funktionen der LUT315 basiert auf der Beobachtung, dass, wenn zwei Bilder gemischt werden, eines, das hoch gesättigt ist aufgrund der Belichtung bei einer hohen Belichtungsstufe, vielleicht mit einer langen Belichtungszeit, und das andere dunkel, aufgrund der Belichtung bei einer niedrigeren Belichtungsstufe, vielleicht mit einer kurzen Belichtungszeit, es wünschenswert ist, ein niedriges Gewicht auf die hoch gesättigten Pixel des Bilds mit der hohen Belichtungsstufe anzuwenden, während ein hohes Gewicht auf die Gegenstückpixel des Bilds mit der niedrigen Belichtungsstufe angewendet wird. Dies führt zu einem Mischbild mit weniger hoch gesättigten Pixeln, da viele möglicherweise durch korrekt belichtete Gegenstückpixel ersetzt wurden. Das Ergebnis ist ein Mischbild mit größerem Detail in seinen Glanzlicht-Bereichen, während zur Schattenzone gehörende Pixel hauptsächlich vom Bild mit höherer Belichtung genommen werden. - Die Ausführungsformen sind nicht auf die Verwendung einer einzigen LUT
315 beschränkt. Es kann eine Vielzahl von LUTs verwendet werden. In diesem Fall kann jedem Serienbild eine andere LUT zugeordnet werden, um den Gewichtungswert zu erhalten, oder zwei oder mehr Serienbilder können der gleichen LUT von einer Vielzahl von gelieferten LUTs zugeordnet werden. Diese LUTs können zum Beispiel mit Gewichtsparameterwerten besetzt sein, die auf Serienbild-Belichtungsstufen reagieren. - In der vorliegenden Anmeldung wird eine Verbesserung in bestimmten Ausführungsformen bereitgestellt, die in der Stammanmeldung nicht zur Verfügung stehen. Die Bildsensoren sind typischerweise von mindestens einer 12-Bit-Auflösung, während derzeitige Anzeigeeinrichtungen nur eine 8-Bit-Auflösung haben, also wird eine nicht-lineare Gamma-Operation auf Original-Pixel während der Aufnahme angewendet, um den Bereich auf 8 Bits für die Anzeigeeinrichtung zu begrenzen. Daher wird bei bestimmten in der vorliegenden Anmeldung gelieferten Ausführungsformen das Verschmelzen vorzugsweise an einer ”gammakorrigierten Version” von zwei eingegebenen Bildern Im1 und Im2 ausgeführt, wobei die Gamma-Korrektur-Operation eine LUT ist, die die RGB-Bildpixel von 8 Bits (d. h. dem nicht-linearen Bereich) zu 16 Bits (d. h. dem linearen Bereich) zurück bewegt, daher gilt:
Verschmolzenes_Bild = Gammakorrektur(Im1) × (I – W) + Gammakorrektur(Im2) × W (6) - Da die Belichtung im linearen Bereich stattfindet, sollte die Normierung auf die Belichtungszeit außerdem auch in diesem Bereich stattfinden.
- Bevorzugte Ausführungsformen der vorliegenden Erfindung können durch kleinere Veränderungen an den in der Stammanmeldung beschriebenen Ausführungsformen implementiert werden, wie nun beschrieben wird. Unter Bezug auf die Implementierung der Stammanmeldung, die zum Beispiel als
3 dieser Anmeldung gezeigt ist, werden nun Gammakorrektur-Funktionsblöcke301 und302 vorher zum Bildnormierer hinzugefügt, wie in3 der vorliegenden Anmeldung gezeigt ist. Diese Blöcke können selektiv durch Flags aktiviert werden, z. B. DG_FLAG und DG_FLAG2. Auch wird bei der ersten Ausführung des oben beschriebenen iterativen Prozesses die erste Bilddateneingabe (300 ) in den Gammakorrektur-Bereich (d. h. linear) umgewandelt. Bei den nächsten Iterationen, die eine 2-Bildverschmelzungsmaschine verwenden, ist es nicht notwendig, eine Gammakorrektur am Ersten Bild anzuwenden, wenn die verschmolzene Ausgabe von einer vorhergehenden Stufe verwendet wird und sich bereits im Gammakorrektur-Bereich befindet. Desgleichen kann die Implementierung der4A der Stammanmeldung gemäß bevorzugten Ausführungsformen der vorliegenden Erfindung durch Hinzufügen einer zusätzlichen Pixel-Gammakorrektur-Funktion am normierten Pixel (Block429 ) verändert werden. Dieser Block kann auch durch ein externes Flag selektiv aktiviert/deaktiviert werden. Desgleichen, wenn Ausführungsformen der vorliegenden Erfindung Bilder an die Eingänge500 und505 der in5 gezeigten Schaltungsanordnung übertragen, können diese Bilder auch verarbeitet werden, um sich im Gammakorrektur-Bereich zu befinden, falls erforderlich. - Während der Verschmelzungsoperation wird der Gewichtungsparameter, auf einer Pixel für Pixel Basis, auf jede Farbkomponente der normierten digitalen Zweites Bild-Bilddaten, die auf der Leitung
302 erscheinen, angewendet, und 1 minus der Gewichtungsparameter z. B. (1 – Wi) wird auf jede Farbkomponente der digitalen Erstes Bild-Bilddaten angewendet, die auf der Leitung300 erscheinen. Die Pixel-für-Pixel-Verschmelzungsoperation wird durch die folgende Gleichung definiert:Verschmolzenes Bilddatenpixel = (I – Wi) × (1. Bilddatenpixel) + Wi × (Normiertes 2. Bilddatenpixel) (7) - Die Verarbeitungsblöcke der
3 führen die Gleichung (7) wie folgt aus: Die Luma der Zweites-Bild-Daten auf der Leitung305 wird durch die Luma-Umwandlungsschaltung320 abgeleitet und von der LUT315 verwendet, um den Gewichtungsparameter Wi auf den Leitungen330 und335 zu erzeugen. Der Multiplikator307 multipliziert die normierten digitalen Zweites-Bild-Bilddaten, normiert vom Bildnormierer310 , mit Wi auf der Leitung330 und gibt das Ergebnis auf der Leitung355 aus. Wi wird auch auf den Datensubtrahierer340 durch die Leitung335 angewendet, die (1 – Wi) auf der Leitung345 ausgibt. Digitale Erstes-Bild-Bilddaten auf der Leitung300 werden mit (1 – Wi) auf der Leitung345 vom Multiplikator350 multipliziert und das Ergebnis auf der Leitung365 ausgegeben. Die normierten und gewichteten digitalen Zweites-Bild-Bilddaten auf der Leitung355 werden zu den gewichteten digitalen Erstes Bild-Bilddaten auf der Leitung365 vom Addierer360 hinzugefügt. Der Addierer360 gibt verschmolzene Bildpixel auf der Leitung370 aus. Diese Pixel werden im Bildspeicher375 gespeichert und als verschmolzene 2-Bild-Bilddaten auf der Leitung380 ausgegeben. - Der von der 2-Bild-Verschmelzungsmaschine der
3 verwendete Pixelverschmelzungsprozess ist im Verarbeitungsblock420 der4A dargestellt. Die Daten des zu verschmelzenden Ersten-Bilds kommen in den Prozess in423 , und die Daten des zu verschmelzenden Zweiten-Bilds kommen in den Prozess in413 . Der Pixelverschmelzungsprozess beginnt in445 . In427 wird ein Pixel von dem Zweiten-Bild ausgewählt. Das ausgewählte Zweites-Bild-Pixel wird in429 normiert, und seine Luma wird in450 abgeleitet. Die Luma des Zweites-Bild-Pixels wird verwendet, um den Gewichtungsparameter Wi,485 , von einer LUT in465 zu erhalten. Das normierte Zweites-Bild-Pixel wird mit dem Gewichtungsparameter Wi,485 , in455 multipliziert. Das normierte und gewichtete Zweites-Bild-Pixel geht in einen Addierprozess in475 . Das Erstes-Bild-Gegenstückpixel des ausgewählten Zweiten-Bild-Pixels wird in460 ausgewählt und mit (1 – Wi) in470 multipliziert. Das gewichtete Erstes-Bild-Pixel geht in den Addierprozess in475 und wird mit dem normierten und gewichteten Zweiten Bild-Pixel verschmolzen. Wenn mehr zu verschmelzende Bildpixel übrig sind, wie im Entscheidungspunkt480 bestimmt und durch ”Nein” in431 angezeigt wird, wird der nächste Pixelverschmelzungszyklus in445 begonnen, was dazu führt, dass ein nächstes Erstes-Bild-Pixel und ein nächstes Zweites-Bild-Pixel in460 bzw.427 ausgewählt und wie beschrieben verschmolzen werden. - Wenn keine zu verschmelzenden Bildpixel mehr übrig sind, wie am Entscheidungspunkt
480 bestimmt und durch ”Ja” in433 angezeigt wird, es aber mehr zu mischende Bilder in der erfassten Bildserie gibt, wie im Entscheidungspunkt495 bestimmt und durch ”Nein” in487 angezeigt wird, wird ein weiteres Zweites-Bild aus den verbleibenden, ungemischten Serienbildern ausgewählt, dessen Daten als die nächsten zu verschmelzenden Zweites-Bild-Daten dienen. In den Implementierungen der Stammanmeldung hat das ausgewählte Zweite-Bild eine höhere Belichtungsstufe als die vorhergehende Zweites-Bild-Auswahl, in den Ausführungsformen der vorliegenden Anmeldung sind solche Zwänge aber nicht zutreffend; die Bilder können in einer beliebigen Reihenfolge verarbeitet werden, unabhängig von der relativen Belichtungsstufe. Eine solche Auswahl wird vom Bildauswahlprozess425 als Reaktion auf das ”Nein” in487 getroffen. Zusätzlich werden die gemischten 2-Bild-Bildausgabedaten in493 vom Erstes-Bild-Datenauswahlprozess435 als die nächsten zu verschmelzenden Erstes-Bild-Daten ausgewählt, da der Entscheidungspunkt430 ”Ja” anzeigt, um435 in441 zu verarbeiten, als Reaktion darauf, dass gemischte 2-Bild-Bilddaten in493 zur Verfügung stehen. Wenn gemischte 2-Bild-Bilddaten nicht in493 zur Verfügung stehen, wie es zu Beginn eines Bildmischprozesses der Fall wäre, würde der Entscheidungspunkt430 dem Verarbeitungsblock440 melden, indem ein ”Nein” in437 platziert wird, dass er ein Erstes-Bild aus der aufgenommenen zu verschmelzenden Bildserie mit einer niedrigeren Belichtungsstufe auswählen soll als das zu verschmelzende Zweite Bild (in den Ausführungsformen der Stammanmeldung), das aus der erfassten Bildserie vom Verarbeitungsblock425 ausgewählt wird. In diesem Fall wird eine Information über die ausgewählte Zweites-Bild-Belichtungsstufe an den Auswahlblock440 in407 übermittelt, eine Information über eine geringste belichtete Serienbild-Belichtungsstufe wird an den Auswahlblock440 in443 übermittelt und ausgewählte Serienbilddaten werden an den Verarbeitungsblock440 in439 übermittelt. Wie im Ablaufdiagramm der4 dargestellt und in den Ausführungsformen der Erfindung der vorliegenden Anmeldung verwendet, kann das Serienbild mit der niedrigsten Belichtungsstufe nicht unbedingt als Erstes Bild ausgewählt werden. Außerdem ist der Block440 der Stammanmeldung nicht mehr notwendig. - Wenn es keine zu mischenden Bilder mehr in der aufgenommenen Bildserie gibt, endet der Prozess mit der gemischten HDR-Bild-Ausgabe, das in
497 erscheint. - Wie oben bezüglich der Implementierung der Stammanmeldung beschrieben, die in
4A gezeigt ist, kann ein Flag am Bildausgangspunkt497 hinzugefügt werden, um eine Gamma-Operation für bevorzugte Ausführungsformen der vorliegenden Erfindung zu aktivieren/deaktivieren. Für alle Serienbilder ist diese Gamma-Operation AUS, bis auf das letzte, wenn der letzte Ausgang geliefert wird. - Das Ablaufdiagramm der
4 der vorliegenden Erfindung veranschaulicht den vollständigen Bildmischprozess des Bildmischers220 . Der Block420 , der den von der 2-Bild-Verschmelzungsmaschine der3 verwendeten 2-Bild-Verschmelzungsprozess darstellt, ist in4 hervorgehoben und im Detail in4A veranschaulicht.4 enthält auch die Verarbeitung, die vor dem 2-Bild-Verschmelzungsprozessblock420 liegt. Diese Verarbeitung umfasst die Aufnahme einer Serie von Bildern, wobei jedes Bild mit einer anderen Belichtungsstufe belichtet wird, im Verarbeitungsblock400 , die Registrierung von Duplikat-Serienbildpixeln zueinander, im Verarbeitungsblock405 , die Bestimmung des am wenigsten belichteten Serienbilds (in der Stammanmeldung) im Verarbeitungsblock410 , die Berechnung einer normierten Belichtungsstufe gemäß der oben beschriebenen Gleichung (3), die auf das am wenigsten belichtete Bild der Serie oder auf ein anderes Bild in dieser verbesserten Ausführungsform bezogen werden kann, für jedes Bild in der Serie, im Verarbeitungsblock415 auf. Diese berechnete normierte Belichtungsstufe wird von429 des Verarbeitungsblocks420 verwendet, um jedes Zweites-Bild-Pixel zu normieren, wie vorher durch die Gleichung (4) beschrieben, ehe es mit einem Gewichtungsparameter multipliziert und mit einem gewichteten Erstes-Bild-Pixel gemäß der vorher beschriebenen Gleichung (7) verschmolzen wird. - Der Bildmischprozess des Bildmischers
220 verwendet nur Summierung und Multiplikationen, wodurch rechnermäßig intensive Divisionsoperationen vermieden werden und es ihm ermöglicht wird, von einer Festkomma-Rechenmaschine implementiert zu werden. Zusätzlich, da die verwendete Mischvorgehensweise auf aufeinanderfolgenden Zweibild-Mischoperationen basiert, muss nicht gewartet werden, bis alle Serienbilder aufgenommen sind, ehe eine Mischoperation gestartet wird. Der Mischprozess kann direkt beginnen, nachdem gerade zwei Bilder der Serie aufgenommen worden sind. Diese Eigenschaften ermöglichen es dem Mischprozess, schnell ein HDR-Bild von einer reihenbelichteten Bildserie zu erzeugen, indem eine Rechenmaschine mit begrenzter Verarbeitungsleistung verwendet wird. - Der Geisterbild-Entfernungsprozess
- In der Stammanmeldung entfernt der Geisterbild-Entferner
230 ortsverschobene Wiedergaben von Szeneobjekten, oder Geisterbilder, die in den gemischten HDR-Bildausgangsdaten in497 der4 aufgrund der Bewegung dieser Objekte während der Zeit erscheinen, in der die Bilder der Serie erfasst werden. Im Wesentlichen erscheinen Geisterbilder aufgrund des Mischens von Serienbildern, bei denen ein Objekt, das in einem Erste-Serie-Bild gezeigt wird, sich bezüglich seiner Erste-Serie-Bild-Standortkoordinaten bewegt hat, wie in einem Zweite-Serie-Bild gezeigt wird. Folglich kann in dem gemischten Bild das Objekt an vielen Standorten erscheinen, wobei die Standorte von der Bewegungsgeschwindigkeit und der Bewegungsrichtung des Objekts abhängen. In der Stammanmeldung beschriebene Ausführungsformen der Erfindung verwenden eine einzige Vorgehensweise in zwei Phasen zum Abschwächen von Geisterbildern. - Angesichts eines gemischten Bilds, HDR(i, j), erzeugt von einer gewichteten Summe von Bildern von einer erfassten ausgerichteten Bildserie von K Bildern, berechnet die Ausführungsform in einer ersten Verarbeitungsstufe zuerst die Varianz des Luma-Werts jedes Pixels von HDR(i, j) wie folgt:
V(i, j) = EfcW(i, j, k) × P2(i, j, k) – HDR(i, j)2 (8) - V(i, j)
- = Die Varianz des Luma-Werts des gemischten HDR-Bildpixels, HDR(i, j), angeordnet an den Bildkoordinaten (i, j) bezüglich des Werts des Kten Serienbildpixels angeordnet an den Bildkoordinaten (i, j), über die K ausgerichteten Bilder der erfassten Bildserie;
- HDR(i, j)
- = Der Luma-Wert des gemischten HDR-Bildpixels angeordnet an den Bildkoordinaten (i, j);
- W(i, j, k)
- = Ein normierendes Gewicht angewendet an die Stufe des Kten Serienbildpixels angeordnet an den Bildkoordinaten (i, j), um den Serienbildpixel-Stufenbereich auf den Pixel-Stufenbereich des gemischten HDR-Bilds zu normieren; und
- P(i, j, k)
- = Der Wert des Kten Serienbildpixels angeordnet an den Bildkoordinaten (i, j);
- Die erste Phase einer oben beschriebenen Geisterbild-Entfernungsverarbeitung basiert auf der Beobachtung, dass, wenn es keine lokale Bewegung in den gemischten Serienbildern gibt, die Varianz eines Pixels in der gemischten HDR-Bildausgabe über die K ausgerichteten Bilder der erfassten Bildserie, wie durch die obige Gleichung (8) definiert, niedrig ist. Der einzige mit dieser Annahme verbundene signifikante Fehler ist der Ausrichtungsfehler. Da die Ausrichtung inhärent ein globaler Prozess ist, kann sie keine lokale Bewegung eines lokalen Bildobjekts kompensieren, und so äußert sich die Bewegung eines lokalen Objekts als Pixelvarianzzonen hoher Amplitude. Durch Analyse der Pixelvarianzzonen hoher Amplitude in den durch die Gleichung (8) erzeugten zweidimensionalen Varianzdaten können Zonen lokaler Bewegung in den gemischten HDR-Bildausgangsdaten definiert werden, und gemischte HDR-Bildausgangsdatenpixel mit Varianzen über einer vordefinierten Schwelle können durch Duplikat-Pixel vom Bezugsbild ersetzt werden. Das gewählte Bezugsbild ist oft das am wenigsten belichtete Serienbild, kann aber ein Serienbild sein, das mit einer höheren Belichtungsstufe belichtet wird.
- Die erste Phase der Geisterbild-Entfernungsverarbeitung der Ausführungsform erzeugt erste verarbeitete gemischte Bilddaten, HDR1.verarbeitete, mit weniger Geisterbildern. Einige Rest-Geisterbilder bleiben aber. Eine zweite Verarbeitungsphase verbessert diese Ergebnisse durch Vergleich des Inhalts von HDR1.verarbeitete mit HDRref. In dieser zweiten Phase werden Geisterbildreste durch Analysieren des Pixel-zu-Pixel-Ergebnisses erfasst, das durch Subtrahieren der Luma von HDRref von der Luma von HDR1.verarbeitete erhalten wird. Es wird ein weiterer Schwellenwert basierend auf dem maximalen Wert der Differenzen zwischen der Luma von HDR1.verarbeitete und der Luma von HDRref erzeugt. Jedes HDR1.verarbeitete-Datenpixel, das den zweiten Schwellenwert überschreitet, wird durch sein Gegenstück-HDRref-Datenpixel ersetzt, was zu zweiten verarbeiteten gemischten Bilddaten, HDR2.verarbeitete, mit weniger Geisterbildern führt. Die von dieser Ausführungsform der zweiten Verarbeitungsphase der Erfindung verwendete Prozedur kann folgendermaßen zusammengefasst werden:
- (a) Erzeuge D0 = ABS(Luma(HDR1.verarbeitete) – Luma(HDRref));
- (b) Bestimme Schwelle2. = Max(D0) = DM0.
- (c) Ersetze jedes HDR1.verarbeitete-Datenpixel, das die Schwelle2. überschreitet, durch sein Gegenstück-HDRref-Datenpixel, was zu HDR2.verarbeitete gemischten Bilddaten führt
- (d) Vergleiche HDR2.verarbeitete mit HDRref und erzeuge Max(Dl) = Dm1, wobei gilt Dm1 = Max((ABS(Luma(HDR2.verarbeitete) – Luma(HDRref)))
- (e) Wenn gilt Dm1 > 60% von DM0, ist Schwelle2. zu groß und HDR2.verarbeitete kann zu sehr wie HDRref aussehen. Dann:
- (f) Segmentiere DM0 in 2 Stufen, wobei gilt DM00 = ein Wert < 0.5DM0, und DM01 = ein Wert > 0.5DM0
- (g) Bestimme, in Prozent, die Menge von HDR2.verarbeitete Bildfeld bezüglich des vollen Bildfelds, die DM01, GRÖSSE_1 überschreitet
- (h) Bestimme, in Prozent, die Menge von HDR1.verarbeitete Bildfeld bezüglich des vollen Bildfelds, die DM00, GRÖSSE_0 überschreitet, wobei GRÖSSE_1 sein sollte >= GRÖSSE_0.
- (i) Berechnetes GRÖSSE-VERHÄLTNIS = GRÖSSE_1/GRÖSSE_=0
- (j) Wenn gilt (GRÖSSE_0 > 40% ∥ (GRÖSSE_VERHÄLTNIS > 2 && GRÖSSE_1 > 8%))
- (k) Nimm erneut Serienbilder auf
- (l) Sonst
- (m) Ersetze Pixel von HDR2.verarbeitete Bildfeldern, die DM01 überschreiten, durch ihre Gegenstück-HDRref-Pixel, was zu HDR2.verarbeitete gemischten Bilddaten führt
- (n) Ende
- Der Geisterbild-Entfernungsprozess kann auf alle ausgerichteten, aufgenommenen, reihenbelichteten Serien von zwei oder mehr Bildern angewendet werden. Zusätzlich können zwei oder mehr HDRref-Bilder von dem Prozess verwendet werden. Wenn der Prozess zum Beispiel auf eine Serie von drei Bildern angewendet wird, wobei die Belichtungsstufe eines ersten Serienbilds niedriger als die Belichtungsstufe eines zweiten Serienbilds und die Belichtungsstufe des zweiten Serienbilds niedriger ist als die Belichtungsstufe eines dritten Serienbilds ist, können die Felder der Zonen des zweiten Serienbilds, die gemischten Bilddaten mit Varianzen entsprechen, die die erste Schwelle überschreiten, verwendet werden, um zwischen zwei Bezugsbildern HDRref1 und HDRref2 auszuwählen. In diesem Beispiel werden zweite Serienbildzonenfelder, die gesättigt sind, summiert, und ein Verhältnis der Summe von gesättigten Feldern zum Gesamtfeld des zweiten Serienbilds wird verwendet, um HDRref für den Rest der Geisterbild-Entfernungsverarbeitung auszuwählen. Wenn das Verhältnis kleiner als ein oder gleich einem Parameterwert ist, zum Beispiel 0.03 zu 1, dann wird HDRref2 = zweites Serienbild ausgewählt. Wenn das Verhältnis größer als der Parameterwert ist, dann wird HDRref1 = erstes Serienbild ausgewählt. Ferner kann die obige Auswahlvorgehensweise, oder können andere von ähnlicher Beschaffenheit, die auf andere Bildmerkmale reagieren, wie zum Beispiel die Größe von Bildfeldern mit Objektbewegung über einer vorbestimmten Schwelle, oder Raumfrequenzdetails über einer vorbestimmten Schwelle, verwendet werden, um ein HDRref1 für die erste Phase der Geisterbild-Entfernungsverarbeitung und zusätzlich ein anderes HDRref2 für die zweite Phase der Geisterbild-Entfernungsverarbeitung auszuwählen.
-
5 ist ein Blockdiagramm einer Ausführungsform des Geisterbild-Entferner-Verarbeitungsmoduls230 von2 . HDR-Mischbild-Pixeldaten werden in die Luma-Umwandlungsschaltung515 und die erste Pixelersatzschaltung540 auf der Leitung505 der5 eingegeben. Die Luma-Umwandlungsschaltung515 wandelt HDR-Mischbild-Pixeldaten in Mischbild-Luma-Pixeldaten um, und gibt über die Leitung525 Mischbild-Luma-Pixeldaten in die Varianzberechnungsschaltung550 ein. Obwohl nicht in2 gezeigt, werden ausgerichtete Bilder der erfassten reihenbelichteten Serie von zwei oder mehr Bildern in das Geisterbild-Entferner-Modul230 auf der Leitung500 der5 eingegeben, die mit der Bezugsbild-Auswahlschaltung510 verbunden ist. In dieser Ausführungsform wählt die Bezugsbild-Auswahlschaltung510 das am wenigsten belichtete Serienbild als das Bezugsbild HDRref aus, es könnte aber ein mit einer höheren Belichtungsstufe belichtetes Serienbild ausgewählt werden. Durch die Leitung520 werden HDRref-Pixeldaten auch auf die Varianzberechnungsschaltung550 angewendet. Zusätzlich wendet die Leitung520 HDRref-Pixeldaten auf die 1. Pixelersatzschaltung540 , 2. Pixelersatzschaltung585 und Luma-Umwandlungsschaltung560 an. Von den HDRref-Pixeldaten auf der Leitung520 und den Mischbild-Luma-Pixeldaten auf der Leitung525 erzeugt die Varianzberechnungsschaltung550 ausgegebene Mischbild-Luma-Pixelvarianzdaten auf der Leitung530 . Diese Luma-Pixelvarianzdaten werden auf die erste Pixelersatzschaltung540 über die Leitung530 angewendet. Auf der Leitung535 wird ein 1. Schwellenwert auch auf die 1. Pixelersatzschaltung540 angewendet. Von diesen Eingaben ersetzt die 1. Pixelersatzschaltung540 Pixel der Mischbild-Pixeldaten auf der Leitung505 , deren Luma-Varianz den ersten Schwellenwert auf der Leitung535 überschreitet, durch Gegenstückpixel von den HDRref-Daten auf der Leitung520 , um erste verarbeitete Mischbild-Pixeldaten, HDR1.verarbeitete, auf der Leitung545 zu erzeugen, die der Ausgang einer ersten Verarbeitungsphase sind. - Der Ausgang der ersten Verarbeitungsphase, HDR1.verarbeitete, auf der Leitung
545 , wird durch die Luma-Umwandlungsschaltung565 zu HDR1.verarbeitete Luma-Pixeldaten umgewandelt. Der Ausgang der Schaltung565 erscheint auf der Leitung595 und ist mit der Vergleichsschaltung575 verbunden. HDR1.verarbeitete auf der Leitung545 wird auch an die 2. Pixelersatzschaltung585 angewendet. Die Leitung520 wendet HDRref-Pixeldaten auf die Luma-Umwandlungsschaltung560 und die 2. Pixelersatzschaltung585 an. Die Pixeldaten-zu-Luma-Umwandlungsschaltung560 wandelt HDRref-Pixeldaten in HDRref-Luma-Pixeldaten um und liefert die HDRref-Luma-Pixeldaten an die Vergleichsschaltung575 über die Leitung570 . Die Vergleichsschaltung575 berechnet die Differenz zwischen jedem HDR1.verarbeitete-Luma-Datenpixel und seinem Gegenstück-HDRref-Luma-Datenpixel und erzeugt einen 2. Schwellenwert basierend auf dem maximalen Wert der Differenzen. Dieser 2. Schwellenwert wird an die 2. Pixelersatzschaltung585 über die Leitung580 angewendet. Die 2. Pixelersatzschaltung585 ersetzt jedes HDR1.verarbeitete-Datenpixel auf der Leitung545 , das den 2. Schwellenwert überschreitet, durch sein Gegenstück-HDRref-Datenpixel auf der Leitung520 , wobei die resultierenden 2. verarbeiteten Mischbilddaten, HDR2.verarbeitete, auf der Leitung590 , die Geisterbild-reduzierte Ausgabe einer zweiten Verarbeitungsphase sind. - Der von dem Geisterbild-Entferner-Verarbeitungsmodul der
5 verwendete Geisterbild-Entfernungsprozess mit zwei Phasen ist im Ablaufdiagramm der6 dargestellt. Im Block600 wird eine reihenbelichtete Serie von zwei oder mehr Bildern, wobei jedes Bild mit einer anderen Belichtungsstufe und zu einer anderen Zeit belichtet wird, aufgenommen. Im Block605 werden diese Bilder zueinander so registriert, dass Gegenstück-Serienbildpixel einander entsprechen. Im Block610 wird ein Bezugsbild aus den aufgenommenen Szenebildern ausgewählt, und seine Pixeldaten werden zu den Verarbeitungsblöcken625 ,640 ,660 und695 über den Verarbeitungspfad615 geleitet. Das gewählte Bezugsbild ist oft das am wenigsten belichtete Serienbild, kann aber ein Serienbild sein, das bei einer höheren Belichtungsstufe belichtet wurde. Es muss nicht das gleiche Bezugsbild sein, wie es vom Bildregistrierungsprozessor210 verwendet wird, der im Allgemeinen ein erstes Bild verwendet, das mit einer Nennbelichtungseinstellung der Kamera als ein Bezugsbild erfasst wurde, auf das alle anderen Bilder der Serie ausgerichtet werden. Der oben beschriebene Bildmischer, dessen Bildmischprozess im Ablaufdiagramm der4 dargestellt ist, führt die Verarbeitung im Block620 durch, wobei die gemischten HDR-Bildausgang-Bilddatenpixel der4 in die Verarbeitungsblöcke650 und640 eintreten. Im Block650 wird die Luma der Mischdatenpixel erzeugt und zum Block625 geleitet, wobei die Varianz jeder Mischbild-Datenpixel-Luma vom Block650 , im Vergleich mit ihrem Gegenstück-Bezugsbilddatenpixel vom Block610 , berechnet wird. Diese Varianz wird zum Verarbeitungsblock640 geleitet und vom Block640 zusammen mit einer 1. Schwelle, die in den Verarbeitungsblock Block640 entlang des Pfads635 eintritt, Mischbild-Datenpixeln vom Verarbeitungsblock620 , die in den Verarbeitungsblock640 entlang des Pfads650 eintreten, und Bezugsbild-Datenpixeln verwendet, die in den Verarbeitungsblock640 entlang des Pfads615 eintreten, um alle Mischbild-Datenpixel mit einer Varianz, die die 1. Schwelle überschreitet, durch ihre Gegenstück-Bezugsbild-Datenpixel zu ersetzen, und 1. verarbeitete Mischbild-Datenpixel zu erzeugen. 1. verarbeitete Mischbild-Datenpixel sind das Ergebnis einer ersten Phase der Geisterbild-Entfernungsverarbeitung. - 1. verarbeitete Mischbild-Datenpixel werden zu den Verarbeitungsblöcken
665 und695 entlang des Verarbeitungspfads655 geleitet. Der Verarbeitungsblock665 erzeugt die Luma der 1. verarbeiteten Mischbild-Datenpixel, während der Verarbeitungsblock660 , von Bezugsbild-Datenpixeln, die in den Verarbeitungsblock660 über den Pfad615 eintreten, die Luma jedes Bezugsbild-Datenpixels erzeugt. Der Verarbeitungsblock670 berechnet die Differenz, auf einer Pixel-für-Pixel-Basis, zwischen dem Luma-Wert jedes 1. verarbeiteten Mischbild-Datenpixels und dem Luma-Wert seines Duplikat-Bezugsbild-Datenpixels und liefert diese Differenzen an den Verarbeitungsblock675 . Ein Verarbeitungsblock675 bestimmt den maximalen Wert dieser Differenzen, und ein Verarbeitungsblock680 erzeugt eine 2. Schwelle basierend auf diesem maximalen Wert. Ein Verarbeitungsblock695 empfängt diese 2. Schwelle über den Pfad685 , zusammen mit den Bezugsbild-Datenpixeln über den Pfad615 und 1. verarbeiteten Mischbild-Datenpixeln über den Pfad655 und ersetzt jedes 1. verarbeitete Mischbild-Datenpixel, das diese 2. Schwelle überschreitet, durch sein entsprechendes Bezugsbild-Datenpixel-Gegenstück und erzeugt so verstärkte Geisterbild-entfernte 2. verarbeitete Mischbild-Daten auf dem Verarbeitungspfad695 . Diese 2. verarbeiteten Mischbild-Daten, das Ergebnis einer 2. Phase der Geisterbild-Entfernungsverarbeitung, werden als Eingabe in einen Tone-Mapping-Prozessor, wie235 der2 , verwendet. - Die Ausführungsformen der vorliegenden Erfindung unterscheiden sich von den Ausführungsformen der oben beschriebenen Stammanmeldung. Das in der Stammanmeldung präsentierte Mischschema war dazu bestimmt, am besten in einer statischen Szene zu funktionieren, aber wenn dies nicht der Fall ist und es eine gewisse lokale Bewegung gibt, wie ein Auto, Leute oder Zweige eines Baums, die sich aufgrund eines blasenden Winds bewegen, kann ein Geisterbild bemerkt werden, wie oben erwähnt. Ein separater Geisterbild-Entfernungsprozess ist dann erforderlich. Die Ausführungsformen der vorliegenden Erfindung umfassen einen Geisterbild-Entfernungsprozess, der gegenüber dem vorherigen Geisterbild-Entfernungsprozess verbessert ist, wie nachfolgend beschrieben.
-
7 zeigt ein nicht einschränkendes Beispiel des Geisterbilds, das durch Mischen von drei Bildern erzeugt wird, die zu verschiedenen Zeiten und mit verschiedenen Belichtungen aufgenommen werden, gemäß einer Ausführungsform der vorliegenden Erfindung. Die Geisterbilder, die durch die Pfeile710 ,720 und730 bezeichnet sind, sind klar zu sehen und sollten so weit wie möglich beseitigt werden. Eine vollständige Beseitigung der Geisterbilder in allen Fällen kann unmöglich sein, die zu beschreibenden Ausführungsformen beseitigen die Geisterbilder aber in vielen Fällen, und der verbleibende Rest ist besser als der von anderen Lösungen des Stands der Technik präsentierte. - Der Geisterbild-Entferner der Stammanmeldung basiert auf der Annahme, dass, wenn es keine lokale Bewegung gibt, das von zwei ausgerichteten Bildern erzeugte Differenzbild geringe Amplituden hat. Leider wird eine lokale Bewegung nicht von dem Registrierungsprozess (der von globaler Beschaffenheit ist) kompensiert und erscheint daher tatsächlich als eine Zone hoher Amplitude in dem Differenzbild.
- Daher wird in der vorliegenden Anmeldung angemerkt, dass man durch Gehen durch das Differenzbild diese Zonen hoher Amplitude lokalisieren und die reguläre Ausgabe durch ein ursprüngliches Patch ersetzen kann, das von einem Bezugsbild genommen wird, vorzugsweise entweder von dem dunklen Bild oder von dem mittleren Bild. Dieser Ersatz wird ausgeführt, indem wieder der Bildmischer verwendet wird, wobei die Eingaben der HDR (mit Geisterbildern) und das Bezugsbild sind, von dem Patches mit einer korrekten Gewichtung W genommen werden, die so berechnet werden:
HDRout = (I – W) × HDR + W × ref_Bild (9) - Das von diesem Prozess erzeugte resultierende HDRout-Bild sollte nun keine Geisterbilder mehr umfassen.
- Nun werden die Hauptschritte, die zur Erzeugung der Gewichtung W geliefert werden, angegeben:
- (a) Herunterstufen der Lumas der (typischerweise, aber nicht notwendigerweise, drei) eingegebenen Bilder auf eine zum Beispiel etwa 180 × 240 Auflösung.
- (b) Normieren der Lumas auf eine spezifische Standardabweichung und Mittelwert.
- (c) Erzeugen d = abs(dunkel_Luma – mittel_Luma) > Schwellen-Differenzbild
- (d) Erzeugen d1 = abs(hell_Luma – mittel_Luma) > Schwellen-Differenzbild
- (e) Erzeugen eines binären Bilds G = (d ODER d1)
- (f) Dilatieren, Filtern und Hochstufen von G, um eine geglättete Version von W zur Verwendung durch den Bildmischer zu erzeugen.
- In
8 wird ein nicht einschränkendes Beispiel des resultierenden Geisterbild-freien Mischens gemäß einer Ausführungsform geliefert. Die Pfeile810 ,820 und830 zeigen auf die jeweiligen Felder, auf die vorher von den Pfeilen710 ,720 bzw.730 in7 gezeigt wurde. Die Geisterbilder einer sich bewegenden Person und von sich bewegenden Fahrzeugen wurden im Wesentlichen vollständig entfernt. Es ist anzumerken, dass diese Prozedur auch Registrierungsrauschen beseitigt. Wenn zum Beispiel eine Türkante nicht korrekt ausgerichtet ist, wäre die Differenz zwischen ausgerichteten Bildern hoch. Folglich wird die Kante durch ein Patch ersetzt, das von dem Bezugsbild genommen wird. Daher macht es keinen Unterscheid beim Geisterbild-Entfernungsprozess der vorliegenden Anmeldung, woher das Rauschen kommt, z. B. entweder von einer lokalen Bewegung oder von einer falschen Registrierung. In beiden Fällen wird es durch ein Patch ersetzt. - Wahl des Bezugsbilds für Patchimplantierungen
- Allgemein ist es vorteilhaft, die Ersatz-Patches von einem Bild mit höherer Belichtung (typischerweise das mittlere Bild bei einer Serie von drei Bildern) zu nehmen, diese Patches können aber aus gesättigten Zonen bestehen. Wenn dies der Fall ist, kann ein Patch vom dunkelsten Bild genommen werden. Das Kriterium für die Auswahl von Patches vom mittleren Bild basiert auf der Berechnung des Gesamtprozentsatzes der gesättigten Zonen angesichts des Gesamtfelds der Patches. Wenn dies geringer als zum Beispiel 3% ist, dient das mittlere Bild als das Bezugsbild, von dem Patches genommen werden, sonst wird das dunkle Bild genommen. Der Nachteil der Verwendung von Patches vom dunklen Bild ist es, dass das dunkle Bild das niedrigste Signal-zu-Rausch-Verhältnis hat und geräuschvoll ist. Dieses Rauschen wird durch das endgültige Tone-Mapping erhöht.
- Die Entscheidung zur Auswahl des Patch (entweder vom dunklen Bild, vom hellen Bild oder vom mittleren Bild in dem typischen Fall, in dem drei eingegebene Bilder zur Verfügung stehen) erfolgt pro Bildsegment und nicht am ganzen Bild. Dies erfordert, dass das verbundene binäre Bild G zuerst segmentiert wird. Zu diesem Zweck wird ein beispielhaftes und nicht einschränkendes Bild gemäß einer wie in
9 gezeigten Ausführungsform verwendet, das das mittlere Bild ist.10 zeigt das gleiche Bild nach Segmentkennzeichnung, wobei die Kennzeichnungen1010 und1020 den Kennzeichnungen910 bzw.920 der9 entsprechen. In11 sind das mittlere Patch1110 und das dunkle Patch1120 gezeigt, entsprechend den Kennzeichnungen910 bzw.920 . - Gemäß Ausführungsformen der vorliegenden Erfindung weist der Patching-Prozess daher auf:
- (a) Kennzeichnung – Finden von Sätzen von verbundenen binären Blobs und Zuweisen einer Farbe zu jedem (
10 ). - (b) Polygon-Begrenzung – Begrenzen jedes Segments durch ein Polygon, wie zum Beispiel ein Achteck.
- (c) Patchauswahl-Überprüfen der Zone jedes Polygons, um zu bestimmen, ob mehr als (typischerweise) 3% seines Felds in dem mittleren Bild gesättigt sind. Für gesättigte Segmente wurden dunkle Bild-Patches genommen, während für nicht-gesättigte Segmente mittlere Bild-Patches genommen wurden.
- Polygon-Begrenzung ist in der Technik bekannt, wird aber hier beschrieben. Ein linearer Behälter ist einer, dessen Inneres von einer endlichen Anzahl von linearen Ungleichheiten spezifiziert ist. Zum Beispiel in 2D könnte ein Behälter Z durch k Ungleichheiten spezifiziert werden: fi(x, y) = aix + biy + ci < 0 (i = 1, k), von denen alle für einen Punkt (x, y) als in der Zone befindlich wahr sein müssen. Wenn eine der Ungleichheiten ausfiele, wäre der Testpunkt außerhalb Z.
- Nun unter Bezug auf
12 ist ein Kasten eine rechteckige Zone, deren Kanten parallel zu den Koordinatenachsen sind, und wird daher durch seine maximale und minimale Ausdehnung für alle Achsen definiert. So wird ein 2D-Kasten dadurch gegeben, dass alle (x, y) Koordinaten xmin ≤ x ≤ xmax und ymin ≤ y ≤ ymax erfüllen. Der Einschluss eines Punkts P = (x, y) in einen Kasten wird durch die Überprüfung getestet, dass alle Ungleichheiten wahr sind; wenn irgendeine von ihnen ausfällt, ist der Punkt nicht innerhalb des Kastens. In 2D gibt es 4 Ungleichheiten, und im Mittel wird ein Punkt nach 2 Tests zurückgewiesen. - Der ”Begrenzungskasten” eines geometrischen 2D-Objekts ist der Kasten mit minimalem Feld, der das Objekt umfasst. Für jede Sammlung von linearen Objekten (Punkte, Segmente, Polygone und Polyeder) wird ihr Begrenzungskasten durch die minimalen und maximalen Koordinatenwerte für den Punktsatz S der Scheitelpunkte des Objekts gegeben: (xmin, xmax, ymin, ymax). Diese Werte werden leicht in O(n) Zeit mit einer einzigen Abtastung aller Scheitelpunkte berechnet, manchmal während die Scheitelpunkte des Objekts gelesen oder berechnet werden. Der Begrenzungskasten ist der rechnungsmäßig einfachste aller linearen Begrenzungsbehälter, und der in vielen Anwendungen am häufigsten verwendete. In der Laufzeit beinhalten die Ungleichheiten keinerlei Arithmetik und vergleichen nur Roh-Koordinaten mit den vorberechneten min- und max-Konstanten.
- Nun unter Bezug auf
13 sind nach einiger Arithmetik die einfachsten nicht-trivialen Ausdrücke diejenigen, die einfach Roh-Koordinaten addieren und subtrahieren. In 2D hat man die Ausdrücke p = (x + y) und q = (x – y), die Linien mit Neigungen von (–1) und 1 entsprechen. Für einen 2D-Satz S von Punkten können das Minimum und das Maximum über S jeder dieser zwei Ausdrücke berechnet werden, um (pmin, pmax, qmin, qmax) zu erhalten. Dann ist der ”Begrenzungsdiamant” für den Satz S die Zone, die durch die Koordinaten (x, y) gegeben wird, die die Ungleichheiten: pmin ≤ (x + y) ≤ pmax und qmin ≤ (x – y) ≤ qmax erfüllen. Geometrisch ist es ein um 45 Grad gedrehtes Rechteck und ähnelt einem Diamanten. - Der ”Begrenzungsdiamant” beinhaltet etwas mehr Berechnung als der Begrenzungskasten. Nach der Berechnung der beiden kann aber festgestellt werden, dass einer besser ist als der andere. Alle beinhalteten Minima und Maxima (8 von ihnen) können in O(n) Zeit mit einer einzigen Abtastung des Satzes S berechnet werden, und dann können die Felder des Begrenzungskastens B und des Begrenzungsdiamanten D verglichen werden, und der kleinere Behälter kann, falls gewünscht, verwendet werden. Da alles rechteckig ist, hat man Fläche(B) = (xmax – xmin)·(ymax – ymin), und Feld(D) = (pmax – pmin)·(qmax – qmin).
- Ferner könnten beide Behälter, der Kasten und der Diamant, verwendet werden, um ein noch kleineres kombiniertes ”Begrenzungsachteck” zu erhalten, das von allen 8 Ungleichheiten wie in
14 gezeigt definiert wird. Typischerweise wird zuerst auf Einschluss oder Schnittpunkt mit dem Begrenzungskasten und dann das Begrenzungsachteck getestet. Wenn man einen Punkt P = (x, y) auf Einschluss in ein Polygon Z testen möchte, ist der einzige Overhead die Berechnung der Ausdrücke (x + y) und (x – y) kurz vor dem Testen der Diamant-Ungleichheiten, nachdem P innerhalb des Begrenzungskastens gefunden wurde. - Daher, angesichts des HDR-Bilds mit Geisterbildern, wird das Geisterbild-freie Bild (HDRout) für den Drei-Bild-Reihenbelichtungsfall (der der üblichste Fall ist) durch zwei Mischungen wie folgt erzeugt:
HDRout = HDR(1 – Wd) + Wd × Dunkel_Bild + HDR(1 – Wm) + Wm × Mittel_Bild (10) - Die Gewichte Wd und Wm werden von den Begrenzungsachtecken der jeweiligen Segmente nach einem gewissen Glätten bestimmt.
- Es ist anzumerken, dass die Ausführungsformen der vorliegenden Erfindung, die diesen Geisterbild-Entfernungsprozess verwenden, sich von den Ausführungsformen, die in der Stammanmeldung beschrieben sind, dadurch unterscheiden, dass keine paarweisen ganzen Bildverschmelzungen, um eine relativ Geisterbild-freie Bildmontage zu akkumulieren, erforderlich sind. Stattdessen werden störende Bildzonen erkannt, und Ersatzpatches werden von ähnlichen Zonen in verfügbaren alternativen Bildern eingeschmolzen.
- Der Tone-Mapping-Prozess
- Das verbesserte Geisterbild-entfernte Bild hat eine Bitbreite von 16 Bits und weist drei Farbkomponenten auf, eine rote Komponente, eine grüne Komponente und eine blaue Komponente. Diese RGB-16-Bit-Daten sollen auf einer eingebauten Anzeigeeinrichtung einer Digitalkamera
245 der2 angezeigt werden, die eine 8-Bit-Anzeigeeinrichtung ist, so dass das verbesserte Geisterbild-entfernte Bild von 16-Bit-RGB-Daten auf 8-Bit-RGB-Daten umgewandelt werden muss. Der Prozess der Umwandlung von Bilddaten von einer Bitbreite zu einer geringeren Bitbreite, wie von 16 Bits auf 8 Bits, während die in den breiteren Bitbreitendaten dargestellten relativen Grautonstufen in den resultierenden 8-Bit.-Daten beibehalten werden, wird als ”Tone Mapping” bezeichnet. Es gibt viele solche Tone-Mapping-Prozesse, die verwendet werden können. Diese Ausführungsform der Erfindung verwendet eine einzige Tone-Mapping-Vorgehensweise, die ursprünglich dazu bestimmt war, 12 Bit breite Bilddaten in 8 Bit breiten Bilddaten abzubilden. Daher entfernt diese Vorgehensweise zuerst die 4 am wenigsten signifikanten Bits aus den 2. verarbeiteten Mischbild-Daten, was 12-Bit-RGB-Bilddaten übrig lässt. Drei Nachschlagetabellen (LUTs) werden verwendet, um die verbleibenden 12-Bit RGB-Daten auf den benötigten 8-Bit-RGB-Daten abzubilden:
Eine Normalverstärkungs-LUT,
Eine Hochverstärkungs-LUT; und
Eine Höchstverstärkungs-LUT - Die richtige LUT zur Verwendung beim 12-Bit zu 8-Bit-Tone-Mapping-Prozess muss ausgewählt werden, um die in der 8-Bit-Datenform präsentierten Bild-Grautöne korrekt darzustellen. Die Auswahlkriterien hängen von der Größe des Bildfelds ab, das mit Pixeln bestückt ist, deren Wert durchschnittlich unter einem vordefinierten Pixelwert liegt, oder ”dunkel” ist, im Vergleich mit dem Rest des Bildfelds. Je niedriger der durchschnittliche Pixelwert im dunklen Feld des Bilds ist, desto höher ist die ausgewählte Verstärkung der LUT.
- Der Prozess der LUT-Auswahl ist folgendermaßen:
- 1. Verschiebung des 12-Bit-RGB-Bilds um 4 Bits nach rechts. Dies führt zu einem 8-Bit-Bild;
- 2. Erzeugung der Luma-Komponente des resultierenden 8-Bit-Bilds;
- 3. Berechnung des Durchschnittswerts, Mn, aller Pixel im 8-Bit-Bild, deren Luma geringer als eine Schwelle für ein dunkles Feld, Td, ist. Ein digitaler Wert von 20 aus einem maximalen digitalen Wert von 255 (der maximale 8-Bit-Wert) kann für Td verwendet werden;
- 4. Wenn die Summe aller Pixel mit einer Luma < Td geringer als eine Feldschwelle, P%, ist, Verwenden der Normalverstärkungs-LUT, sonst:
- 5. Wenn Mn gegeben und vordefinierte Schwellen Pixelwertschwellen T1 geringer als T2 sind:
- 6. Wenn gilt Mn < T1 Verwendung der Höchstverstärkungs-LUT;
- 7. Wenn Mn zwischen T1 und T2 liegt, Verwenden der Hochverstärkungs-LUT
- 8. Wenn gilt Mn > T2 Verwenden der Normalverstärkungs-LUT
- Td = 20 von 255, T1 = 5 von 255 und T2 = 10 von 255 sind Beispiele der Schwellen, die in dem obigen Tone-Mapping-LUT-Auswahlprozess verwendet werden können.
- Die von dieser Ausführungsform verwendete Tone-Mapping-Prozedur ist dazu bestimmt, Bildzonen geringer Ausleuchtung nachzuverstärken, während die drei LUTs sich für Bildzonen hoher Ausleuchtung gleich verhalten. Es wurde gefunden, dass dies ein gutes Ergebnis liefert, wenn es an den erzeugten Geisterbild-freien HDR angewendet wird.
- Um nun zusammenzufassen, die verbesserte HDR-Auflösung der Stammanmeldung erhöht den dynamischen Bereich einer gegebenen Szene durch Fusionieren und Vermischen der Information von drei verschiedenen Bildern einer gegebenen Szene. Jedes Bild wird bei einer anderen Belichtungseinstellung erfasst, z. B., Nennbelichtung, Überbelichtung und Unterbelichtung. Das unterbelichtete Bild kann als das dunkle Bild bezeichnet werden, das nennbelichtete Bild kann als das mittlere Bild bezeichnet werden, und das überbelichtete Bild kann als das helle Bild bezeichnet werden.
- Der HDR-Algorithmus verbessert den dynamischen Bereich der Szene durch Durchführung des Folgenden:
Dunkle Felder im mittleren Bild werden durch Pixel vom hellen Bild ersetzt, zur Aufhellung und Detailverbesserung der Szene. - Gesättigte Felder im mittleren Bild werden durch Pixel vom dunklen Bild ersetzt, um ausgebrannte Details wiederzugewinnen.
- Die Gesamt-Methodik der Ausführungsformen der kontrastierenden vorliegenden Erfindung wird nun zusammengefasst. In
15 ist eine beispielhafte und nicht einschränkende Implementierung des HDR gemäß einer Ausführungsform gezeigt. Während sie im Schwarz-Weiß-Format gezeigt ist, um den Anmeldungszwängen des USPTO zu entsprechen, sollte dies nicht als die Ausführungsformen der vorliegenden Erfindung einschränkend angesehen werden; alle Bilder können voll farbig sein, ohne den Rahmen der Erfindung zu verlassen. Ferner kann eine beliebige Anzahl von Bildern eingegeben werden, obwohl drei typisch ist. Drei eingegebene Bilder mit unterschiedlichen Belichtungen, z. B. Bild1510 , das das dunkle Bild ist, Bild1520 , das das mittlere Bild ist, und Bild1530 , das das helle Bild ist, werden fusioniert zur Erzeugung eines Hochdynamikbereich-Ergebnisses, das im Bild1540 gezeigt ist. - Der HDR-Algorithmus weist nun drei Hauptphasen auf, die in Bezug auf
16 gezeigt werden. Die drei Phasen sind:
eine Bildregistrierungsphase1610 zum Ausrichten der drei eingegebenen Bilder;
eine Bildfusionsphase1620 zum Zusammenmischen der drei ausgerichteten Bilder zur Erzeugung eines Hochdynamikbereich-Bilds, sowie eine integrierte Geisterbild-Entfernung, unter Verwendung der oben ausführlicher erläuterten Prinzipien;
eine Tone-Mapping-Phase1630 zur Abbildung des Hochdynamikbereich-Ergebnisses in einen 8-Bit-Bereich, der typischerweise benötig wird, um das Ergebnis auf üblichen Anzeigeeinrichtungen anzuzeigen, sollte aber nicht als den Rahmen der vorliegenden Erfindung einschränkend angesehen werden. - Das Ziel der Bildregistrierung ist es, die drei Bilder auf den gleichen Koordinatensatz auszurichten. Um die Bilder auszurichten, werden zwei Registrierungsprozeduren integriert: die erste richtet das dunkle Bild mit dem mittleren Bild aus, und die zweite richtet das helle Bild mit dem mittleren Bild aus.
- Die Registrierungsphase
1610 erkennt und kompensiert die globale Bewegung der Szene zwischen zwei verschiedenen aufgenommenen Rahmen. Diese Phase wird für den HDR-Algorithmus benötigt, da angenommen wird, dass die Kamera handgehalten wird und so unter der Wirkung eines wackligen Haltens leiden kann. Das Ausrichtungsschema besteht aus vier Phasen:
Bewegungsvektor-Extraktion – ein Satz von Bewegungsvektoren wird zwischen den zwei Bildern extrahiert;
Globale Bewegungsschätzung – ein globales Umwandlungsmodell, üblicherweise, aber ohne Einschränkung, affin, wird zwischen den Bildern angenommen. Ein Stichprobenkonsensus(RANSAC)-Algorithmus wird auf die Bewegungsvektoren angewendet, um die wahrscheinlichsten Umwandlungsparameter zu schätzen;
Bildverzerrung – gemäß der geschätzten globalen Umwandlung wandelt typischerweise ein auf Hardware basierender Verzerrungsmechanismus das dunkle oder helle Bild auf die mittleren Bildkoordinaten um; und,
Vereinheitlichtes Sichtfeld – aufgrund der Kamerabewegung kann es einige Differenzen zwischen den Sichtfeldern der Bilder geben. In dieser Phase wird das maximale Sichtfeld, das in allen drei Bildern existiert, berechnet, während das ursprüngliche Bildseitenverhältnis der eingegebenen Bilder beibehalten wird. - Die Bildfusionsphase
1620 mischt die drei Bilder zusammen (Phase1620 ist in17 ausführlicher gezeigt). Das Mischen wird folgendermaßen durchgeführt: unter Verwendung zum Beispiel des mittleren Bilds als Bezug, trägt das dunkle Bild Information in überbelichteten (1710 ) Feldern und das helle Bild Information in unterbelichteten Feldern (1720 ) bei. Diese Mischregel wird verwendet, wenn die Szene statisch ist, wie oben erwähnt. Wenn es aber eine lokale Bewegung in der Szene gibt, wie in bestimmten Beispielen oben gezeigt wird, kann das Mischen zu sichtbaren Artefakten im HDR-Ergebnis führen, die als Geisterbild-Artefakte bekannt sind. Um diese mit der Bewegung verbundenen Artefakte zu überwinden, wird ein Geisterbild-Behandlungsmechanismus (1730 ) als Teil der Bildfusionsphase angewendet. - Die Basisoperation der Bildmischung nimmt zwei Bilder mit unterschiedlichen Belichtungen und verschmilzt sie gemäß einem pixelweisen Verschmelzungsfaktor. Um die Schritte der Bildmischprozedur zu beschreiben, wird das weniger belichtete Bild als I1 und das Bild mit größerer Belichtung als I2 gekennzeichnet. Der Belichtungswert jedes Bilds wird als ExpVal1 bzw. ExpVal2 gekennzeichnet. Der Belichtungswert in der Computerphotographie wird gemäß der folgenden Formel berechnet: wobei ISO die ISO-Stufe darstellt, ExpTime die Belichtungszeit und F# die F-Nummer des optischen Systems darstellt.
- Die folgenden Phasen werden innerhalb des Bildmischschemas angewendet. Zuerst eine Vorverarbeitungsphase, die umfasst:
Wenn I1 oder I2 im Gamma-Bereich (nicht im linearen Bereich) gegeben sind, wird eine Gamma-Korrektur-Operation angewendet, um die eingegebenen Bilder im linearen Bereich darzustellen; und
das hellere Bild, I2, wird auf den Belichtungswert des dunkleren Bilds I1 normiert. Die Manipulationen an dem eingegebenen Bild können zusammengefasst werden als: - Zweitens findet die Berechnung von Verschmelzungsgewichten statt. Um die Gewichte zu bestimmen, werden die Helligkeitswerte (Luma, die als Y bezeichnet wird) des helleren Bild, I2, als eine Eingabe in eine Gewichtungs-LUT verwendet. Dies kann formuliert werden als W = LUT(Y2). Die Gewichtungs-LUT kann als ein allgemeines Mapping beschrieben werden, wird üblicherweise aber als stückweise lineare Funktion implementiert, wie es in
18 gezeigt ist, wo die stückweise lineare Grafik1810 gezeigt ist. - Zuletzt wird das Mischen durchgeführt, wobei die tatsächliche Mischoperation gemäß der folgenden Formel ausgeführt wird:
Iaus = (1 – W)·I upd / 1 + W·I upd / 2 - Wenn das Beispiel in
18 als die Gewichts-LUT verwendet wird, nimmt die Mischoperation dunkle Pixel vonI upd / 2 I upd / 1 - Gemäß einer Ausführungsform der vorliegenden Erfindung wird nachfolgend eine Lösung der Geisterbild-Entfernung bereitgestellt, wie in
19 gezeigt. Der Geisterbild-Behandlungsmechanismus versucht, Felder mit lokaler Bewegung zwischen den drei HDR-Eingängen zu erkennen. In diesen Feldern dürfen die HDR-Fusionsergebnisse keine Verschmelzung der Bilder umfassen, da dies zu einem Geisterbild-Artefakt führen kann, z. B. kann eine gehende Person zweimal oder öfter gesehen werden, wie in7 gezeigt wurde. Stattdessen wird nur ein einziges Bild gewählt, um das HDR-Fusionsergebnis in dem spezifizierten Feld (d. h. ein Patch) darzustellen. Dementsprechend hat der Geisterbild-Behandlungsmechanismus die folgenden Phasen, beginnend im Schritt1900 : - – Bewegungsdetektierung – Identifizieren, ob es eine lokale Bewegung zwischen den eingegebenen HDR-Bildern gibt. Diese Phase wird pro Pixel ausgeführt, beginnend im Schritt
1910 : - – Definition von Geisterbild-Patches – in dieser Phase werden die Pixel, die eine Bewegung erfahren, in Patches (Bild-Blobs) geclustert, unter Verwendung morphologischer Operationen, beginnend im Schritt
1920 ; - – Patchauswahl – jedes der identifizierten Patches muss durch ein einzelnes eingegebenes Bild dargestellt werden. In dieser Phase wird eine Bewertungsfunktion verwendet, um zu entscheiden, ob die Information sich über das beispielhafte helle, mittlere oder das dunkle Bild entwickelt, beginnend im Schritt
1930 ; und - – Patchkorrektur – in dieser Phase wird typischerweise eine auf Hardware basierende Patchkorrektur verwendet, um das Geisterbild-Patch durch das ausgewählte eingegebene Bild zu ersetzen, beginnend im Schritt
1940 . - Nachfolgend wird jeder der vier Phasen ausführlicher erörtert, beginnend mit der Bewegungsdetektierungsphase. Nach der Bildregistrierungsphase, die die dunklen und hellen Bilder auf die mittleren Bildkoordinaten fusioniert, versucht das Bewegungsdetektierungsschema, Differenzen zwischen den drei ausgerichteten Bildern zu erkennen. Die zugrundeliegende Annahme ist, dass diese Änderungen sich aus Bewegung in der Szene entwickeln können.
- Um eine lokale Bewegung effizient zu erkennen, kann eine herabgestufte Version der ausgerichteten Bilder verwendet werden, z. B. ist für 12 Megapixel-Bilder ein 1:16 Herabstufungsfaktor typisch. In dieser Phase kann jede Art von Differenzerfassungsalgorithmus verwendet werden, um zu erkennen, welche Pixel zwischen den Bildern unterschiedlich sind. Ein einfaches Detektierungsschema unterscheidet zwischen Bildern in Paaren, d. h., Mittel und Dunkel und Mittel und Hell, und kann die folgenden Schritte umfassen:
- – Berechnen von STD (Standardabweichung) und Mittelwert für jedes herabgestufte Bild:
- – Normieren der Bilder, um die gleiche STD und Mittelwert für jedes herabgestufte Bild zu haben;
- – Erzeugen einer absoluten Differenzabbildung der zwei herabgestuften Bilder: und,
- – Verwenden einer Schwelle auf der Differenzabbildung, um zwischen tatsächlichen Erfassungen und Registrierungsrauschen zu unterscheiden.
- Dieses Verfahren, wenn auch einfach und direkt, kann unter bestimmten Bedingungen zu einer unzuverlässigen und verrauschten Differenzabbildung führen. Zum Beispiel in gesättigten Feldern ist das helle Bild-Histogramm hoch gesättigt (die meisten Pixelwerts sind nahe 255), während das mittlere Bild-Histogramm nur teilweise gesättigt ist (nur ein Teil der Pixel ist nahe 255). Aufgrund des Abschneidens der Bildstärken (im hellen Bild) kann ein systematischer Fehler in die Berechnungen von STD und Mittelwert des hellen Bilds eingeführt werden. Außerdem kann die Differenzabbildung die Differenz zwischen dem abgeschnittenen Pixel im hellen Bild und dem teilweise gesättigten Pixel im mittleren Bild als Detektierung identifizieren, unabhängig von dem Vorhandensein sich bewegender Objekte.
- Daher wird ein anspruchsvolleres Bewegungsdetektierungsschema, das eine höhere Bewegungserfassungsleistung als das oben beschriebene erzeugt, für zusätzliche Ausführungsformen der vorliegenden Erfindung beschrieben. Dieses Verfahren beruht auf der Annahme, dass innerhalb des HDR-Rahmens das helle Bild nur dunklere Felder beeinflussen kann, während das dunkle Bild hellere Felder beeinflussen kann. Daher ist es nicht notwendig, die Information von dem unnötigen Bild in dem Bewegungsdetektierungsschema zu verwenden. Dieser Bewegungsdetektierungsalgorithmus folgt diesen Phasen:
- (a) Es werden zwei Helligkeitsschwellen definiert: HellTH – Information von dem Hellen Bild wird verwendet, wenn die Helligkeitswerte in dem Bereich [0, HellTH] sind, und DunkelTH – Information von dem Dunklen Bild wird verwendet, wenn die Helligkeitswerte in dem Bereich [DunkelTH, 255] sind.
- (b) Definieren einer Differenzschwellenfunktion: Anstelle der Verwendung eines einzigen Schwellwerts für die ganze Differenzabbildung wird eine Schwellenfunktion verwendet, wobei die Schwelle in diesem Fall von der Helligkeit des Pixels abhängt, so dass eine höhere Schwelle für höhere Lumas verwendet wird und umgekehrt.
- (c) Verarbeiten der Differenzabbildung des Hellen und Mittleren Bilds: – Pixel-Klassifizierung: Berücksichtigen nur von Pixeln mit Helligkeitswerten im Bereich [0, HellTH], die Pixel werden als BM_Pixel (Hell Mittel Pixel) bezeichnet; – Berechnen der STD und des Mittelwerts auf dem Satz von BM_Pixeln; – Normieren der BM_Pixel in beiden Bildern, um die gleiche STD und Mittelwert für jedes Bild zu haben; – Erzeugen einer absoluten Differenzabbildung der BM_Pixel; und – Verwenden der Schwellenfunktion an der Differenzabbildung, um Detektierungen zu identifizieren.
- (d) Verarbeiten der Differenzabbildung des Dunklen und Mittleren Bilds: – Pixel-Klassifizierung: Berücksichtigen nur von Pixeln mit Helligkeitswerten im Bereich [DunkelTH, 255], die Pixel werden als DM_Pixel (Dunkel Mittel Pixel) bezeichnet; – Berechnen von STD und Mittelwert an dem Satz von DM_Pixeln; – Normieren der DM_Pixel in beiden Bildern, um die gleiche STD und Mittelwert für jedes Bild zu haben; – Erzeugen einer absoluten Differenzabbildung der DM_Pixel; und – Verwenden der Schwellenfunktion an der Differenzabbildung, um Erfassungen zu erkennen.
- (e) Die Enderfassungsabbildung wird als eine Vereinigung der Dunkel-Mittel-Erfassungen und der Hell-Mittel-Erfassungen erhalten.
- Während die obige Beschreibung zwei Bilder bezüglich eines Bezugsbilds erörtert, versteht es sich, dass mehr als zwei verwendet werden können, ohne sich von den Lehren der Erfindung zu entfernen. Wenn zum Beispiel fünf Bilder verwendet werden, z. B. Hellstes, Hell, Mittel, Dunkel und Dunkelstes, können verschiedene Mischungen bezüglich des Mittleren Bilds hergestellt werden, um erwünschte Ergebnisse zu erhalten.
- Nach der Bewegungsdetektierungsphase werden typischerweise mehrere Pixel als uneinheitlich bezüglich der Helligkeitswerte identifiziert. Es ist das Ziel, diese Erfassungen in Patches (oder Bild-Blobs) zu clustern. Die Transformation der erfassten Pixel in ein ganzes Bild-Patch ermöglicht eine konsistente Geisterbild-Verarbeitung für benachbarte Pixel zum Preis der Erkennung von Pixeln ohne Bewegung als Detektierungen. Eine nicht einschränkende Clusteringtechnik, die einfach aber wirkungsvoll ist, zur Bestimmung der Geisterbild-Patches ist:
- (a) Anwenden einer morphologischen Dilatationsoperation am binären Bild der Detektierungen, mit einem Strukturierungselement, wie zum Beispiel einem 5×5 quadratischen Strukturierungselement;
- (b) Anwenden einer morphologischen Schließoperation auf das binäre Bild der Detektierungen mit einem Strukturierungselement, wie zum Beispiel einem 5×5 quadratischen Strukturierungselement;
- (c) Anwenden eines binären Kennzeichnungsalgorithmus, um zwischen verschiedenen Geisterbild-Patches zu unterscheiden; und
- (d) für eine effiziente Softwareimplementierung, Beschreiben jedes Geisterbild-Patches durch sein Begrenzungsachteck.
- Gemäß Ausführungsformen der vorliegenden Erfindung entscheidet die Patchauswahlphase über das am besten geeignete eingegebene Bild zum Ersatz des erkannten Patch. Eine falsche Auswahl für das Patch kann zu sichtbaren Artefakten am Rand des Patchfelds führen. Es gibt mehrere Heuristiken, die bei der Auswahl des am besten geeigneten eingegebenen Bilds helfen:
- – Das Patching-Artefakt ist sichtbarer in flachen Feldern als in Feldern mit Details oder Textur. Das menschliche Auge zeigt eine höhere Empfindlichkeit für Bildänderungen in DC-Feldern (z. B. undetailliert oder ”flach”) im Vergleich zu Feldern mit zusätzlichem Hochpassinhalt (Textur, Kanten, usw.).
- – Die Patchauswahl sollte mit den Verschmelzungsentscheidungen an den Rändern des Patch so gut wie möglich übereinstimmen. Durch Einhalten dieser Regel wird das Patch besser auf seine Umgebung zugeschnitten.
- – Patching-Artefakte sind besonders sichtbar, wenn die Randpixel überbelichtet oder unterbelichtet sind.
- – Wenn einige der Pixel überbelichtet und einige unterbelichtet sind, sollte die Mehrheit der Pixel die Auswahl des eingegebenen Bilds beeinflussen. Wenn es zum Beispiel deutlich mehr überbelichtete als unterbelichtete Pixel am Rand des Patch gibt, sollte das dunkle Bild gewählt werden, und umgekehrt, wenn anwendbar.
- Basierend auf diesen Heuristiken wählt der Patchauswahlalgorithmus konsequent das am besten geeignete eingegebene Bild für den Ersatz des Geisterbild-Patch aus. Der Patchauswahlalgorithmus basiert auf der Histogrammanalyse oder den mittleren herabgestuften Bildhelligkeitswerten, wie in
20 gezeigt. Die Grundidee ist, das Histogramm in drei unterschiedliche Felder aufzuteilen: unterbelichtetes Feld2010 , in dem das Helle Bild gewählt wird, das korrekt belichtete Feld2020 , in dem das Mittlere Bild gewählt wird, und das überbelichtete Feld2030 , in dem das Dunkle Bild gewählt wird. Wie beim Bewegungsdetektierungsalgorithmus definieren vordefinierte Schwellen HellTH2015 und DunkelTH2025 die drei Felder2010 ,2020 und2030 . Wenn mehr Bilder verwendet werden, können zusätzliche Schwellwerte verwendet werden, ohne den Rahmen der Erfindung zu verlassen. - Gemäß dieser Ausführungsform werden vor der tatsächlichen algorithmischen Beschreibung mehrere Parameter definiert:
-
- BereichGrößeB, BereichGrößeM, BereichGrößeD = die Größe des Helligkeitsbereichs jeder Zone.
- AnzPixelB, AnzPixelM, AnzPixelD = die Anzahl von Pixeln in jeder Zone.
-
- ModusB, ModusM, ModusD = der Helligkeitswert in jeder Histogrammzone, in der das Histogramm maximal ist.
- DiffB, DiffM, DiffD = die mittlere Differenz der Histogramm-Eingaben vom Modus Helligkeitswert für jede Histogrammzone. d. h.: wobei Hist(i) die Histogrammfrequenz für den iten Helligkeitswert darstellt und p die Differenzmetrik definiert (die besten Ergebnisse wurden mit p = 1 oder 2 erhalten). Es versteht sich, dass DiffM und DiffD in gleicher Weise dargestellt werden können.
- Gemäß dieser Ausführungsform weist der Patchauswahlalgorithmus die folgenden Phasen auf:
- (a) Berechnen eines gewichteten Histogramms der Helligkeitswerte von Pixeln in den Grenzfeldern eines spezifischen Patch innerhalb des herabgestuften mittleren Bilds. Das Histogramm wird in dem Sinne gewichtet, dass Pixel mit übersättigten oder untersättigten Helligkeitswerten eine größere Auswirkung auf die Histogrammfrequenzzahlen haben. Auf diese Weise haben überbelichtete und unterbelichtete Zonen des Histogramms mehr Wirkung auf den Patchauswahlalgorithmus, wodurch die zugeordneten Artefakte überwunden werden.
- (b) Aufteilen des Histogramms in drei Zonen gemäß HellTH, DunkelTH-Parametern.
- (c) Durchführen der folgenden Berechnungen: Berechnen der Bereichsgröße für jede Histogrammzone (BereichGrößeB, BereichGrößeM, BereichGrößeD); Berechnen der Anzahl von Pixeln für jede Histogrammzone (AnzPixelB, AnzPixelM, AnzPixelD); Berechnen der effektiven Anzahl von Pixeln für jede Histogrammzone (EffAnzPixelB, EffAnzPixelM, EffAnzPixelD); Berechnen des Modus des Histogramms in jeder Histogrammzone (ModusB, ModusM, ModusD); und Berechnen des durchschnittlichen Unterschieds zum Modus in jeder Histogrammzone (DiffB, DiffM, DiffD),
- (d) Berechnen einer Bewertungsfunktion für jede Histogrammzone. Die Bewertungsfunktion für die Auswahl des Hellen Bilds wird definiert als: Bewertungsfunktionen für die Mittel- und Dunkel-Auswahlen werden ähnlich definiert. Außerdem können ähnliche Techniken verwendet werden, wenn mehr als drei Bilder verwendet werden, und daran angepasst werden, ohne den Rahmen der Erfindung zu verlassen.
- (e) Nach der Berechnung aller drei Bewertungsfunktionen definiert die Zone mit der maximalen Bewertung das Patchauswahlergebnis. Die Bewertungsfunktion umfasst eine Aufteilung von zwei nachfolgend beschriebenen berechneten Messungen, obwohl es einem Durchschnittsfachmann sofort klar wäre, dass andere Bewertungsfunktionen möglich sind, ohne den Rahmen der Erfindung zu verlassen: EffAnzPixelB – wenn der Rand des Patchs hauptsächlich aus Pixeln mit niedrigen Helligkeitswerten besteht (d. h. im Hellen Bereich des Histogramms), wird das helle Bild gewählt. Anstatt die Anzahl von Pixeln selbst zu verwenden, wird ihre gewichtete Version verwendet, die auch die Größe jedes Histogrammbereichs berücksichtigt (effektive Anzahl von Pixeln); und DiffB – Wie oben bezüglich der Auswahlheuristiken des Patch erörtert, wird es bevorzugt, wenn Verblendung ein mögliches Artefakt ist, dass ein solches Artefakt in einem Feld mit sichtbarer Textur oder Details und nicht in flachen Feldern erscheint. Messungen der Menge von ”Flachheit” über das Patchrand-Histogramm sind daher notwendig. In jeder Histogrammzone, wird ein Diff-Wert berechnet, um zu messen, wie gestreut das Histogramm tatsächlich ist. Kleinere Diff-Werte lassen vermuten, dass die Randpixel (die Teil der gleichen Histogrammzone sind) ähnliche Helligkeitswerte haben, daher als ”flach” bezeichnet werden können. Ein gestreutes Histogramm, andererseits, stellt eher Textur oder Details dar. Die umgekehrte Beziehung zwischen der Bewertung und dem Diff-Wert unterstützt die Bevorzugung des eingegebenen Bilds, das am besten zur flachen Zone des Histogramms passt.
- Gemäß dieser Ausführungsform wird nach der Geisterbild-Detektierung und Patch-Erzeugung basierend auf den Helligkeitswerten der herabgestuften Bilder die Patch-Korrektur an dem Vollgröße-Mischergebnis der eingegebenen Bilder angewendet. Die Korrekturphase besteht aus den folgenden Phasen:
- (a) Glätten von Begrenzungsachtecken-Anstatt das Begrenzungsachteck als ein binäres Bild darzustellen, wird eine 8-Bit-Darstellung oder andere Darstellung mit weniger als maximaler Auflösung verwendet, und zum Beispiel ein Tiefpassfilter (LPF), z. B. ein 7×7 LPF, auf das Begrenzungsachteck angewendet, um die Kanten des ausgewählten Patchs zu glätten. Dies führt letzten Endes zu einem glätteren Verschmelzen zwischen dem eingeführten Patch und seiner HDR-angetriebenen Umgebung. Das glatte Patchbild wird als die Patchmaske bezeichnet. Das angewendete Tiefpassfilter kann durch Parameterwerte bestimmt werden.
- (b) Hochstufen des glatten Patchbilds zurück zur vollen Bildauflösung. Das resultierende Bild wird als die Patchmaske, Wpatch, bezeichnet.
- (c) Verschmelzen zwischen dem laufenden HDR-Mischergebnis (bezeichnet als HDRcur) und dem ausgewählten Patcheingabebild (als Ipatch bezeichnet) gemäß der Patchmaske wie folgt:
HDRout = (1 – Wpatch)·HDRcur + Wpatch·Ipatch - Gemäß dieser Ausführungsform wird am Ende der Bildfusionsphase das resultierende Hochdynamikbereich-Bild als ein lineares RGB-Bild mit 12 Bits pro Farbkomponente dargestellt. Die Tone-Mapping-Aufgabe ist es, die 12-Bit-Darstellung in eine 8-Bit-Darstellung umzuwandeln, beginnend im Schritt
1950 der19 . Diese Phase wird benötigt, um es zu ermöglichen, das Bild auf üblichen Anzeigeeinrichtungen zu präsentieren. Die Hauptherausforderung in dieser Phase ist es, ein intelligentes Tone-Mapping durchzuführen, das den sichtbaren Mehrwert des Bildfusionsprozesses sogar in der 8-Bit-Darstellung beibehält. - Bei PC-basierenden HDR-Algorithmen wird die Tone-Mapping-Phase üblicherweise pro HDR-Szene zugeschnitten und optimiert und erfordert regelmäßig ein menschliches Eingreifen. Das beschriebene Verfahren liefert eine Tone-Mapping-Lösung in der Kamera, in Echtzeit und auf Hardware basierend, die ihr Verhalten gemäß den Eigenschaften der aufgenommenen Szene adaptiv ändern kann.
- Während es viele mögliche Techniken zur Durchführung des Tone-Mappings gibt, basiert der offenbarte Tone-Mapping-Algorithmus auf zwei verschiedenen Umwandlungen, die von vordefinierten LUTs gesteuert werden:
- (a) Global Mapping-Durchführen eines gamma-ähnlichen Mappings am HDR-Fusionsergebnis (wobei die 12-Bits-pro-Farbe-Komponente noch beibehalten wird). Das Mapping ist üblicherweise das Gegenteil der Gamma-Korrektur-Operation, die zu Beginn der Fusionsphase des HDR-Algorithmus verwendet wird. Diese Auswahl wird getroffen, da es vorteilhaft ist, eine Gleichheit der Farben und der Atmosphäre der eingegeben Bilder aufrechtzuerhalten.
- (b) Local Mapping-Durchführen eines nicht-linearen lokalen Mappings, das ein Pixel gemäß den mittleren Helligkeitswerten seines Nachbarn in einer 8-Bit-Darstellung pro Farbkomponente abbildet. Ein solcher Tone-Mapping-Operator ist ausgezeichnet bei der Kompression im dynamischen Bereich, während er einen lokalen Kontrast beibehält, während Tone-Mapping-Operationen, die nur die Pixelinformation verwenden, dahin tendieren, den lokalen Kontrast zu beschädigen.
- Da die LUTs dieser Mappings vordefiniert sind, ist eine einfache Möglichkeit, das Verhalten des Tone-Mapping- adaptiv zu verändern, die Definition einer Familie von Local-Mapping-LUTs (mit einer einzigen Global-Mapping-LUT) und die Verwendung einer gewählten LUT, die für jede HDR-Operation repräsentativ ist. Dies erfordert aber einige zusätzliche Heuristiken und eine Vorverarbeitungs-Untersuchung, um zu erfassen, in welchem Szenario eine spezifische LUT zu verwenden ist. Zum Beispiel kann man die Helligkeitswerte der eingegebenen Bilder verwenden, um zu erkennen, in welcher LUT sie zu verwenden sind.
- Es ist eine anspruchsvollere Lösung für die Herausforderung des adaptiven Tone-Mappings, die über kontrastierende Ausführungsformen der vorliegenden Erfindung geliefert wird, eine Online-Änderung der Mappings durchzuführen, um den ganzen Dynamikbereich der Szene zu erfassen. Daher wird gemäß diesen Ausführungsformen ein zusätzliches Global Mapping auf der Helligkeitskomponente des HDR-Fusionsergebnisses direkt nach der Gamma-Transformation eingeführt. Die zusätzliche globale Transformation leitet sich von der Einheits-Transformation (Y = X) ab, um zusätzliche Grautonstufen für häufigere Helligkeitswerte zuzuweisen. Wenn zum Beispiel ein dominanter Teil des Bilds hell ist, werden mehr Grautonstufen für helle Helligkeitspegel zu Lasten dunkler Helligkeitspegel zugewiesen. Durch Verwendung dieses adaptiven Mappings mit einer vordefinierten Gamma-LUT und Local-Mapping-LUT kann man sich ähnlicher Farben wie im Ursprungsbild erfreuen, die Helligkeitspegel (ohne die Szenenfarben zu beeinflussen) an das adaptive Mapping anpassen und durch Definieren der Local-Mapping-LUT Varianten zum HDR Tone-Mapping-Ergebnis hinzufügen.
- Der vorgeschlagene adaptive Tone-Mapping-Algorithmus umfasst die folgenden Phasen:
- (a) Konstruieren eines Helligkeits-Histogramms des HDR-Bilds nach der Gamma-LUT-Umwandlung. Da dies sich rechnermäßig als teuer erweisen kann, kann ein geschätztes Histogramm durch Verwendung einer Kombination von Histogrammen der herabgestuften eingegebenen Bilder erzeugt werden. Das geschätzte Histogramm wird unter Verwendung der folgenden Schritte erhalten:
- (a1) Umwandeln der drei Bilder in den Gamma-Bereich mit Belichtungskompensation, wobei die Belichtungskompensation gewährleistet, dass die Helligkeitspegel in allen Bildern ausgerichtet sind;
- (a2) Berechnen eines Helligkeitspegel-Histogramms für die drei Bilder Ĩdunkel, Ĩmittel, Ĩhell, und
- (a3) Vereinen der drei Histogramme in ein einziges HDR-Histogramm durch Verwendung von zwei vordefinierten Schwellen HellTH und DunkelTH- wobei HistHDR das kombinierte Histogramm darstellt, und Histhell, Histmittel, Histdunkel das Histogramm der eingegebenen Bilder nach Belichtungskompensation und Gamma-LUT darstellen.
- (b) Definieren eines Mappings gemäß der Verteilung von Helligkeitswerten. Ein fernerer Bereich von Ausgangsstufen sollte den am stärksten bestückten Zonen des Helligkeits-Histogramms gegeben werden. Eine der beliebtesten Techniken zur Definition eines solchen Mappings ist als Histogrammausgleich bekannt. Hier wird ein ähnliches Konzept verwendet:
- (b1) Normieren des Histogramms,
- (b2) Berechnen der kumulativen Verteilungsfunktion,
- (b3) Definieren des Mappings als T(i) = α·Pr(i) + (1 – α)·i wobei α ∊ [0, 1] ein Stärkefaktor ist, der zwischen der Histogrammausgleich-Transformation und der Einheits-Transformation verschmilzt. Der Stärkefaktor ist in Fällen nützlich, in denen der Histogrammausgleich zu aggressiv ist und zu einer Verschlechterung der Bildqualität führen kann.
- Nachdem so mehrere Aspekte von Ausführungsformen der Erfindung beschrieben wurden, versteht es sich, dass dem Fachmann verschiedene Änderungen, Abänderungen und Verbesserungen in den Sinn kommen. Solche Änderungen, Abänderungen und Verbesserungen sollen Teil dieser Offenbarung sein und sollen sich im Rahmen der Erfindung befinden. Dementsprechend dienen die vorhergehende Beschreibungen und die Zeichnungen nur als Beispiel.
- Entsprechend der üblichen Praxis der Fachleute auf dem Gebiet der Computerprogrammierung werden nachfolgend Ausführungsformen unter Bezug auf Operationen beschrieben, die von einem Computersystem oder einem ähnlichen elektronischen System ausgeführt werden. Solche Operationen werden manchmal als Computer-ausgeführt bezeichnet. Es versteht sich, dass symbolisch dargestellte Operationen die Manipulation durch einen Prozessor, wie eine zentrale Verarbeitungseinheit, von elektrischen Signalen, die Datenbits darstellen, und die Pflege von Datenbits an Speicherstellen, wie in einem Systemspeicher, sowie andere Signalverarbeitungen umfassen. Die Speicherstellen, wo Datenbits gepflegt werden, sind physikalische Stellen, die besondere elektrische, magnetische, optische oder organische Eigenschaften haben, die den Datenbits entsprechen.
- Wenn sie in Software implementiert werden, sind die Elemente der Ausführungsformen hauptsächlich die Codesegmente, um die notwendigen Aufgaben auszuführen. Die nicht-vorübergehenden Codesegmente können in einem prozessorlesbaren Datenträger oder einem computerlesbaren Datenträger gespeichert sein, der jeden Datenträger umfassen kann, der Information speichern oder übertragen kann. Beispiele solcher Datenträger umfassen eine elektronische Schaltung, eine Halbleiterspeichervorrichtung, einen Lesespeicher (ROM), einen Flash-Speicher oder anderen nicht-flüchtigen Speicher, eine Floppy-Disk, eine CD-ROM, eine optische Diskette, einen Festplatte, einen faseroptischen Datenträger, eine Funkfrequenzverbindung (RF), usw. Die Benutzereingabe kann jede Kombination einer Tastatur, Maus, Berührungsbildschirm, Sprachsteuerungseingabe usw. umfassen. Die Benutzereingabe kann in gleicher Weise genutzt werden, um eine Browseranwendung, die auf einer Rechenvorrichtung eines Benutzers arbeitet, zu einer oder mehreren Netzwerkressourcen zu lenken, wie Webseiten, von denen auf Rechenressourcen zugegriffen werden kann.
- Während die Erfindung in Verbindung mit spezifischen Beispielen und verschiedenen Ausführungsformen beschrieben wurde, versteht der Fachmann, dass viele Abänderungen und Anpassungen der hier beschriebenen Erfindung möglich sind, ohne den Rahmen der Erfindung, wie sie nachfolgend beansprucht wird, zu verlassen. Daher ist klar, dass diese Anmeldung nur als Beispiel und nicht als Einschränkung des Rahmens der Erfindung, wie sie nachfolgend beansprucht wird, dient. Die Beschreibung soll beliebige Variationen, Verwendungen oder Anpassungen der Erfindung abdecken, die allgemein den Prinzipien der Erfindung folgen und einschließlich solcher Abweichungen von der vorliegenden Offenbarung, wie sie im Bereich der bekannten und üblichen Praxis auf dem Gebiet der Technik liegen, zu dem die Erfindung gehört.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Nicht-Patentliteratur
-
- ”High Dynamic Range Imaging Acquisition, Display, and Image-Based Lighting” der Autoren Erik Reinhard, Sumanta Pattanaik, Greg Ward und Paul Debevec, veröffentlicht von Morgan Kaufmann Publishers, Copyright 2005 von Elsevier, Inc. [0006]
- ”High Dynamic Range Video” von S. B. Kang, M. Uyttendaele, S. Winder und R. Szeliski, Interactive Visual Media Group, Microsoft Research, Redmond, WA, 2003 [0067]
Claims (20)
- Verfahren zum Mischen einer Vielzahl digitaler Bilder einer Szene, das umfasst: Aufnehmen der Bilder bei unterschiedlichen Belichtungsstufen; Registrieren von Gegenstückpixeln jedes Bilds zueinander; Ableiten einer normierten Bildbelichtungsstufe für jedes Bild; Einsetzen der normierten Bildbelichtungsstufe in einem Bildverschmelzungsprozess; Verwenden des Bildverschmelzungsprozesses, um ein erstes ausgewähltes Bild und ein zweites ausgewähltes Bild zu verschmelzen, um ein Zwischenbild zu erzeugen, und wenn die Vielzahl aus zwei Bildern besteht, Ausgeben des Zwischenbilds als ein gemischtes Ausgabebild; und wenn die Vielzahl aus mehr als zwei Bildern besteht, Wiederholen des Bildverschmelzungsprozesses unter Verwendung des vorher erzeugten Zwischenbilds anstelle des ersten ausgewählten Bilds und eines anderen ausgewählten Bilds anstelle des zweiten ausgewählten Bilds, bis alle Bilder verschmolzen sind, und Ausgeben des zuletzt erzeugten Zwischenbilds als das gemischte Ausgabebild.
- Verfahren nach Anspruch 1, das ferner umfasst: selektives Umwandeln der Bilder von einem niedrigeren Bits-pro-Pixel-Format in ein höheres Bits-pro-Pixel-Format vor der Verwendung des Bildverschmelzungsprozesses; und selektives Umwandeln des gemischten Ausgabebilds in ein vorbestimmtes niedrigeres Bits-pro-Pixel-Format.
- Verfahren nach Anspruch 1, wobei der Bildverschmelzungsprozess die Gegenstückpixel von zwei Bildern verschmilzt und umfasst: Ableiten eines Luma-Werts für ein Pixel im zweiten ausgewählten Bild; Verwenden des Luma-Werts eines zweiten ausgewählten Bildpixels als ein Index in eine Nachschlagetabelle, um einen Gewichtungswert zwischen den Zahlen Null und Eins zu erhalten; Verwenden des Gewichtungswerts, der normierten Belichtungsstufe des zweiten ausgewählten Bilds und des zweiten ausgewählten Bildpixels, um ein verarbeitetes zweites ausgewähltes Bildpixel zu erzeugen; Auswählen eines ersten ausgewählten Bildpixels, das dem zweiten ausgewählten Bildpixel entspricht; Verwenden des ersten ausgewählten Bildpixels und des Ergebnisses der Subtraktion des Gewichtungswerts von Eins, um ein verarbeitetes erstes ausgewähltes Bildpixel zu erzeugen; Addieren des verarbeiteten ersten ausgewählten Bildpixels zum verarbeiteten zweiten ausgewählten Gegenstückbildpixel, um ein verschmolzenes Bildpixel zu erzeugen; und Wiederholen der obigen Verarbeitungsfolge, bis jedes zweite ausgewählte Bildpixel mit seinem ersten ausgewählten Gegenstückbildpixel verschmolzen ist.
- Verfahren nach Anspruch 3, wobei der erhaltene Gewichtungswert abnimmt, wenn der als der Index in die Nachschlagetabelle verwendete Luma-Wert zunimmt.
- Verfahren nach Anspruch 3, das ferner die Verwendung einer unterschiedlichen Nachschlagetabelle für jedes Bild enthält, um den Gewichtungswert zu erhalten.
- Verfahren nach Anspruch 1, wobei das Bildmischen vor der Aufnahme aller Bilder der Vielzahl beginnt.
- Verfahren nach Anspruch 1, wobei das Bildmischen direkt nach der Aufnahme des zweiten Bilds der Vielzahl beginnt.
- Prozessorlesbarer Datenträger, der Anweisungen zum Entfernen ortsverschobener Wiedergaben von Szeneobjekten umfasst, die in einem gemischten Bild erscheinen, das von einem digitalen Bildmischprozess erzeugt wird, der auf eine Vielzahl von Bildern angewendet wird, die bei unterschiedlichen Belichtungsstufen und zu verschiedenen Zeiten erfasst werden, wobei die Bilder ihre Gegenstückpixel zueinander registriert haben, wobei die Ausführung der Anweisungen durch einen Prozessor Aktionen ermöglicht, die umfassen: Normieren der Luma-Werte der Bilder auf eine spezifische Standardabweichung und Mittelwert; Detektieren einer lokalen Bewegung zwischen mindestens einem Bezugsbild und mindestens einem Vergleichsbild; Clustern von Vergleichsbildpixeln mit lokaler Bewegung in Patches; Auswählen entsprechender Patches aus dem Bezugsbild; Erzeugen eines verbundenen binären Bilds durch logisches Verodern der von bestimmten Bezugsbildern erzeugten Patches zusammen; und Verschmelzen des gemischten Bilds mit den Bezugsbildern, wobei jedes Bezugsbild durch einen Gewichtungswert gewichtet wird, der aus dem verbundenen binären Bild berechnet wird, um ein Ausgabebild zu erzeugen.
- Datenträger nach Anspruch 8, wobei das Detektieren lokaler Bewegung ferner umfasst: Bestimmen einer absoluten Luma-Varianz zwischen jedem Pixel des Bezugsbilds und dem Vergleichsbild, um ein Differenzbild zu erzeugen; und Identifizieren von Differenzbildzonen mit absoluten Luma-Varianzen, die eine Schwelle überschreiten.
- Datenträger nach Anspruch 8, wobei das Clustern umfasst: Finden von Sätzen erkannter Bild-Blobs unter Verwendung morphologischer Operationen; und Begrenzen jedes Satzes durch ein Polygon.
- Datenträger nach Anspruch 8, wobei die als Bezugsbilder verwendeten ausgewählten Bilder mindestens eines umfassen aus: dem Bild mit der niedrigsten Belichtungsstufe, dem Bild mit der höchsten Belichtungsstufe und einem Bild mit einer Zwischenbelichtungsstufe.
- Datenträger nach Anspruch 8, wobei der Luma-Wert der zu verarbeitenden Bilder vor dem Verarbeiten herabgestuft wird.
- Datenträger nach Anspruch 8, der ferner das Auswählen von Bezugsbildern umfasst durch: für ein Kandidat-Bezugsbild eines Zwischenbelichtungswerts, Berechnen einer Summe von Feldern gesättigter Zonen und eines Verhältnisses der Summe von gesättigten Feldern zu Gesamt-Patchfeldern; und Auswählen des Kandidat-Bezugsbilds als das Bezugsbild, wenn das Verhältnis geringer als ein oder gleich einem Parameterwert ist, und Auswählen eines Bilds von weniger als dem Zwischenbelichtungswert als das Bezugsbild, wenn das Verhältnis größer als der Parameterwert ist.
- Bildaufnahmevorrichtung, die eine Vielzahl digitaler Bilder einer Szene bei verschiedenen Belichtungsstufen aufnimmt, die umfasst: einen Bildregistrierungsprozessor, der Gegenstückpixel jedes Bilds der Vielzahl zueinander registriert; einen Bildmischer, der viele Bilder der Vielzahl kombiniert, um ein einziges Bild zu erzeugen, wobei der Bildmischer umfasst: einen Bildnormierer, der die Bildbelichtungsstufe für jedes Bild normiert; und einen Bildverschmelzer, der die normierte Belichtungsstufe verwendet, um ein erstes ausgewähltes Bild und ein zweites ausgewähltes Bild zu verschmelzen, um ein Zwischenbild zu erzeugen, und wenn die Vielzahl aus zwei Bildern besteht, das Zwischenbild als ein gemischtes Ausgabebild ausgibt, und wenn die Vielzahl aus mehr als zwei Bildern besteht, das vorher erzeugte Zwischenbild wiederholt anstelle des ersten ausgewählten Bilds und ein anderes ausgewähltes Bild anstelle des zweiten ausgewählten Bilds verschmilzt, bis alle Bilder verschmolzen sind, und das zuletzt erzeugte Zwischenbild als das gemischte Ausgabebild ausgibt.
- Bildaufnahmevorrichtung nach Anspruch 14, die ferner einen Gamma-Korrektur-Wandler umfasst, der selektiv die Bilder von einem niedrigeren Bits-pro-Pixel-Format in ein höheres Bits-pro-Pixel-Format vor der Bildmischung umwandelt, und selektiv das gemischte Ausgabebild in ein vorbestimmtes niedrigeres Bits-pro-Pixel-Format umwandelt.
- Bildaufnahmevorrichtung nach Anspruch 14, die ferner umfasst: eine Luma-Umwandlungsschaltung, die den Luma-Wert eines eingegebenen Pixels ausgibt; eine Nachschlagetabelle, die einen Gewichtungswert zwischen den Zahlen Null und Eins für einen eingegebenen Luma-Wert ausgibt; eine Verarbeitungsschaltung, die einen abgeleiteten Luma-Wert für ein Pixel in dem zweiten ausgewählten Bild von der Luma-Umwandlungsschaltung erfasst, einen Gewichtungswert von der Nachschlagetabelle für den abgeleiteten Luma-Wert erhält, und ein verarbeitetes zweites ausgewähltes Bildpixel von dem zweiten ausgewählten Bildpixel, die normierte Belichtungsstufe des zweiten ausgewählten Bilds und den Gewichtungswert erzeugt; eine zweite Verarbeitungsschaltung, die als Eingaben das Ergebnis der Subtraktion des Gewichtungswerts von Eins und das erste ausgewählte Bildpixel entsprechend dem zweiten ausgewählten Bildpixel empfängt und ein verarbeitetes erstes ausgewähltes Bildpixel erzeugt; und eine Additionsschaltung, die das verarbeitete erste ausgewählte Bildpixel zum verarbeiteten zweiten ausgewählten Bildpixel addiert, um ein verschmolzenes Bildpixel zu erzeugen.
- Bildaufnahmevorrichtung nach Anspruch 16, die einen geringeren Gewichtungswert ausgibt, wenn der eingegebene Luma-Wert in die Nachschlagetabelle zunimmt.
- Bildaufnahmevorrichtung nach Anspruch 16, die eine erste Nachschlagetabelle für das erste ausgewählte Bild und eine zweite Nachschlagetabelle für das zweite ausgewählte Bild verwendet.
- Bildaufnahmevorrichtung nach Anspruch 14, die das Mischen der Vielzahl von Bildern vor der Aufnahme aller Bilder der Vielzahl beginnt.
- Bildaufnahmevorrichtung nach Anspruch 14, die das Mischen der Vielzahl von Bilder direkt nach der Aufnahme des zweiten Bilds der Vielzahl beginnt.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/090,985 | 2011-04-20 | ||
US13/090,985 US8525900B2 (en) | 2009-04-23 | 2011-04-20 | Multiple exposure high dynamic range image capture |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102012007838A1 true DE102012007838A1 (de) | 2012-11-15 |
Family
ID=46209272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102012007838A Pending DE102012007838A1 (de) | 2011-04-20 | 2012-04-19 | Hochdynamikbereich-Bildaufnahme mit Mehrfachbelichtung |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102012007838A1 (de) |
GB (1) | GB2490231B (de) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2537886B (en) * | 2015-04-30 | 2022-01-05 | Wsou Invest Llc | An image acquisition technique |
CN112995518A (zh) * | 2021-03-12 | 2021-06-18 | 北京奇艺世纪科技有限公司 | 一种图像生成方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100316717B1 (ko) * | 1999-10-05 | 2001-12-20 | 윤종용 | 영상처리 시스템의 다이나믹 레인지 확대 장치 및 방법 |
KR100827238B1 (ko) * | 2006-08-21 | 2008-05-07 | 삼성전기주식회사 | 고화질 영상을 위한 영상 표시 방법 및 장치 |
US8570396B2 (en) * | 2009-04-23 | 2013-10-29 | Csr Technology Inc. | Multiple exposure high dynamic range image capture |
US8525900B2 (en) * | 2009-04-23 | 2013-09-03 | Csr Technology Inc. | Multiple exposure high dynamic range image capture |
US8237813B2 (en) * | 2009-04-23 | 2012-08-07 | Csr Technology Inc. | Multiple exposure high dynamic range image capture |
-
2012
- 2012-04-18 GB GB1206833.4A patent/GB2490231B/en active Active
- 2012-04-19 DE DE102012007838A patent/DE102012007838A1/de active Pending
Non-Patent Citations (2)
Title |
---|
"High Dynamic Range Imaging Acquisition, Display, and Image-Based Lighting" der Autoren Erik Reinhard, Sumanta Pattanaik, Greg Ward und Paul Debevec, veröffentlicht von Morgan Kaufmann Publishers, Copyright 2005 von Elsevier, Inc. |
"High Dynamic Range Video" von S. B. Kang, M. Uyttendaele, S. Winder und R. Szeliski, Interactive Visual Media Group, Microsoft Research, Redmond, WA, 2003 |
Also Published As
Publication number | Publication date |
---|---|
GB2490231B (en) | 2017-09-20 |
GB201206833D0 (en) | 2012-05-30 |
GB2490231A (en) | 2012-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112018002228B4 (de) | Konfigurierbare faltungsmaschine für verschachtelte kanaldaten | |
Li et al. | Detail-enhanced multi-scale exposure fusion | |
US8525900B2 (en) | Multiple exposure high dynamic range image capture | |
US11244432B2 (en) | Image filtering based on image gradients | |
US8570396B2 (en) | Multiple exposure high dynamic range image capture | |
DE102011078662B4 (de) | Erfassen und Erzeugen von Bildern mit hohem Dynamikbereich | |
EP2515273B1 (de) | Bilderfassung mit mehrfacher Belichtung und hoher dynamischer Bandbreite | |
DE602006000400T2 (de) | Bildsegmentierungsverfahren und -system | |
DE60132278T2 (de) | Rauschverminderungsverfahren unter Verwendung von Farbinformationen, einer Vorrichtung und eines Programms zur Digital-Bildverarbeitung | |
DE102016115292B4 (de) | Verfahren und Vorrichtung zur automatischen Belichtungswerterfassung für High Dynamic Range Imaging | |
DE112008001990B4 (de) | Belichtungssteuerung für ein Bildgebungssystem | |
DE112006001017B4 (de) | Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur | |
DE60225296T2 (de) | Allzweckbildverbesserungsalgorithmus, der details in digitalbildern visuell besser erkennbar macht | |
DE112017005193T5 (de) | Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildaufnahmevorrichtung | |
DE60127016T2 (de) | Verfahren und Gerät zur Durchführung einer lokalen Farbkorrektur | |
US20100303372A1 (en) | Digital image processing and enhancing system and method with function of removing noise | |
DE112008001052T5 (de) | Bildsegmentierung und -Verbesserung | |
DE112016001040T5 (de) | Verfahren und System zur Echtzeit-Rauschbeseitung und -Bildverbesserung von Bildern mit hohem Dynamikumfang | |
Vonikakis et al. | Multi-exposure image fusion based on illumination estimation | |
Lee et al. | Image contrast enhancement using classified virtual exposure image fusion | |
DE112016002322T5 (de) | Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Programm, das Programm aufzeichnendes Aufzeichnungsmedium, Bilderfassungsvorrichtung und Bildaufzeichnungs-/Bildwiedergabevorrichtung | |
DE102020200310A1 (de) | Verfahren und System zur Dunstreduzierung für die Bildverarbeitung | |
CN111353955A (zh) | 一种图像处理方法、装置、设备和存储介质 | |
Mandal et al. | FuzzyCIE: fuzzy colour image enhancement for low-exposure images | |
DE102014102011B4 (de) | System und Verfahren zum Erzeugen eines Bildes mit einem breiten dynamischen Bereich |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: OLSWANG GERMANY LLP, DE |
|
R081 | Change of applicant/patentee |
Owner name: QUALCOMM INC. (N.D.GES.D. STAATES DELAWARE), S, US Free format text: FORMER OWNER: CSR TECHNOLOGY INC., SUNNYVALE, CALIF., US Effective date: 20141112 Owner name: QUALCOMM TECHNOLOGIES, INC. (N.D.GES.D. STAATE, US Free format text: FORMER OWNER: CSR TECHNOLOGY INC., SUNNYVALE, CALIF., US Effective date: 20141112 |
|
R082 | Change of representative |
Representative=s name: MAUCHER JENKINS, DE Effective date: 20141112 Representative=s name: OLSWANG GERMANY LLP, DE Effective date: 20141112 Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE Effective date: 20141112 |
|
R081 | Change of applicant/patentee |
Owner name: QUALCOMM INC. (N.D.GES.D. STAATES DELAWARE), S, US Free format text: FORMER OWNER: QUALCOMM TECHNOLOGIES, INC. (N.D.GES.D. STAATES DELAWARE), SAN DIEGO, CALIF., US |
|
R082 | Change of representative |
Representative=s name: MAUCHER JENKINS, DE Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE |
|
R012 | Request for examination validly filed |