DE60218317T2 - Verfahren und system zur herstellung von auf geometrischen verzerrungen bezogenen formatierten informationen - Google Patents

Verfahren und system zur herstellung von auf geometrischen verzerrungen bezogenen formatierten informationen Download PDF

Info

Publication number
DE60218317T2
DE60218317T2 DE60218317T DE60218317T DE60218317T2 DE 60218317 T2 DE60218317 T2 DE 60218317T2 DE 60218317 T DE60218317 T DE 60218317T DE 60218317 T DE60218317 T DE 60218317T DE 60218317 T2 DE60218317 T2 DE 60218317T2
Authority
DE
Germany
Prior art keywords
image
formatted information
property
measured
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60218317T
Other languages
English (en)
Other versions
DE60218317D1 (de
Inventor
Benoit Chauville
Frederic Guichard
Jean-Marc Lavest
Bruno Liege
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DO Labs SA
Original Assignee
DO Labs SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR0109291A external-priority patent/FR2827459B1/fr
Priority claimed from FR0109292A external-priority patent/FR2827460B1/fr
Priority claimed from FR0112664A external-priority patent/FR2830401B1/fr
Application filed by DO Labs SA filed Critical DO Labs SA
Application granted granted Critical
Publication of DE60218317D1 publication Critical patent/DE60218317D1/de
Publication of DE60218317T2 publication Critical patent/DE60218317T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/58Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimiles In General (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Image Analysis (AREA)

Description

  • Die Erfindung bezieht sich auf ein Verfahren und ein System zur Herstellung von auf geometrische Verzerrungen bezogenen formatierten Informationen.
  • Das Dokument WO 01/35052 A (ARMSTRONG BRIAN S; SCHMIDT KARL B (US)) vom 17. Mai 2001 (17.05.2001) verbreitet ein Verfahren zur Herstellung von Informationen bezüglich geometrischer Verzerrungen in Photogrammetrik. Sein System mit Linsen weist feste Eigenschaften und variable Eigenschaften auf, die einem oder mehreren Eigenschaftswerten zugeordnet werden können. Aus einem gemessenen Feld stellt sein Verfahren gemessene, auf geometrische Verzerrungen bezogene Informationen sowie auch weitere Informationen, die eine Abweichung im Verhältnis zu den gemessenen Informationen aufweisen, her. Die aus den gemessenen Informationen hergestellten Informationen werden von den Parametern eines parametrierbaren Modells dargestellt. Das gemessene Feld wird durch die Bemessung von Punkten des Bildes, die von besonderem Interesse sind, zum Beispiel durch Erkennung einer Bezugskennzeichnung, erhalten.
  • Lösung
  • Verfahren
  • Die Erfindung bezieht sich auf ein Verfahren zur Herstellung von formatierten Informationen im Zusammenhang mit den Geräten einer Gerätkette wie im Anspruch 1 beschrieben. Die Gerätkette enthält dabei vor allem zumindest ein Bilderfassungsgerät und/oder zumindest ein Bildwiedergabegerät. Das Verfahren besteht aus dem Schritt zur Herstellung von formatierten Informationen, die auf die geometrischen Verzerrungen von zumindest einem Gerät der Kette bezogenen sind.
  • Vorzugweise kann nach der Erfindung ein Bild erfasst oder auf einem Support wiedergegeben werden. Dabei weist das Gerät je nach Bild zumindest eine feste Eigenschaft und/oder eine variable Eigenschaft auf. Die feste Eigenschaft und/oder variable Eigenschaft kann einem oder mehreren Werten zugeordnet werden, im Speziellen die Brennweite und/oder die Scharfstellung und ihre entsprechenden Eigenschaftswerte. Das Verfahren besteht aus dem Schritt zur Herstellung von gemessenen formatierten Informationen im Zusammenhang mit geometrischen Verzerrungen des Geräts ausgehend von einem gemessenen Feld. Die formatierten Informationen können dabei die gemessenen formatierten Informationen enthalten.
  • Erweiterte formatierte Informationen und Abweichung
  • Vorzugweise besteht darüber hinaus das Verfahren nach der Erfindung aus dem Schritt zur Herstellung von erweiterten formatierten Informationen im Zusammenhang mit geometrischen Verzerrungen des Geräts ausgehend von den gemessenen Informationen. Dabei können die formatierten Informationen die erweiterten formatierten Informationen enthalten. Dabei weisen die erweiterten formatierten Informationen eine Abweichung im Verhältnis zu den besagten gemessenen formatierten Informationen auf.
  • Vorzugsweise ist das Verfahren nach der Erfindung so ausgelegt, dass die formatierten Informationen, die aus den gemessenen formatierten Informationen hergestellt sind, von den Parametern eines aus einem Satz von parametrierbaren Modellen, im Speziellen ein Polynomensatz, gewählten parametrierbaren Modells dargestellt werden. Darüber hinaus besteht das Verfahren aus dem Schritt zur Wahl des Parametrierbaren Modells aus dem Satz von parametrierbaren Modellen, durch
    • – Festlegung einer maximalen Abweichung
    • – Anordnung der parametrierbaren Modelle des Satzes von parametrierbaren Modellen nach ihrem Ingangsetzungskomplexitäts-grad.
    • – Wahl des ersten der parametrierbaren Modelle im angeordneten Satz von parametrierbaren Modellen, bei dem die Abweichung kleiner als die maximale Abweichung ist.
  • Nach einer Ausführungsvariante der Erfindung können die erweiterten formatierten Informationen die gemessenen formatierten Informationen sein.
  • Vorzugweise enthält das Verfahren nach der Erfindung ein erster Rechenalgorithmus, mit dem das gemessene Feld aus einem Bezugssystem mit Eigenschaftspunkten und aus einer virtuellen Referenz bestehend aus Referenzpunkten auf einer Referenzfläche erhalten werden kann. Der erste Rechenalgorithmus besteht aus dem Schritt zur Erfassung oder Wiedergabe des Bezugssystems mithilfe des Geräts zur Erstellung eines Bildes der Eigenschaftspunkte am Support. Nachfolgend wird das Bild eines Eigenschaftspunktes den Bildeigenschaftspunkt genannt.
  • Der erste Rechenalgorithmus enthält darüber hinaus
    • – den Schritt zur Erstellung einer Bijektion zwischen den Bildeigenschaftspunkten und den Referenzpunkten,
    • – den Schritt zur Auswahl von null, einem oder mehreren variablen Eigenschaften, die nachfolgend die ausgewählten variablen Eigenschaften genannt werden.
  • Das gemessene Feld besteht aus
    • – einer Ansammlung an Paaren bestehend aus einem der genannten Referenzpunkte und dem Bildeigenschaftspunkt, der durch die Bijektion zugeordnet wird, und
    • – dem Wert für das betroffene Bild für jede einzelne der ausgewählten variablen Eigenschaften.
  • Vorzugweise enthält darüber hinaus das Verfahren nach der Erfindung den Schritt zur Auswahl einer mathematischen Projektion, im Speziellen einer Homografie, zwischen dem Support und der Referenzfläche. Dabei besteht das gemessene Feld für das Bild aus dem Wert aller ausgewählten variablen Eigenschaften und für jeden Referenzpunkt
    • – aus dem Paar, das aus dem Referenzpunkt und der mathematischen Projektion auf der Referenzfläche des Bildeigenschaftspunktes besteht, der durch die Bijektion dem Referenzpunkt zugeordnet wird, und/oder
    • – aus dem Paar, das aus dem Bildeigenschaftspunkt, der durch die Bijektion dem Referenzpunkt zugeordnet wird, und aus der mathematischen Projektion des Referenzpunktes auf dem Support besteht
  • Interpolation zur Formatierung an einem beliebigen Punkt
  • Vorzugweise beinhaltet darüber hinaus das Verfahren nach der Erfindung den Schritt zum Erhalt der erweiterten formatierten Informationen im Zusammenhang mit einem beliebigen Referenzpunkt auf der Referenzfläche und/oder mit einem beliebigen Bildeigenschaftspunkt des Supports durch Ableitung der formatierten Informationen bezüglich des beliebigen Referenzpunktes oder des beliebigen Bildeigenschaftspunktes ausgehend von den gemessenen formatierten Informationen
  • Variable Brennweite
  • Vorzugweise ist darüber hinaus das Verfahren nach der Erfindung so ausgelegt, dass das Gerät der Gerätkette zumindest eine nach dem Bild variable Eigenschaft, im Speziellen die Brennweite und/oder die Scharfstellung, aufweist. Jede variable Eigenschaft kann einem Wert zugeordnet werden, um eine Kombination bestehend aus den ganzen variablen Eigenschaften und Werten zu bilden. Darüber hinaus beinhaltet das Verfahren
    • – den Schritt zur Auswahl der vorbestimmten Kombinationen,
    • – den Schritt zur Berechnung der gemessenen formatierten Informationen, im Speziellen durch Ingangsetzung des ersten Rechenalgorithmus für jede der so ausgewählten vorbestimmten Kombinationen.
  • Variable Brennweite – Formatierung an einem beliebigen Punkt
  • Fallmäßig wird Argument benannt:
    • – ein beliebiger Referenzpunkt auf der Referenzfläche und eine Kombination, oder
    • – ein beliebiger Bildeigenschaftspunkt des Supports und eine Kombination.
    • Vorzugsweise beinhaltet darüber hinaus das Verfahren nach der Erfindung einen Schritt zur Ableitung der erweiterten formatierten Informationen bezüglich eines beliebigen Arguments aus den gemessenen formatierten Informationen. Aus der Kombination der technischen Merkmale ergibt sich, dass die formatierten Informationen Messfehlern gegenüber kompakter und stabiler sind.
  • Wahl eines abweichungsentsprechenden Schwellwertes und Formatierung nach diesem Schwellwert
  • Vorzugsweise ist das Verfahren nach der Erfindung so ausgelegt, dass zur Ableitung der erweiterten formatierten Informationen aus den gemessenen formatierten Informationen
    • – einen ersten Schwellwert festgelegt wird,
    • – die erweiterten formatierten Informationen so ausgewählt werden, dass die Abweichung kleiner als den ersten Schwellwert ist.
  • Hinzufügung der Abweichungen zu den formatierten Informationen
  • Vorzugweise beinhaltet darüber hinaus das Verfahren nach der Erfindung den Schritt, in dem die Abweichungen den formatierten Informationen zugeordnet werden. Aus der Kombination der technischen Merkmale entsteht, dass die formatierten Informationen von Softwares zur Verarbeitung von Bildern, die von einem Gerät erfasst wurden, angewandt werden können, um Bilder mit bekannter restlicher Geometrieverzerrung zu erhalten. Aus der Kombination der technischen Merkmale entsteht, dass die formatierten Informationen von Softwares zur Verarbeitung von Bildern angewandt werden können, um Bilder zu erhalten, die dafür bestimmt sind, von einem Gerät zur Wiedergabe von Bildern mit bekannter restlicher Geometrieverzerrung wiedergegeben zu werden.
  • Wahl der Homographie
  • Vorzugweise enthält darüber hinaus das Verfahren nach der Erfindung den Schritt, in dem vier Bildeigenschaftspunkte auf dem Support ausgewählt werden, sodass das von den vier Bildeigenschaftspunkten definierte Viereck dasjenige ist, das eine maximale Fläche und einen Schwerpunkt, der in der Nähe der geometrischen Mitte des Bildes liegt, aufweist. Die mathematische Projektion ist dabei die Homographie, die die vier Bildeigenschaftspunkte in die Referenzpunkte umwandelt, die durch die Bijektion den vier Bildeigenschaftspunkten zugeordnet sind. Aus der Kombination der technischen Merkmale entsteht, dass es dann möglich ist, formatierte Informationen einfach zu erhalten, die von Bildverarbeitungssoftwares zur Erfassung oder Wiedergabe von Bildern mit schwacher Perspektivänderung angewandt werden können
  • Fall des verzerrten Farbbildes
  • Vorzugweise ist das Bild nach der Erfindung ein Farbbild bestehend aus mehreren Farbebenen. Das Verfahren beinhaltet darüber hinaus den Schritt zur Herstellung der gemessenen formatierten Informationen durch Ingangsetzung des ersten Rechenalgorithmus für zumindest zwei der Farbebenen anhand derselben mathematischen Projektion für jede der Farbebenen. Dann können die formatierten Informationen und/oder die gemessenen formatierten Informationen zur Korrektur der chromatischen Verzerrungen oder Aberrationen des Geräts verwendet werden.
  • Vorzugweise ist das Bild nach der Erfindung ein Farbbild bestehend aus mehreren Farbebenen. Das Verfahren beinhaltet darüber hinaus den Schritt zur Herstellung der gemessenen formatierten Informationen durch Ingangsetzung des ersten Rechenalgorithmus für zumindest eine der Farbebenen anhand derselben virtuellen Referenz für jede der Farbebenen. Dann können die formatierten Informationen und/oder die gemessenen formatierten Informationen zur Korrektur der chromatischen Aberrationen des Geräts verwendet werden.
  • System
  • Die Erfindung bezieht sich auf ein System zur Herstellung der formatierten Informationen 7 im Zusammenhang mit einem Gerät einer Gerätkette wie im Anspruch 11 beschrieben. Im Speziellen beinhaltet die Gerätkette zumindest ein Bilderfassungsgerät und/oder zumindest ein Bildwiedergabegerät. Darüber hinaus enthält das System Rechenmittel zur Herstellung der formatierten Informationen im Zusammenhang mit den geometrischen Verzerrungen von zumindest einem Gerät der Kette.
  • Mit dem Gerät kann ein Bild erfasst oder auf einem Support wiedergegeben werden. Das Gerät weist zumindest eine feste Eigenschaft und/oder eine nach dem Bild variable Eigenschaft auf. Die feste Eigenschaft und/oder variable Eigenschaft kann einem oder mehreren Eigenschaftswerten zugeordnet werden, im speziellen die Brennweite und/oder die Bildschärfe und ihre dazugehörenden Eigenschaften. Vorzugweise beinhaltet das System nach der Erfindung Rechenmittel zur Herstellung der gemessenen formatierten Informationen im Zusammenhang mit den geometrischen Verzerrungen des Geräts ausgehend von einem gemessenen Feld. Die formatierten Informationen können dabei die gemessenen formatierten Informationen enthalten.
  • Erweiterte formatierte Informationen und Abweichung
  • Vorzugsweise beinhaltet das System nach der Erfindung Rechenmittel zur Herstellung der erweiterten formatierten Informationen im Zusammenhang mit den geometrischen Verzerrungen des Geräts ausgehend von den gemessenen formatierten Informationen. Die formatierten Informationen können dabei die erweiterten formatierten Informationen enthalten. Die erweiterten formatierten Informationen weisen im Verhältnis zu den gemessenen formatierten Informationen eine Abweichung auf.
  • Modellvorstellung – Interpolation – Wahl eines Schwellwertes und Wahl des einfachsten Modells zur Erzielung des Schwellwertes.
  • Vorzugsweise ist das System nach der Erfindung so ausgelegt, dass die aus der gemessenen formatierten Informationen hergestellten formatierten Informationen von den Parametern eines parametrierbaren Modells, das aus einem Satz von parametrierbaren Modellen, im Speziellen ein Satz von Polynomen, gewählt wurde. Darüber hinaus beinhaltet das System Auswahlmittel zur Auswahl des parametrierbaren Modells im Satz von parametrierbaren Modellen. Die Auswahlmittel enthalten dabei Datenverarbeitungsmittel zur
    • – Festlegung einer maximalen Abweichung
    • – Anordnung der parametrierbaren Modelle des Satzes von parametrierbaren Modellen nach ihrem Ingangsetzungskomplexitäts-grad.
    • – Wahl des ersten der parametrierbaren Modelle im angeordneten Satz von parametrierbaren Modellen, bei dem die Abweichung kleiner als die maximale Abweichung ist.
  • Nach einer Ausführungsvariante der Erfindung können die erweiterten formatierten Informationen die gemessenen formatierten Informationen sein.
  • Vorzugweise enthält das System nach der Erfindung Rechenmittel, die einen ersten Rechenalgorithmus zum Erhalt des gemessenen Feldes aus einem Bezugssystem mit Eigenschaftspunkten und aus einer virtuellen Referenz bestehend aus Referenzpunkten auf einer Referenzfläche in Gang setzt. Das Bilderfassungsgerät oder das Bildwiedergabegerät enthält Mittel zur Erfassung oder Wiedergabe des Bezugssystems, mit dem ein Bild der Eigenschaftspunkte auf dem Support hergestellt werden kann. Nachfolgend wird das Bild eines Eigenschaftspunktes den Bildeigenschaftspunkt genannt.
  • Die Rechenmittel des ersten Rechenalgorithmus beinhalten darüber hinaus Datenverarbeitungsmittel zur
    • – Festelegung zwischen den Bildeigenschaftspunkten und den Referenzpunkten,
    • – Auswahl von null, einem oder mehreren variablen Eigenschaften im Satz der variablen Eigenschaften, die nachfolgend die ausgewählten variablen Eigenschaften genannt werden.
    • Das gemessene Feld besteht aus
    • – einer Ansammlung an Paaren bestehend aus einem der genannten Referenzpunkte und dem Bildeigenschaftspunkt, der durch die Bijektion zugeordnet wird, und
    • – dem Wert für das betroffene Bild für jede einzelne der ausgewählten variablen Eigenschaften.
  • Vorzugsweise beinhaltet darüber hinaus das System nach der Erfindung Analysemittel zum Auswahl einer mathematischen Projektion, im Speziellen einer Homografie, zwischen dem Support und der Referenzfläche. Dabei besteht das gemessene Feld für das Bild aus dem Wert aller ausgewählten variablen Eigenschaften und für jeden Referenzpunkt
    • – aus dem Paar, das aus dem Referenzpunkt und der mathematischen Projektion auf der Referenzfläche des Bildeigenschaftspunkts besteht, der durch die Bijektion dem Referenzpunkt zugeordnet wird, und/oder
    • – aus dem Paar, das aus dem Bildeigenschaftspunkt, der durch die Bijektion dem Referenzpunkt zugeordnet wird, und aus der mathematischen Projektion des Referenzpunktes auf dem Support besteht.
  • Interpolation zu Formatierung an einen beliebigen Punkt
  • Vorzugsweise beinhaltet darüber hinaus das System nach der Erfindung Datenverarbeitungsmittel zum Erhalt der erweiterten formatierten Informationen im Zusammenhang mit einem beliebigen Referenzpunkt auf der Referenzfläche und/oder mit einem beliebigen Bildeigenschaftspunkt des Supports durch Ableitung der formatierten Informationen bezüglich der beliebigen Referenzpunkte oder der beliebigen Bildeigenschaftspunkt ausgehend von den gemessenen formatierten Informationen.
  • Brennweite
  • Vorzugweise ist das System nach der Erfindung so ausgelegt, dass das Gerät der Gerätkette zumindest eine nach dem Bild variable Eigenschaft, im Speziellen die Brennweite und/oder die Scharfstellung, aufweist. Jede variable Eigenschaft kann einem Wert zugeordnet werden, um eine Kombination bestehend aus den ganzen variablen Eigenschaften und Werten zu bilden. Darüber hinaus beinhaltet das Verfahren
    • – Auswahlmittel zur Auswahl von vorbestimmten Kombinationen,
    • – Rechenmittel zur Berechnung der gemessenen formatierten Informationen, im Speziellen durch Ingangsetzung des ersten Rechenalgorithmus für jede der so ausgewählten vorbestimmten Kombinationen.
  • Variable Brennweite – Formatierung an einem beliebigen Punkt
  • Fallmäßig wird Argument benannt
    • – ein beliebiger Referenzpunkt auf der Referenzfläche und eine Kombination, oder
    • – ein beliebiger Bildeigenschaftspunkt des Supports und eine Kombination.
  • Vorzugsweise beinhaltet darüber hinaus das System nach der Erfindung Datenverarbeitungsmittel zur Ableitung der erweiterten formatierten Informationen bezüglich eines beliebigen Arguments aus den gemessenen formatierten Informationen. Aus der Kombination der technischen Merkmale ergibt sich, dass die formatierten Informationen Messfehlern gegenüber kompakter und stabiler sind.
  • Wahl eines abweichungsentsprechenden Schwellwertes und Formatierung nach diesem Schwellwert
  • Vorzugsweise ist das System nach der Erfindung so ausgelegt, dass die Datenverarbeitungsmittel zur Ableitung der erweiterten formatierten Informationen aus den gemessenen formatierten Informationen Auswahlmittel zur Auswahl der erweiterten formatierten Informationen, sodass die Abweichung kleiner als einen ersten Schwellwert ist, aufweisen.
  • Hinzufügung der Abweichungen zu den formatierten Informationen
  • Vorzugweise sind nach der Erfindung die Abweichungen den besagten formatierten Informationen zugeordnet. Aus der Kombination der technischen Merkmale entsteht, dass die formatierten Informationen von Softwares zur Verarbeitung von Bildern, die von einem Gerät erfasst wurden, angewandt werden können, um Bilder mit bekannter restlicher Geometrieverzerrung zu erhalten. Aus der Kombination der technischen Merkmale entsteht, dass die formatierten Informationen von Softwaren zur Verarbeitung von Bildern angewandt werden können, um Bilder zu erhalten, die dafür bestimmt sind, von einem Gerät zur Wiedergabe von Bildern mit bekannter restlicher Geometrieverzerrung wiedergegeben zu werden.
  • Wahl der Homographie
  • Vorzugweise enthält darüber hinaus das System nach der Erfindung Auswahlmittel zur Auswahl von Bildeigenschaftspunkten auf dem Support, sodass das von den vier Bildeigenschaftspunkten definierte Viereck dasjenige ist, das eine maximale Fläche und einen Schwerpunkt, der in der Nähe der geometrischen Mitte des Bildes liegt, aufweist. Die mathematische Projektion ist die Homographie, die die vier Bildeigenschaftspunkte in die Referenzpunkte umwandelt, die durch die Bijektion den vier Bildeigenschaftspunkten zugeordnet sind. Aus der Kombination der technischen Merkmale entsteht, dass es dann möglich ist, formatierte Informationen einfach zu erhalten, die von Bildverarbeitungssoftwares zur Erfassung oder Wiedergabe von Bildern mit schwacher Perspektivänderung angewandt werden können.
  • Fall des verzerrten Farbbildes
  • Das Bild ist ein Farbbild bestehend aus mehreren Farbebenen. Vorzugsweise beinhaltet das System nach der Erfindung darüber hinaus Datenverarbeitungsmittel zur Herstellung der gemessenen formatierten Informationen durch Ingangsetzung des ersten Rechenalgorithmus für zumindest zwei der Farbebenen anhand derselben mathematischen Projektion für jede der Farbebenen. Dann können die formatierten Informationen und/oder die gemessenen formatierten Informationen zur Korrektur der chromatischen Verzerrungen oder Aberrationen des Geräts verwendet werden.
  • Vorzugweise ist das Bild nach der Erfindung ein Farbbild bestehend aus mehreren Farbebenen. Darüber hinaus beinhaltet das System Datenverarbeitungsmittel zur Herstellung der gemessenen formatierten Informationen durch Ingangsetzung des ersten Rechenalgorithmus für zumindest eine der Farbebenen anhand derselben virtuellen Referenz für jede der Farbebenen. Dann können die formatierten Informationen und/oder die gemessenen formatierten Informationen zur Korrektur der chromatischen Aberrationen des Geräts verwendet werden.
  • Detaillierte Beschreibung
  • Weitere Merkmale und Vorteile der Erfindung ergeben sich aus dem Lesen der Beschreibung einer Ausführungsvariante der Erfindung, die als hinweisendes und uneinschränkendes Beispiel gegeben ist, und aus der Abbildungen, davon
  • 1: eine schematische Ansicht einer Bilderfassung,
  • 2: eine schematische Ansicht einer Bildwiedergabe,
  • 3: eine schematische Ansicht der Pixels eines Bildes,
  • 4a und 4b: zwei schematischen Ansichten einer Bezugsszene,
  • 5: das Organigramm der Methode, mit der die Abweichung zwischen dem mathematischen Bild und dem korrigierten Bild berechnet werden kann,
  • 6: das Organigramm Methode, mit der die beste Wiedergabeumwandlung für ein Bildwiedergabemittel erhalten werden kann,
  • 7: eine schematische Ansicht der Elemente, die das System nach der Erfindung bilden,
  • 8: eine schematische Ansicht der Felder der formatierten Informationen,
  • 9a: eine schematische Vorderansicht eines mathematischen Punktes,
  • 9b: eine schematische Vorderansicht eines echten Punktes eines Bildes,
  • 9c: eine schematische Seiteansicht eines mathematischen Punktes,
  • 9d, eine schematische Seitenansicht eines echten Punktes eines Bildes,
  • 10: eine schematische Ansicht eines Eigenschaftspunktrasters,
  • 11: das Organigramm der Methode, mit der die formatierten Informationen erhalten werden können,
  • 12: das Organigramm Methode, mit der die beste Erfassung für einen Bilderfassungsgerät erhalten werden kann,
  • 13a und 13b: Diagramme, mit den die Herstellung eines gemessenen Feldes anhand der Bijektionen erklärt werden kann,
  • 14a und 14b: Diagramme, mit den die Herstellung eines gemessenen Feldes anhand der Bijektionen und der mathematischen Projektionen erklärt werden kann,
  • 15a und 15b: ein Verfahren, mit dem das gemessene Feld in Form eines Polynoms hergestellt wird,
  • 16a und 16b: eine Variante des Verfahrens zur Berechnung eines gemessenen Feldes
  • 17 und 18: Verfahren zu Interpolation der formatierten Information eines Punktes ausgehend von bekannten formatierten Informationen,
  • 19a bis 19c: Varianten des Verfahrens, mit dem die Anzahl von Berechnungspunkten des gemessenen Felds minimiert werden kann,
  • 20a bis 20d: ein Verfahren, mit dem die formatierten Informationen bezüglich eines Farbbild berechnet werden können,
  • 21: ein Verfahren bezüglich der Korrektur eines von einer Projektion deformierten Bildes,
  • 22: eine Variante des Verfahrens, mit dem die Anzahl von Berechnungspunkten in den Fällen der Korrektur einer geometrischen Verzerrung minimiert werden kann,
  • 23a bis 23c: ein Verfahren, mit dem die nichtverarbeiteten Bereiche eines korrigierten Bildes beseitigt werden können,
  • 24: formatierte Informationen bezüglich der geometrischen Verzerrungen eines Gerätes APP1 einer Gerätkette P3,
  • 25: ein Beispiel von Ausführung eines Systems nach der Erfindung.
  • Die 1 zeigt eine Szene 3, die ein Objekt 107, einen Sensor 100 und die Sensoroberfläche 110, einen optischen Mittelpunkt 111, einen Beobachtungspunkt 105 auf der Oberfläche des Sensors 110, eine durch den Beobachtungspunkt 105, den Mittelpunkt 111, die Szene 3, eine mit der Oberfläche des Sensors 10 geometrisch verknüpfte Oberfläche 10 kommende Beobachtungsrichtung 106, enthält.
  • Die 2 zeigt ein Bild 103, ein Bildwiedergabemittel 19 und ein am Wiedergabesupport 190 erhaltenes, wiedergegebenes Bild 191.
  • Die 3 zeigt eine Szene 3, ein Bilderfassungsgerät 1 und ein aus Pixels 104 bestehendes Bild 103.
  • Die 4a und 4b zeigen zwei Varianten einer Bezugsszene 9.
  • Die 5 zeigt ein Organigramm, das eine Szene 3, eine mathematische Projektion 8, die ein mathematisches Bild 70 der Szene 3 hergibt, eine echte Projektion 72, die für die angewandten Eigenschaften 74 ein Bild 103 der Szene 3 hergibt, ein parametrierbares Umwandlungsmodell 12, das ein korrigiertes Bild 71 des Bildes 103 hergibt, welches korrigierte Bild 71 dem mathematischen Bild 70 gegenüber eine Anweichung 73 aufweist, in Gang setzt.
  • Die 6 zeigt ein Organigramm, das ein Bild 103, eine echte Wiedergabeprojektion 90, die für die angewandten Wiedergabeeigenschaften 95 ein wiedergegebenes Bild 191 des Bildes 103 hergibt, ein parametrierbares Wiedergabeumwandlungsmodell 97, das ein korrigiertes Wiedergabebild 94 des Bildes 103 hergibt, eine mathematische Wiedergabeprojektion 96, die ein mathematisches Wiedergabebild 92 des korrigierten Wiedergabebildes 94 hergibt und dem wiedergegebenen Bild 191 gegenüber eine Wiedergabeabweichung 93 aufweist.
  • Die 7 zeigt ein System, das ein Bilderfassungsgerät 1 enthält, welches aus einer Optik 100, einem Sensor 101 und einer Elektronik 102 besteht. Die 7 zeigt auch eine Speicherzone 16, die ein Bild 103 beinhaltet, eine Datenbasis 22, die formatierte Informationen 15 enthält, Mittel 18 zur Übertragung des aus dem Bild 103 und den formatierten Informationen 15 bestehenden, ergänzten Bildes 120 nach Rechenmitteln 17, die Bildverarbeitungssoftwares 4 beinhalten.
  • Die 8 zeigt formatierte Informationen 15, die aus Feldern 90 bestehen.
  • Die 9a bis 9d zeigen ein mathematisches Bild 70, ein Bild 103, die mathematische Position 40 eines Punktes, die mathematische Gestaltung eines Punktes im Vergleich zu der echten Position 50 und der echten Gestaltung 51 des entsprechenden Bildpunktes.
  • Die 10 zeigt ein Eigenschaftspunktraster 80.
  • Die 11 zeigt ein Organigramm, das ein Bild 103, angewandte Eigenschaften 74, eine Eigenschaftsdatenbasis 22 in Gang setzt. Die formatierten Informationen 15 werden aus den angewandten Eigenschaften 74 erhalten und in die Datenbasis 22 gespeichert. Das ergänzte Bild 120 wird aus dem Bild 103 und den formatierten Informationen 15 erhalten.
  • Die 12 zeigt ein Organigramm, das eine Bezugszene 9, eine mathematische Projektion 8, die eine Kunstbildklasse 7 der Bezugsszene 9 hergibt, eine echte Projektion 72, die für die angewandten Eigenschaften 74 ein Bezugsbild 11 der Bezugsszene 9 hergibt, in Gang setzt. Dieses Organigramm setzt auch ein parametrierbares Umwandlungsmodell 12 in Gang, das ein umgewandeltes Bild 13 des Bezugsbildes 11 hergibt. Das umgewandelte Bild 13 weist der Kunstbildklasse 7 gegenüber eine restliche Abweichung 14 auf.
  • Gerät
  • Mit Bezug auf 2, 3, 13a, 13b und 24 wird jetzt die Vorstellung des Gerätes APP1 beschrieben. Im Sinne der Erfindung kann namentlich ein Gerät APP1
    • – ein Bilderfassungsgerät 1 wie in 3 dargestellt, oder ein Bilderfassungsgerät wie in 13a dargestellt, zum Beispiel ein Einwegphotoapparat, ein digitaler Photoapparat, ein Reflexapparat, ein Scanner, ein Faxgerät, ein Endoskop, eine Überwachungskamera, eine Webcam, eine integrierte oder mit Telefon, Personalassistent oder Computer verbundene Kamera, eine thermische Kamera, ein Ökografiegerät,
    • – ein Bildwiedergabegerät APP2 wie in 13b dargestellt, oder ein Bildwiedergabemittel 19 wie in 2 dargestellt, zum Beispiel ein Bildschirm, ein Projektor, ein Fernseher, Virtuellrealitätsbrille oder ein Drucker,
    • – ein Mensch, der Sichtsprobleme wie Astigmatismus hat,
    • – ein Apparat, dem man gleichen will, um Bilder herzustellen, die zum Beispiel den von einem Apparat der Marke Leica ähnlich sind, eine Bildverarbeitungsanlage, zum Beispiel eine Zoomsoftware, die als Randeffekt etwas Unschärfe bringt,
    • – ein virtuelles Gerät, der mehreren Geräten APP1 gleichwertig ist, sein.
  • Ein mehr komplexes Gerät APP1 wie Scanner/Fax/Drucker, Bilddruckminilabor, Videokonferenzgerät kann als Gerät APP1 oder Geräte APP1 angesehen werden.
  • Gerätkette
  • Mit Bezug namentlich auf 24 wird jetzt die Vorstellung der Gerätkette P3 beschrieben. Wird Gerätkette P3 genannt ein Satz von Geräten APP1. Die Vorstellung der Gerätkette P3 kann darüber hinaus eine Ordnungsvorstellung miteinbeziehen.
  • Die folgenden Beispiele bilden Gerätketten P3:
    • – ein einziges Gerät APP1,
    • – ein Bilderfassungsgerät und ein Bildwiedergabegerät,
    • – ein Photoapparat, ein Scanner, ein Drucker zum Beispiel in einem Bildentwicklungsminilabor,
    • – ein digitaler Photoapparat, ein Drucker zum Beispiel in einem Bildentwicklungsminilabor,
    • – ein Scanner, ein Bildschirm oder ein Drucker, zum Beispiel in einem Computer,
    • – ein Bildschirm oder Projektor und ein Menschauge,
    • – ein Apparat und ein anderer Apparat, dem man gleichen will,
    • – ein Photoapparat und ein Scanner
    • – ein Bilderfassungsgerät, eine Bildverarbeitungssoftware,
    • – eine Bildverarbeitungssoftware, ein Bildwiedergabegerät,
    • – eine Kombination der vorigen Beispiele,
    • – ein sonstiger Satz von Geräten APP1.
  • Fehler
  • Mit Bezug auf 24 wird jetzt die Vorstellung des Fehlers P5 beschrieben. Wird Fehler P5 genannt ein auf die Eigenschaften der Optik und/oder des Sensors und/oder der Elektronik und/oder der in einem Gerät APP1 integrierten Software bezogener Fehler; Beispiele von Fehlern P5 sind zum Beispiel die geometrische Verzerrung, die Unschärfe, die winklige Verfinsterung, die chromatischen Aberrationen, die Wiedergabe der Farben, die Flashuniformität, die Sensorstörung, die Körnung, der Astigmatismus, die sphärische Aberration.
  • Bild
  • Mit Bezug namentlich auf 13a wird jetzt die Vorstellung des Bildes I beschrieben. Wird Bild I genannt ein von einem Gerät APP1 erfasstes oder geändertes oder wiedergegebenes Bild. Das Bild I kann für ein Gerät APP1 der Gerätkette P3 bestimmt sein. Im Falle von beweglichen Bildern, zum Beispiel Video, die aus einer zeitlichen Sequenz von festen Bildern bestehen, wird Bild I genannt ein festes Bild der Sequenz von Bildern.
  • Formatierte Informationen
  • Mit Bezug namentlich auf 24 wird jetzt die Vorstellung der formatierten Informationen IF beschrieben. Werden formatierte Informationen genannt Daten, die auf die Fehler P5 eines oder mehrerer Geräte APP1 der Gerätkette P3 bezogen sind, und die es ermöglichen ein umwandeltes Bild unter Berücksichtigung der Fehler P5 des Gerätes APP1 zu berechnen. Zur Herstellung der formatierten Informationen IF können verschiedene Verfahren, die auf Messungen und/oder Bezugserfassungen oder -wiedergaben und/oder Simulationen basiert sind, angewandt werden.
  • Zur Herstellung der formatierten Informationen IF kann zum Beispiel das Verfahren angewandt werden, das in der internationalen Patentanmeldung, die am gleichen Tag wie die vorliegende Anmeldung von der Firma Vision IQ unter dem Namen „Verfahren und System zur Reduzierung der Häufigkeit der Aktualisierungen von Bildverarbeitungsmitteln" vorgelegt wurde, beschrieben ist. In dieser Anmeldung ist ein Verfahren zur Reduzierung der Häufigkeit der Aktualisierungen von Bildverarbeitungsmitteln, im Speziellen eine Software und/oder eine Komponente. Mit den Bildverarbeitungsmittel kann die Qualität der digitalen Bilder, die aus einer Gerätkette stammen oder für eine Gerätkette bestimmt sind, geändert werden. Dabei enthält die Gerätkette zumindest ein Bilderfassungsgerät und/oder zumindest ein Bildwiedergabegerät. Die Bildverarbeitungsmittel setzen formatierte Informationen in Gang, die auf die Fehler von zumindest einem Gerät der Gerätkette bezogen sind. Die formatierten Informationen IF hängen von zumindest einer Variable ab. Mit den formatierten Informationen kann eine Übereinstimmung zwischen einem Teil der Variablen und Identifizierungen erstellt werden. Mit den Identifizierungen kann der Wert der mit der Identifizierung übereinstimmenden Variable unter Berücksichtigung der Identifizierung und des Bildes ermittelt werden. Aus der Kombination der technischen Merkmale entsteht, dass der Wert einer Variable speziell im Falle, dass die physikalische Bedeutung und/oder der Inhalt der Variable erst nach der Diffusion der Bildverarbeitungsmittel bekannt werden, ermittelt werden kann. Aus der Kombination der technischen Merkmale entsteht auch, dass die Zeit zwischen zwei Aktualisierungen der Korrektursoftware verlängert werden kann. Aus der Kombination der technischen Merkmale entsteht auch, dass die verschiedenen ökonomischen Akteure, die Geräte und/oder Bildverarbeitungsmittel herstellen, ihre Produkte unabhängig von den anderen ökonomischen Akteuren aktualisieren können, und zwar wenn diese eben die Eigenschaften ihrer Produkte radikal ändern oder ihre Kunden nicht zwingen können, ihre Produkte zu aktualisieren. Aus der Kombination der technischen Merkmale entsteht auch, dass eine neue Funktionalität schrittweise, mit einer begrenzten Anzahl von ökonomischen Akteuren und innovativen Benutzern beginnend, verbreitet werden kann.
  • Zur Herstellung der formatierten Informationen IF kann zum Beispiel das Verfahren angewandt werden, das in der internationalen Patentanmeldung, die am gleichen Tag wie die vorliegende Anmeldung von der Firma Vision IQ unter dem Namen „Verfahren und System zur Vermittlung nach einem Standardformat von formatierten Informationen an Bildverarbeitungsmittel" vorgelegt wurde, beschrieben ist. In dieser Anmeldung wird ein Verfahren zur Vermittlung nach einem Standardformat von formatierten Informationen IF an Bildverarbeitungsmittel, im Speziellen Softwares und/oder Komponenten, beschrieben. Die formatierten Informationen IF sind auf die Fehler einer Gerätkette P3 bezogen. Im Speziellen enthält die Gerätkette P3 zumindest ein Bilderfassungsgerät 1 und/oder ein Bildwiedergabegerät 19. Die Bildverarbeitungsmittel benutzen die formatierten Informationen IF um die Qualität von mindestens einem Bild, das aus der Gerätkette P3 stammt oder für diese bestimmt ist, zu ändern. Die formatierten Informationen IF beinhalten Daten, die Fehler P5 des Bilderfassungsgerätes 1, im Speziellen die Verzerrungseigenschaften, und/oder Daten, die Fehler des Bildwiedergabegerätes 19, im Speziellen die Verzerrungseigenschaften, beschreiben.
  • Das Verfahren enthält den Schritt zur Benachrichtigung von zumindest einem Feld des Standardformats mit den formatierten Informationen IF. Das Feld wird durch einen Feldname bezeichnet. Das Feld beinhaltet mindestens einen Feldwert.
  • Um die formatierten Informationen IF zu benutzen, kann zum Beispiel das Verfahren angewandt werden, das in der internationalen Patentanmeldung, die am gleichen Tag wie die vorliegende Anmeldung von der Firma Vision IQ unter dem Namen „Verfahren und System zur Änderung der Qualität von mindestens einem Bild, das aus einer Gerätkette stammt oder für solch eine bestimmt ist" vorgelegt wurde, beschrieben ist. In dieser Anmeldung wird ein Verfahren zur Änderung der Qualität von mindestens einem Bild, das aus einer definierten Gerätkette stammt oder für solch eine bestimmt ist, beschrieben. Die definierte Gerätkette enthält zumindest ein Bilderfassungsgerät 1 und/oder zumindest ein Bildwiedergabegerät 19. Die Bilderfassungsgeräte 1 und/oder die Bildwiedergabegeräte 19, die von verschiedenen ökonomischen Akteuren schrittweise auf die Markt eingeführt wurden, gehören zu einem undefinierten Satz von Geräten. Die Geräte APP1 des Gerätsatzes weisen Fehler P5 auf, die durch formatierte Informationen beschrieben werden können. Das Verfahren enthält, für das betroffene Bild, die folgenden Schritte:
    • – den Schritt zur Verzeichnung der Quellen von formatierten Informationen bezüglich der Geräte des Gerätsatzes,
    • – den Schritt zur automatischen Nachforschung, unter den so verzeichneten formatierten Informationen, der spezifischen formatierten Informationen bezüglich der definierten Gerätkette,
    • – den schritt zur automatischen Änderung des Bildes I anhand von Bildverarbeitungssoftwares und/oder Bildverarbeitungskomponenten unter Berücksichtigung der so erhaltenen spezifischen formatierten Informationen.
  • Um die formatierten Informationen IF zu benutzen, kann zum Beispiel das Verfahren angewandt werden, das in der internationalen Patentanmeldung, die am gleichen Tag wie die vorliegende Anmeldung von der Firma Vision IQ unter dem Namen „Verfahren und System zur Berechnung eines umwandelten Bildes aus einem digitalen Bild und formatierten Informationen bezüglich einer geometrischen Umwandlung" vorgelegt wurde, beschrieben ist. In dieser Anmeldung wird ein Verfahren zur Berechnung eines umwandelten Bildes aus einem digitalen Bild und formatierten Informationen IF bezüglich einer geometrischen Umwandlung, im Speziellen die formatierten Informationen IF bezüglich der chromatischen Verzerrungen und/oder Aberrationen einer Gerätkette, beschrieben. Das verfahren enthält den Schritt zur Berechnung des umwandelten Bildes aus einer Schätzung der geometrischen Umwandlung. Daraus entsteht, dass die Berechnung an Speicherquelle, Speicherbandbreite und deshalb elektrischem Verbrauch sparsam ist. Daraus entsteht auch, dass das umwandelte Bild keinen sichtbaren oder für seinen späteren Einsatz störenden Fehler aufweist.
  • Um die formatierten Informationen IF zu benutzen, kann zum Beispiel das Verfahren angewandt werden, das in der internationalen Patentanmeldung, die am gleichen Tag wie die internationale Patentanmeldung der vorliegenden Erfindung unter der Nummer der Firma Vision IQ unter dem Namen „Verfahren und System zur Korrektur der chromatischen Aberrationen eines anhand eines Optiksystems hergestellten Bildes" vorgelegt wurde, beschrieben ist. In diesem Patent wird ein Verfahren zur Korrektur der chromatischen Aberrationen eines aus mehreren digitalisierten Farbebenen bestehenden Bildes beschrieben. Das Farbbild wurde anhand eines Optiksystems erzeugt. Das Verfahren enthält die folgenden Schritte:
    • – den Schritt zur Modellierung und Korrektur von zumindest einem Teil der geometrischen Anomalien der digitalisierten Farbebenen, sodass korrigierte digitalisierte Farbebenen erhalten werden
    • – den Schritt zur Kombination der korrigierten digitalisierten Farbebenen, sodass ein teilweise oder komplett frei von chromatischen Aberrationen korrigiertes Farbbild erhalten wird.
  • Variable Eigenschaft
  • Jetzt wird die Vorstellung der variablen Eigenschaft beschrieben. Nach der Erfindung wird variable Eigenschaft genannt ein messbarer und je nach Bild variabler Faktor eines von einem selben Gerät APP1 erfassten, geänderten oder wiedergegebenen Bildes I, der Einfluss auf den Fehler P5 des vom Gerät APP1 erfassten, geänderten oder wiedergegebenen Bildes hat, im Speziellen:
    • – eine globale, feste Variable für ein gegebenes Bild I, zum Beispiel eine Eigenschaft des Gerätes APP1 im Moment der Erfassung oder der Wiedergabe des Bildes, die auf eine Einstellung des Benutzers oder auf einen Automatismus des Gerätes APP1 bezogen ist,
    • – eine in einem gegebenen Bild I variierende, lokale Variable, zum Beispiel der Koordinaten x, y oder ro, theta im Bild, mit den eine je nach Bildzone unterschiedliche lokale Verarbeitung des Bildes I angewandt werden kann.
  • Wird generell nicht als variable Eigenschaft angesehen: ein messbarer, je nach Gerät APP1 variabler Faktor, der aber egal dem von einem selben Gerät APP1 erfassten, geänderten oder wiedergegebenen Bild I fest bleibt, zum Beispiel die Brennweite für ein Gerät APP1 mit fester Brennweite.
  • Die formatierten Informationen If können von zumindest einer Eigenschaft abhängen Unter variabler Eigenschaft kann man namentlich
    • – die Brennweite der Optik
    • – die dem Bild angewandete Nachdimensionierung (Digitalzoomfaktor: Vergrößerung eines Teiles des Bildes, und/oder Unterbemusterung: Reduzierung der Anzahl von Pixels eines Bildes,
    • – die nichtlineare Korrektur der Leuchtdichte, zum Beispiel die Gammakorrektur, verstehen
    • – die Konturverstärkung, zum Beispiel der vom Gerät APP1 angewandten Unschärfungspegel,
    • – die Störung des Sensors oder der Elektronik,
    • – die Öffnung der Optik,
    • – die Weite der Scharstellung,
    • – die Nummer des Bildes auf einem Film,
    • – die Über- oder Unterbelichtung,
    • – die Empfindlichkeit des Filmes oder des Sensors
    • – die Art des in einem Drucker angewandten Papiers,
    • – Die Position der Mitte des Sensors im Bild
    • – Die Umdrehung des Bildes im Verhältnis zum Sensor
    • – die Lage eines Projektors gegenüber dem Bildschirm,
    • – die Schwebe der angewanden Weistönen,
    • – die Aktivierung des Flashs und/oder seine Kraft,
    • – die Belichtungsdauer,
    • – der Sensorgewinn,
    • – die Kompression,
    • – der Kontrast,
    • – eine andere vom Benutzer des Gerätes APP1 angewandte Einstellung, zum Beispiel eine Betriebsart
    • – eine andere automatische Einstellung des Gerätes APP1,
    • – eine andere vom Gerät APP1 durchgeführte Bemessung.
  • Wert der variablen Eigenschaft
  • Jetzt wird die Vorstellung des Wertes der variablen Eigenschaft beschrieben. Wird Wert der variablen Eigenschaft genannt der Wert der variablen Eigenschaft im Moment der Erfassung, Änderung oder Wiedergabe eines definierten Bildes.
  • Parametrierbares Modell
  • Wird im Sinne der Erfindung parametrierbares Modell oder parametrierbares Umwandlungsmodell oder parametrierbare Umwandlung genannt ein mathematisches Modell, das von den variablen Eigenschaften abhängen kann und auf einen oder mehrere Fehler P5 eines oder mehrerer Geräte APP1 bezogen ist. Die formatierten Informationen IF bezüglich eines Fehlers P5 eines Gerätes können sich in Form der Parameter eines von den variablen Eigenschaften abhängenden, parametrierbaren Modells vorstellen.
  • Formatierte Informationen bezogen auf die geometrischen Verzerrungen
  • 13a zeigt ein Organigramm mit
    • – einem Bezugssystem M, das die vorige Bezugsszene 3 sein kann
    • – einem Support SC, der ein Bild enthält. Im Falle von einem Bilderfassungssystem kann die Fläche SC diejenige eines Sensors (CDD zum Beispiel) sein, oder im Falle von einem Bildwiedergabesystems kann diese Fläche diejenige eines Projektionsbildschirmes oder eines Druckerblattes sein
    • – einer virtuellen Referenzfläche SR (der vorigen Fläche 10 entsprechend), die eine virtuelle Referenz R oder ein virtuelles Bezugsbild, das ein Kunstbild der vorigen Kunstbildklasse 7 sein kann, enthält.
  • Das Bild I (vorher Bezugsbild 11 genannt) wird aus dem Bezugssystem M anhand eines Gerätes APP1 oder einer Gerätkette P3 auf einem Support SC, der eine Sensorfläche sein kann, erhalten. Eine Gerätkette ist ein Satz von Geräten, mit dem ein Bild erhalten werden kann. Zum Beispiel wird eine Gerätkette AppI/App2/App3 ein Bilderfassungsgerät, einen Scanner, ein Druckgerät, usw. enthalten können.
  • Das Bild I weist dann Fehler P5, im Speziellen geometrische Verzerrungen, die auf diese Geräte APP1 bezogen sind, auf.
  • Die virtuelle Referenz R wird direkt aus M abgeleitet und soll als perfekt oder quasi-perfekt angesehen werden. Sie kann M ähnlich oder quasi-ähnlich sein oder zum Gegenteil wie später besprochen Abweichungen aufweisen.
  • Als Beispiel kann die Verknüpfung zwischen dem Bezugsystem M und der Referenzfläche R wie folgt verdeutlicht werden: den Punkten PP1 bis PPm des Bezugsystems M entsprechen Referenzpunkte PR1 bis PRm in der virtuellen Referenz R der Referenzfläche SR sowie Bildeigenschaftspunkte PT1 bis PTm des Bildes I vom Support SC.
  • Nach einem Ausführungsbeispiel der Erfindung wird dann einen Schritt zur Erzeugung des Bildes I anhand des Gerätes APP1 oder der Gerätkette P3 vorgesehen.
  • In einem weiteren Schritt wird eine bestimmte Anzahl von Punkten Pti, Pri ausgewählt. Diese Punkte werden in begrenzter Menge ausgewählt und befinden sich in Zonen, die charakteristisch des Bezugsystems M, des Bildes I und der virtuellen Referenz R sind. Dann wird eine Bijektion zwischen den Punkten Pti des Bildes und den Punkten Pri der virtuellen Referenz erstellt. Damit ließt man jedem ausgewählten Punkt PTi ein Punkt PRI und umgekehrt entsprechen.
  • In einem anderen Schritt können wahlweise variable Eigenschaften des Gerätes (oder der Gerätkette) APP1 unter denjenigen, die zum Erhalt des Bildes I mit dem Gerät APP1 angewandt sind, ausgewählt werden. Die variable Eigenschaften eines Gerätes oder einer Gerätkette können die Brennweite der Optik des Gerätes, den Fokus, die Öffnung, die Nummer des Bildes in einem Satz von Bildern, den digitalen Zoom, die Eigenschaften einer partiellen Bilderfassung („crop" in der angelsächsischen Terminologie), usw. enthalten.
  • Die gesamten folgenden Informationen bilden ein gemessenes Feld DH, das angewandt werden kann, um ein Bild zu korrigieren:
    • – die Bijektion, das heißt die gesamten Paaren von Punkten Pti und Pri, die ausgewählt wurden, und die durch die vorige Bijektion miteinander entsprechen,
    • – die gesamten ausgewählten variablen Eigenschaften.
  • Mit diesen Informationen, die ein Messfeld bilden, können gemessene formatierten Informationen erhalten werden.
  • In einer Ausführungsvariante kann eine Simulationssoftware des Gerätes, im Speziellen eine Software zur optischen Simulation, oder eine optische Messbank zur Berechnung der Punkte PTi aus den Punkten PPI des Bezugssystems M oder aus den Punkten PPI eines Modells des Bezugssystems M angewandt werden.
  • 14a zeigt eine andere Art, mit der ein gemessenes Feld erhalten werden kann.
  • In dieser 14a sind das Bezugssystem M, die Referenzfläche SR und den Support SC noch mal dargestellt.
  • Wie oben beschrieben wird anhand eines Gerätes APP3 das Bild I auf den Support SC erzeugt. Dann wird die oben beschriebene Bijektion erstellt.
  • Danach wird eine mathematische Projektion, vorzugsweise eine Homographie zwischen einem Punkt des Supports SC und einem Punkt der Referenzfläche SR, erstellt.
  • In der 14b sieht man, dass ein Punkt H (PRj) des Bildes für jeden Punkt PRj der Referenzfläche durch mathematische Projektion erhalten werden kann. Vorzugsweise hat man für zwei Punkte PRj und PTj eines durch Bijektion verknüpften Paares einen Punkt H (PRj) als mathematische Projektion von PRj auf den Support SC.
  • Unter diesen Umständen erhält man durch Hinzufügung der erstellten Formeln von mathematischer Projektion zu den Feldinformationen ein mehr komplettes gemessenes Feld. Ein gemessenes Feld DH enthält dann
    • – die eventuell ausgewählten variablen Eigenschaften,
    • – für verschiedene Referenzpunkte PR, die mathematische Projektion H (PRj) des Referenzpunktes PRj auf den Support SC, damit ein neuer Punkt H (PRj), der durch Bijektion dem entsprechenden Punkt PTj zugeordnet ist, erhalten wird. Damit hat man im gemessenen Feld eine Reihe von Paaren, die aus durch Bijektion verknüpften Punkten bestehen, in jedem von den ein Punkt die mathematische Projektion des anderen Punktes des Paares ist.
  • Dann kann auch das gemessene Feld DH folgendes beinhalten:
    • – die ausgewählten variablen Eigenschaften,
    • – die Paare, die je aus einem Punkt PT der Referenzfläche und aus einem Punkt H (PR), der die mathematische Projektion des durch Bijektion mit dem Punkt PT des Supports SC verknüpften Punktes PR darstellt, bestehen.
  • Das gemessene Feld DH eines so erhaltenen Bildes kann die variablen Eigenschaften für die gesamten Paaren von erhaltenen Punkten als Faktor enthalten, sodass Speicherraum gewonnen wird.
  • Nach einer anderen Variante der Erfindung kann das gemessene Feld DH folgendes enthalten
    • – die ausgewählten variablen Eigenschaften,
    • – die Paare von Punkten PT und die mathematischen Projektionen von (durch Bijektion mit den Punkten PT verknüpften) Punkten PR auf den Support SC, und
    • – die Paare von Punkten PR und die mathematischen Projektionen von (durch Bijektion mit den Punkten PR verknüpften) Punkten PT auf die Referenzfläche SR.
  • Wie vorher beschrieben können mit dem gemessenen Feld DH gemessene formatierte Informationen erhalten werden.
  • Mit den oben durch 13a bis 14b dargestellten Beispielen von Verfahren und Systemen kann ein gemessenes Feld DH genanntes Messfeld erhalten werden, das so vielen Sätzen von Informationen wie es Punkte des Bildes I und der virtuellen Referenz ausgewählt wurden, beinhaltet.
  • Mit diesem für das Bild I gemessenen Feld wird einen Satz von gemessenen formatierten Informationen IFM gebildet. Eine gemessene formatierte Information eines Punktes PTj enthält dann zum Beispiel:
    • – die festen Eigenschaften des oder der benutzten Geräte,
    • – die ausgewählten variablen Eigenschaften,
    • – die Lage in X und Y des Punktes im Bild PTj,
    • – die mathematische Projektion des durch Bijektion entsprechenden Punktes PRj.
  • Hier ist zu merken ist, dass eine besondere mathematische Projektion, die zum Beispiel in den Scannern angewandt werden kann, die Formel ist.
  • Aus der Betreibung des Systems entsteht, dass eine erhebliche Anzahl von Punkten und daher eine beträchtliche Anzahl von Informationen zwingend verarbeitet werden müssen. Um den Betrieb des Systems aufzulockern, die Verarbeitung voranzutreiben und/oder den Messfehlern gegenüber stabil zu sein, sehen die in 15a und 15b dargestellten Verfahren und System vor, erweiterte formatierte Informationen IFE1 bis IFEm, die zu einer Fläche gehören, die von einer Funktion, die in einem dimensional begrenzten Raum wie zum Beispiel ein unter der Klasse der Polynome von fertigem Grad ausgewähltes Polynom von begrenzter Ordnung ausgewählt wurde, oder von einer Splinefunktion von geeignetem Grad dargestellt werden kann, aus den gemessenen formatierten Informationen IFM1 bis IFMm abzuleiten.
  • 15a und 15b zeigen vereinfachte Beispiele, die Fällen entsprechen, in den die gemessene Information nur Funktion einer einzigen Variable ist. Die Information ist gleich anwendbar, wenn die formatierte Information Funktion mehrerer Variablen ist, was meistens der Fall ist.
  • 15a und 15b zeigen vereinfachte Beispiele, die Fällen entsprechen, in den die gemessene formatierte Information ein Skalar und nur Funktion von zwei Variablen (X, T) ist. Die Erfindung ist gleich anwendbar, wenn die formatierte Information vektoriell und Funktion von mehr als zwei Variablen ist, was meistens den Fall ist.
  • In 15b wurden in der Ebene IM die verschiedenen Koordinaten der Punkte eines Bildes dargestellt. Am Punkt von Koordinaten X1, Y1 findet man die gemessene formatierte IFM1. An jedem Punkt der Ebene IM hat man dann eine formatierte Information von besonderem Wert. Die Erfindung besteht darin, solch ein parametrierbares Modell wie eine polynomische Fläche SP zu berechnen. Eine besondere Art SP zu berechnen kann es geben, in der diese Fläche durch alle Enden der Informationen oder nah bei den kommend berechnet wird. Eine andere Art könnte es geben, in der solche geometrischen (nicht unbedingt euklidische) Eigenschaften einer Teilmenge der Punkte von M wie die Flucht von Punkten nach einer Gerade oder irgendeine bestimmte Parametrierungskurve, behalten werden. Unter diesen Umständen kann das System bei der Verarbeitung eines Bildes, statt eine erhebliche Anzahl von gemessenen formatierten Informationen anzuwenden, ein parametrierbares Modell benutzen.
  • Die Schwierigkeit besteht darin, eine Fläche SP, die durch alle Punkte oder nah bei diesen kommt, zu finden. Es ist voraussichtlich zugegeben, dass eine Abweichung EC zwischen einer gemessenen formatierten Information IFM und einer erweiterten formatierten Information IFE vorkommen kann. Außerdem ist es beschlossen, das eine solche Abweichung EC einen bestimmten Schwellwert dS nicht überschritten darf. Unter diesen Umständen soll eine polynomische Fläche durch alle Punkte von gemessenen formatierten Informationen IFM ± dS kommen.
  • Die Wahl dieses Schwellwertes erfolgt nach dem Bildaufnahmefehler, dem Messfehler, dem für die Korrektur geforderten Präzisionspegel, usw.
  • Die in Gang gesetzten Verfahren und System werden vorsehen können, eine bestimmte Anzahl von parametrierbaren Modellen, die sich zum Beispiel in Form von Polynomen schreiben lassen können, anzuwenden. Man sieht vor diese Modelle nach Komplexität wachsend einzuordnen.
  • Im Besitz eines Satzes von gemessenen Informationen testet man dann jedes Modell vorzugsweise vom einfachsten Modell an (das ordnungsmäßig schwächerste Polynome) bis zum Erhalt eines Modells, das an der Abschnitt der Polynomischen Fläche und der Richtung jeder gemessenen formatierten Information eine erweiterte formatierte Information definiert, deren Abweichung EC zu der gemessenen formatierten Information kleiner als den Schwellwert dS ist.
  • Die von 15a und 15b schematisierten Verfahren und System sind dafür bestimmt, erweiterte gemessene formatierte Informationen zu erhalten. Jedoch könnte sich die Erfindung nur auf die Benutzung der gemessenen formatierten Informationen als formatierte Informationen beschränken. Man kann auch vorsehen die gemessenen formatierten Informationen und die erweiterten formatierten Informationen für die formatierten Informationen zu benutzen.
  • Wie dem auch sei kann man auch vorsehen die zwischen gemessenen formatierten Informationen und erweiterten formatierten Informationen festgestellten Abweichungen EC den formatierten Informationen zuzuordnen. Dann können die formatierten Informationen von Bildverarbeitungssoftwares angewandt werden, um Bilder mit bekannter restlicher Geometrieverzerrung zu erhalten, sei es für Bilder, die mit einem Bilderfassungsgerät erfasst werden oder für Bilder, die mit einem Bildwiedergabegerät wiedergegeben werden.
  • Mit Bezug auf 16a und 16b wird jetzt eine Berechnungsvariante des gemessenen Feldes D (H) eines Bildes I beschrieben.
  • Nach dem Organigramm des Algorithmus AC2 der 16a, die über ein Bezugssystem M verfügt, das ähnlich demjenigen in 14a ist, wird bei einem ersten Schritt ET2 dieses Bezugsystem M anhand des Gerätes APP3 erfasst. Erhalten wird das Bild I auf dem Support SC. Außerdem verfügt man über eine Virtuelle Referenz R auf der Referenzfläche SR. Diese virtuelle Referenz R vertretet im Prinzip exakt oder quasi-exakt das Bezugssystem M.
  • Im Schritt ET2.2 wird eine Bijektion zwischen den Bildeigenschaftspunkten PT des Bildes I des Supports SC und den Referenzpunkten PR der virtuellen Referenz R der Referenzfläche SR (siehe auch 14a) erstellt.
  • Im Schritt ET2.3 wird solch eine mathematische Projektion wie eine Homographie zwischen verschiedenen Punkten des Supports SC (oder des Bildes I) und verschiedenen Punkten der Referenzfläche SR (oder der virtuellen Referenz R) ausgewählt.
  • Im Schritt ET2.4 wird für jeden Bildeigenschaftspunkt PT oder für jeden Referenzpunkt PR der Vektor, der den Fehler der geometrischen Verzerrung charakterisiert, berechnet. 16b bildet diesen Schritt des Verfahrens anhand eines realisierbaren Implementierungsbeispiels ab. In dieser Abbildung findet man verschiedene Werte von Referenzpunkten PR, die auf der Referenzfläche SR verteilt sind. Jedem Punkt PR wird die mathematische Projektion H (PT) des durch Bijektion PR zugeordneten Punktes PT zugeordnet. Berechnet wird für jeden Punkt der Vektor VM, der als Anfang PR und als Ende H (PT) hat.
  • Dieses Feld DH, das auch Feld von gemessenen Vektoren genannt werden kann, besteht aus
    • – den ausgewählten Paaren von Punkten PT und PR, die durch Bijektion verknüpft sind,
    • – dem für jeden Punkt berechneten Vektor.
  • Das Feld DH kann auch einfacher folgendes enthalten:
    • – den Referenzpunkt PR von SR und/oder den Bildeigenschaftspunkt PT von SC und/oder die mathematische Projektion des Referenzpunktes PR auf SC (oder umgekehrt der Projektion des Bildeigenschaftspunktes PT auf SR), und
    • – den vorher berechneten und diesem Punkt zugeordneten Vektor.
  • Das gemessene Feld DH kann auch die variablen Eigenschaften des Gerätes APP1 (APP2) beinhalten.
  • Das Feld DH kann auch eine Schätzung der gemessenen Informationen beinhalten. In der Tat kann man zum Gewinn an Platz- und/oder Berechnungszeit die gemessen formatierte Information anhand einer begrenzten Anzahl von Bits (3 Bits zum Beispiel) quantifizieren.
  • Hier ist zu merken, dass der im Schritt ET2.4 berechneten Vektor VM denjenigen sein kann, der die mathematische Projektion H (PT) des Punktes PT auf der Fläche SR als Anfang und den Punkt PR als Ende hat.
  • Oder, der Vektor VM kann denjenigen sein, der den Eigenschaftspunkt PT als Anfang und die mathematische Projektion des durch Bijektion zugeordneten Punktes PR als Ende hat. Umgekehrt kann der Vektor VM denjenigen sein, der die mathematische Projektion eines durch Bijektion einem Punkt PT zugeordneten Punktes PR als Anfang und diesen Punkt PT oder irgendeine andere Kombination, die die besagten Punkte in Gang setzt, als Ende hat.
  • Oben wurde beschrieben, dass eine formatierte Information variable Eigenschaften beinhalten konnte. Tatsächlich, wird sich um eine Kombination von variablen Eigenschaften wie zum Beispiel eine Kombination der Brennweite, der Scharfstellung, der Blendenöffnung, der Erfassungsgeschwindigkeit, der Öffnung, usw. handeln können.
  • Wie in 17 dargestellt sieht die Erfindung vor die formatierten Informationen aus formatierten Informationen, die für Kombinationen von bekannten variablen Eigenschaften gemessen wurden, durch Interpolation zu berechnen.
  • Zum Beispiel in der vereinfachten Darstellung der 17 beinhaltet jede Ebene die gemessenen formatierten Informationen eines Bildes für einen bestimmten Wert von Kombinationen. Zum Beispiel entspricht die Ebene f = 2 der Kombination „Brennweite = 2, Distanz = 7, Erfassungs-geschwindigkeit = 1/100". Die Ebene f = 10 entspricht der Kombination „Brennweite = 10, Distanz = 7, Erfassungsgeschwindigkeit = 1/100". Die Ebene f = 50 entspricht der Kombination „Brennweite = 50, Distanz = 7, Erfassungs-geschwindigkeit = 1/100".
  • Für einen beliebigen Punkt PQT des Supports oder PQR der Referenzfläche, dessen variable Eigenschaften unter anderem die Kombination „Brennweite = 25, Distanz = 7 und Erfassungsgeschwindigkeit = 1/100" beinhalten, wird einen Wert von erweitertem formatiertem Information zwischen den beiden Ebenen f = 10 und f = 50 der 17 interpoliert, und zwar speziell, wenn angenommen wird, dass die Ebenen der 17 die gemessenen formatierten Informationen von Punkten PT des Bildes zwischen den beiden Punkten PT(10) und PT(50) der Ebenen f = 10 und f = 50 darstellen.
  • Ein Ausführungsbeispiel der Erfindung wird dann wie mit Bezug auf 13 oder 14 beschrieben die Berechnung eines gemessenen Feldes und wie mit Bezug auf 15a bis 16b beschrieben die Berechnung von formatierten Informationen in Gang setzen. Diese verschiedenen Berechnungen und die entsprechenden Schritte werden für verschiedene Kombinationen von variablen Eigenschaften und/oder für verschiedene Kombination mit einem zugeordneten Wert durchgeführt. Anschließend werden für einen beliebigen Punkt (PQT oder PQR) oder einen Satz von beliebigen Punkten eines anhand einer beliebigen aber doch bekannten Kombination erfassten Bildes erweiterte formatierte Informationen zwischen zwei Ebenen von gemessenen formatierten Informationen interpoliert.
  • In 17 wird einen Fall angesehen, in dem der Punkt, für den man die formatierte Information berechnen will, dieselbe Koordinaten X und Y wie Punkte, von den man die gemessenen formatierten Informationen kennt, hat.
  • 18 zeigt einen Fall, in dem man die gemessene formatierte Information eines beliebigen Punktes PQRi oder PQTi, der sich zwischen den Ebenen f = 10 und f = 50 befindet, und von dem die Koordinaten nicht den Koordinaten der Punkte der Ebenen f = 10 und f = 50 entsprechen, sucht.
  • Jedem Punkt wird ein Argument Ai zugewiesen, das mindestens die Koordinaten Xi und Yi des Punktes sowie die Eigenschaften einer Kombination von variablen Eigenschaften beinhaltet.
  • Die Ebene f = 2 entspricht einer Kombination C1.0 von variablen Eigenschaften. Die Ebene f = 10 entspricht einer Kombination C2.0 und die Ebene f = 50 entspricht einer Kombination Cm.O.
  • Jeder Punkt der Ebene f = 2 hat als Argument
    „Koordinaten X, Y; Kombination C1.0".
  • Der Punkt PQRi oder PQTi, von dem man die formatierte Information sucht, hat als Argument
    „Koordinaten Xi, Yi; Kombination Ci".
  • Unter diesen Umständen werden zum Beispiel die Verfahren und System eine Interpolation zwischen den gemessenen formatierten Informationen der Ebenen f = 10 und F = 50 durchführen
  • Für einen beliebigen Punkt PQT/PQR reicht es zum Beispiel aus das Argument (X, Y, Brennweite, Distanz, Öffnung, Iso, Geschwindigkeit, Flash, usw.) bezüglich dieses Punktes ins parametrierbare Modell nachzufügen, um die formatierten Informationen bezüglich diese Punktes zu finden.
  • Eine effiziente Weise kann zur Berechnung der Homografie zwischen der Referenzfläche SR und der Fläche des Supports SC angewandt werden, in der vier Punkte PTm1 bis PTm4 und PRm1 bis PRm4, die durch Bijektion miteinander übereinstimmen, und die sich zum Beispiel in den Periphergrenzen des Supports SC und der Referenzfläche SR befinden, auf dem Support SC und auf der Referenzfläche SR ausgewählt werden. Die Lagen dieser Punkte werden zum Beispiel so ausgewählt, dass die zwischen diesen Punkten enthaltenen Flächen maximiert werden.
  • Darüber hinaus sind wie in 198c beschrieben die Lagen dieser Punkte so ausgelegt, dass der Abschnitt der Diagonalen der aus diesen Punkten gebildeten Vierecke in der Mitte oder nah bei der Mitte der Vierecke liegt.
  • Anschließend wird eine mathematische Projektion (zum Beispiel eine Homografie) berechnet, mit der die vier Eigenschaftspunkte PTm.1 bis PTm.4 in die vier Referenzpunkte PRm.1 bis PRm.4 umwandelt werden können.
  • Diese mathematische Projektion wird den formatierten Informationen des Bildes zugeordnet.
  • Diese formatierten Informationen können in einer Bildverarbeitungssoftware zur Korrektur der geometrischen Verzerrungen von Perspektiven oder zur Wiedergabe der Bilder mit leichter Perspektivänderung angewandt werden.
  • Eine andere Weise die vier Punkte PTm.1 bis 4 und PRm.1 bis 4 auszuwählen besteht darin, vier Punkte PTm.4 im Bild I so zu nehmen, dass sie ein Viereck bilden, das dem aus den Punkten H (PRm.1 bis 4) – mathematische Projektionen der Punkte PRm, die durch Bijektionen den Punkten PTm.1 bis 4 entsprechen – gebildeten Viereck um Skalenfaktorbreite so nah wie möglich ist.
  • Mit Bezug auf 20a bis 20b werden Verfahren zur Berechnung von formatierten Informationen bezüglich Farbbilder beschrieben. Ein Farbbild kann als aus mehreren monochromen Bildern bestehend angesehen werden. Klassischerweise kann man bedenken, dass ein Farbbild ein dreifarbiges Bild ist, das aus drei einfarbigen (rot, blau, grün) Bildern besteht. Man weißt, dass in Optik die Verzerrungen, die von den Optiken und den Lichtübertragungsmedien induziert werden, zu verschiedenen Effekten auf die einzelnen Wellenlängen führen. In einem dreifarbigen Bild führt dann derselbe physikalische Fehler zu verschiedenen Verzerrungen auf dem Bild, das vom Licht in Rotwellenlänge, auf demjenigen in Grünwellenlänge und auf demjenigen in Blauwellenlänge übertragen wird.
  • Wie in 20a beschrieben entsprechen im Bild I aus einem dreifarbigen Bezugssystem M, welchem eine quasi-ähnliche virtuelle Referenz R entspricht, drei überlagerten Bilder, die in den Ebenen SCR, SCV und SCB separat dargestellt wurden. Die drei Bilder IR, IV und IB weisen verschiedene Verzerrungen auf, was ein dreifarbiges Bild ergibt, das gleichzeitig geometrische Verzerrung und chromatische Abberationen aufweist.
  • 20b zeigt das Prinzip der Verfahren und System zum Erhalt von formatierten Informationen, mit den eine Bildverarbeitungssoftware die Verzerrungen und/oder die chromatischen Aberrationen korrigiert werden kann.
  • Nach diesen Verfahren und System wird für jeden dreifarbigen Punkt des Bildes je Farbe eine Information berechnet. Angesehen wird dann, dass so viele monochromen Bilder wie es Farben gibt korrigiert werden sollen. Im dreifarbigen Beispiel erfolgen die Berechnungen, als ob man drei Bilder zu korrigieren hätte.
  • Für die Berechnung der formatierten Informationen der drei Bilder IR, IV und IB kommen dieselben Verfahren und Systeme wie mit Bezug auf 13a bis 19c beschrieben zur Anwendung.
  • Nach 20b wurde eine Fläche SR mit einer virtuellen Referenz R, die dreifarbige Punkte PR (RVB) enthält, sowie die Zersetzung des Bildes I in drei monochromen Bilder IR, IV, IB, die je Punkte einer einzigen Farbe PTR, PTV, PTB enthalten.
  • Eine Weise zur Berechnung der formatierten Informationen bezüglich eines dreifarbigen Punktes besteht darin, die gleiche virtuelle Referenz für die drei Farbebenen zu benutzen. Angewandt werden dann drei mathematischen Projektionen: eine mathematische Projektion HR für den roten Punkt PTR, eine Projektion HV für den grünen Punkt PTV und eine Projektion HB für den blauen Punkt PTB, wie in 20b dargestellt.
  • Eine zweite Weise zur Berechnung der formatierten Informationen bezüglich eines dreifarbigen Punktes besteht darin, wahlweise ein einziges monochromes Bild IR oder IV oder IB zu benutzen, aus dem eine einzige mathematische Projektion HR oder HB oder HV berechnet wird. Zum Beispiel werden die formatierten Informationen nur aus dem Bild IR entnommen und für die grüne und blaue Bilder behalten. Mit dieser Weise werden Rechenzeit und Speicherraum gespart.
  • Mit den so erhaltenen formatierten Informationen können dann die geometrischen Verzerrungen korrigiert werden.
  • Eine andere Vorgehensweise nach 20c besteht darin, die gleiche virtuelle Referenz R zu benutzen und formatierte Informationen für jede Farbebene anhand einer wahlweise auf einer der Monochromebenen definierten gleichen mathematischen Projektion zu berechnen. Zum Beispiel wird nur die mathematische Projektion HR bezüglich des roten Punktes berechnet. Anschließend wird diese mathematische Projektion auf die drei roten, grünen und blauen Punkte zur Berechnung der formatierten Informationen dieser Punkte angewandt. In diesem Falle kann damit eine Bildverarbeitungssoftware die geometrischen Verzerrungen und chromatischen Aberrationen gleichzeitig korrigieren.
  • Eine andere Vorgehensweise nach 20d besteht darin
    • – für das Bild einer bestimmten Farbe, zum Beispiel das rote Bild IR, die formatierten Informationen anhand einer mutmaßlich perfekten virtuellen Referenz R und einer mathematischen Projektion H (R) der Punkte der virtuellen Referenz auf die Fläche des roten Bildes IR zu berechnen, womit die Verzerrungen des roten Bildes korrigiert werden können,
    • – für die Bilder der anderen Farben, zum Beispiel die grünen und blauen Bilder IV und IB, das Bild der vorigen Farbe, hier im genommenen Beispiel das rote Bild IR, als virtuelle Referenz R' anzuwenden und eine mathematische Projektion H (IRd) der Punkte dieses roten Bildes auf die Flächen des grünen Bildes IV und der blauen Bildes IB zu erstellen. Vorzugsweise wird diese Projektion eine Formel (oder eine formelmäßige Projektion) der Punkte des roten Bildes auf die grünen und blauen Bilder. Damit können die Abweichungen (chromatische Aberrationen) zwischen den roten, grünen und blauen Bildern beseitigt werden. Die formatierten Informationen der Punkte der grünen und blauen Bilder können dann die mathematische Projektion der Punkte der virtuellen Referenz R auf das rote Bild sowie die mathematische Projektion (Formel) des roten Bildes auf die jeweiligen grünen und blauen Bilder beinhalten. Mit dieser Vorgehensweise können ggf. nur die Verzerrungen korrigiert werden, wenn nur die aus dem roten Bild entnommenen formatierten Informationen angewandt werden, oder nur die Färbung wenn nur die formatierten Informationen bezüglich der grünen und Blauen Bilder angewandt werden, oder beide Phänomenen gleichzeitig, wenn die gesamten Informationen angewandt werden.
  • In der vorigen Beschreibung ist es auch zu merken, dass die Wahl der Schwellwerte für jedes parametrierbares Modell bezüglich der chromatischen Aberrationen anders wie die bezüglich der geometrischen Verzerrung erfolgt, sodass mehr oder weniger Schärfe in der Entzerrung dieses Fehlers erhalten wird.
  • Hier ist zu merken, dass die Wahl der mathematischen Projektionen nur für ein Teil des Bildes erfolgen kann. Sind zum Beispiel das Bild I und die virtuelle Referenz R so wie in 22 dargestellt und will man dem Bild einen Perspektiveffekt wiedergeben, kann die mathematische Projektion der Punkte PR auf den Support SC nur vier Punkte PT1 bis PT4 und PR1 bis PR4, die schon für die Erstellung einer Homographie genügen, anwenden. Dann folgen die anderen Punkte des Bildes diese mathematische Projektion zum Erhalt eines Bildes, das einen solchen Perspektiveffekt wie das in 22 dargestellte Bild IC1. Die Wahl der mathematischen Projektion kann erweitert werden, sodass ein bestimmter Effekt auf dem Bild, das von den Bildverarbeitungssoftwares mittels der so berechneten formatierten Informationen korrigiert wird, erhalten werden kann.
  • Hier ist zu merken, dass man die chromatischen Informationen für die Korrektur des Verzerrungen angewandt hat, aber man könnte auch die Leuchtdichteninformationen anwenden.
  • Hierüber wurde angesehen, dass die Referenz R dem Bezugssystem M quasi-ähnlich war. Wenn man ansieht, dass die virtuelle Referenz R dem Bezugssystem M exakt ähnlich ist, kann man die formatierten Informationen, mit den das Bild I korrigiert werden kann, berechnen, sodass es die exakte Replik des Bezugssystems M ist.
  • Wie in 21 dargestellt kann vorgesehen werden, dass die virtuelle Referenz M dem Bezugssystem M gegenüber deformiert ist. Zum Beispiel wird die virtuelle Referenz trapezförmig während das Bezugssystem rechteckförmig ist. Mit den formatierten Informationen, die man erhalten wird, kann das Bild I so korrigiert werden, das eine trapezförmige Deformation auf dem korrigierten Bild induziert wird. Ein Ausführungsbeispiel einer solchen Anordnung besteht in Reproprojektoren, in den die bekannte Deformation, die von solchen Geräten induziert wird, korrigiert werden kann, weil die Achse des Projektionsbündels nicht senkrecht zur Bildschirmebene ist.
  • Man kann auch die virtuelle Referenz mittels Verzerrungen deformieren, um Eigenschaften oder sogar Fehler, die mit anderen Geräten als die, mit den das Bild I hergestellt wurde, zu induzieren. Um dem korrigierten Bild einen bestimmten Aspekt zu geben, können zum Beispiel Eigenschaften von perfektionierten oder zum Gegenteil von älteren Geräten in die virtuelle Referenz induziert werden. Die formatierten Informationen, die gemessenen formatierten Informationen oder die gemessenen formatierten Informationen, die erweitert und mit einer solchen virtuellen Referenz erhalten worden sind, integrieren die Verzerrungen, die man in die virtuelle Referenz induziert hat, sodass die formatierten Informationen und/oder die gemessenen formatierten Informationen von Softwares zur Verarbeitung von Bildern, die von einem ersten Bildverarbeitungsgerät zum Erhalt von Bildern, deren Qualität hinsichtlich Verzerrung mit derjenige eines zweiten Bilderfassungsgerätes vergleichbar ist, angewandt werden. Diese Technik ist auch für die Bildwiedergabe anwendbar, wenn man ansieht, dass eine Bildverarbeitungssoftware dann ein Bild anhand eines ersten Wiedergabegerät wiedergeben kann, dessen Qualität hinsichtlich Verzerrung mit derjenige eines zweiten Bilderfassungsgerätes vergleichbar ist.
  • Anderseits kann vorgesehen werden, dass die dann von einer Bildverarbeitungssoftware angewandten formatierten Informationen zu unverarbeiteten Zonen im Umfang des korrigierten Bildes führen. Zum Beispiel kann ein in 23a dargestelltes unkorrigiertes Bild I ein wie in 23b dargestellt korrigiertes Bild ergeben, das unverarbeitete Zonen ZN aufweist, die in 23b in schwarz bezeichnet sind.
  • Die formatierten Informationen können dann vorher geändert werden, um wie in 23c beschrieben einen Vergrößerungseffekt Ic' zu erhalten, sodass die unverarbeiteten Zonen beseitigt werden.
  • Praktischerweise sieht man während der Kalibrierung und der Berechnung der formatierten Information vorteilhaft vor, diese Berechnungen durchzuführen und die beschriebenen Verfahren auf mehrere Bilder wirken zu lassen, und anschließend einen Mittelwert aus den erhaltenen Ergebnissen, gegebenenfalls mit Beseitigung der abwegigen Ergebnisse, zu ziehen.
  • Anderseits kann im Falle von Kombinationen, in den sich variable Eigenschaften einschalten, die eine hohe Anzahl von Werten annehmen können, vorgesehen werden, die Anzahl von Kombinationen zu beschränken. Dafür sieht man für diese variablen Eigenschaften vor, eine Analyse als Hauptkomponente durchzuführen. Damit sucht man eine oder mehrere bestimmten Richtungen der Komponenten aus, die diesen variablen Eigenschaften, für die man spürbare Verzerrungen hat, entsprechen. Für andere Richtungen wird, egal was die anderen variablen Eigenschaften sind, vermutlich festgestellt, dass man kaum Verzerrungsvariation hat. Deshalb werden diese anderen Richtungen nicht berücksichtigt.
  • In der oder den begünstigten Richtungen wird die Anzahl von Referenzbildern nach verschiedenen Kriterien, wie zum Beispiel die Tatsache, dass die n + 1. Kombination den n ersten Kombination entsprechend nicht exakt wie gewünscht vorausgesagt werden kann, ausgewählt.
  • In der oben aufgeführten Beschreibung sieht man an, dass das Bild aus Punkten besteht, und ließt man die Verarbeitungen der beschriebenen Verfahren und Systeme auf Punkte wirken. Jedoch könnten die beschriebenen Verfahren und Systeme, ohne aus dem Erfindungsgebiet herauszutreten, Sätze von Punkten verarbeiten, die Elemente bilden und Motive (Pastillen, usw.) darstellen.
  • Im Falle, dass das Gerät oder die Gerätkette eine variable Eigenschaft enthält, die nur eine kleine Anzahl von diskreten Werten (zum Beispiel drei diskreten Brennweitenwerte) besitzt, ist es aus Präzisionsgründen von besonderem Interesse, lieber drei Mal den Brennweitenprozess in Gang zu setzen als eine annähernde polynomische Fläche, die die Brennweite als Parameter einschließen würde, anzuwenden.
  • Der Anwendungsbereich der Anordnung kann den Anwendungsbereich bezüglich der Qualität der Bilder miteinbeziehen, abgesehen davon, dass die Qualität der Bilder unter anderem als inhaltliche Restverzerrung gemessen werden kann. Die Erfindung gilt auch für den Bereich der Bemessung aus der Computervision, die unter dem Ausdruck „Visionsmetrologie" bekannt ist.
  • Anderseits kann die Erfindung zur Berechnung des Wertes der Brennweite, die für die Erfassung eines Bildes angewandt wurde, benutzt werden. In der Tat kann der Berufspieler aus einem korrigierten, also von radialen Verzerrungen befreiten Bild die geometrischen Eigenschaften der Fluchtpunkte wie im Artikel G.-Q. WEI und al, „Camera Calibration by Vanishing Point and Cross Ratio", der in IEEE International Conference an Acoustics Speech und Signal Processing, Seiten 1630-1633, Glasgow, Gross-Birtanien, Mai 1989 erschien, beschrieben. Damit kann die fokale Distanz der Bilderfassungs- oder Bildwiedergabevorrichtung sowie die Lage, auf dem Bildsupport SC, der Abschnitt der optischen Achse dieses Supports. Diese Informationen können in solchen Applikationen wie die Visionsmetrologie angewandt werden.
  • Anderseits ist es zu merken, dass die Kenntnis des Bezugssystem um eine Homographie weitgehend definiert wird, dass die Bilderfassungs- oder Bildwiedergabevorrichtung im Moment der Bildaufnahme nicht besonders orthogonal sein muss. Die Lagen der Punkte PT liegen nicht unbedingt auf regelmäßigen Formen (Linie oder Kreise) und können sogar zufallsbedingt verteilt sein. Darüber hinaus kann ihre relative Lage um einen Skalenfaktor weitgehend nur bekannt sein.
  • Wird im Falle, dass eine Gerätkette aus mehreren Geräten besteht, zum Beispiel ein Projektor und ein Photoapparat oder zum Beispiel ein Drucker und ein Scanner, die Erfindung in Gang gesetzt, und weist ein der Geräte, zum Beispiel der Photoapparat oder der Scanner, keinen oder kaum Verzerrungs-fehler auf, stellen die Verfahren und System nur formatierte Informationen bezüglich des anderen Gerätes her. Hier handelt sich es um eine sachliche Methode zur Herstellung der formatierten Informationen bezüglich eines Bildwiedergabegerätes anhand eines Bilderfassungsgerätes, das fehlerfrei ist oder dessen Fehler vorher gemessen und korrigiert worden sind.
  • Wird im Falle, dass eine Gerätkette aus mehreren Geräten besteht, zum Beispiel ein Photoapparat und ein Scanner, die Erfindung in Gang gesetzt, stellen die Verfahren und System formatierte Informationen bezüglich beider Geräte her. Hier handelt sich es um eine günstige Methode zur Korrektur der Fehler eines Photoapparats, falls die von den vorliegenden Verfahren und System und von den Bildverarbeitungsmitteln angewandten Bilder mit selbem Gerät gescannt worden sind, ohne dafür die Fehler des Scanners zu kennen.
  • Ausführungsvariante
  • Weitere Merkmale und Vorteile ergeben sich aus der Lesung
    • – der hiernach aufgeführten Definitionen der angewandten technischen Begriffe, die mit Bezug auf die hinweisenden und uneinschränkenden Beispiele der 1 bis 12 bebildert sind,
    • – der Beschreibung der 1 bis 12.
  • Szene
  • Man nennt Szene 3 eine dreidimensionale Stelle im Raum, die Objekte 107 enthält, die von Lichtquellen belichtet sind.
  • Bilderfassungsgerät, Bild, Bilderfassung
  • Jetzt wird mit Bezug auf 3 und 7 beschrieben, was man unter Bilderfassungsgerät 1 und Bild 103 versteht. Man nennt Bilderfassungsgerät 1 ein Gerät, das aus einer Optik 100, einem oder mehreren Sensoren 101, einer Elektronik 102, einer Speicherzone 16 besteht. Mit dem besagten Bilderfassungsgerät 1 können aus einer Szene 3 bewegliche oder feste digitale Bilder 103, die in der Speicherzone 16 gespeichert oder an eine externe Vorrichtung übertragen sind, erhalten werden. Bewegliche Bilder bestehen aus einer zeitlichen Reihenfolge von festen Bildern 103. Das besagte Bilderfassungsgerät 1 kann nämlich ein Photoapparat, eine Videokamera, eine mit einem PC verbundene oder in einem PC integrierte Kamera, eine mit einem Personalassistent verbundene oder in einem Personalassistent integrierte Kamera, eine mit einem Telefon verbundene oder in einem Telefon integrierte Kamera, ein Bildkonferenzgerät oder eine Kamera bzw. Messanlage, die gegen anderen Wellenlängen als das sichtbare Licht empfindlich ist, wie zum Beispiel eine thermische Kamera, sein.
  • Man nennt Bilderfassung, das Verfahren, in dem das Bild 103 vom Bilderfassungsgerät 1 berechnet wird.
  • Im Falle, dass ein Gerät mehrere austauschbaren Untereinheiten, im Speziellen eine Optik 100, enthält, nennt man Bilderfassungsgerät 1 eine besondere Gestaltung des Gerätes.
  • Bildwiedergabemittel, wiedergegebenes Bild, Bildwiedergabe
  • Jetzt wird mit Bezug auf 2 beschrieben, was man unter Bildwiedergabemittel 19 versteht. Ein solches Bildwiedergabemittel 19 kann nämlich ein Anzeigebildschirm, ein Fernseher, ein Flachbildschirm, ein Projektor, Virtuellrealitätsbrille, ein Drucker sein.
  • Ein solches Bildwiedergabemittel 19 enthält
    • – eine Elektronik,
    • – eine oder mehrere Licht-, Elektron- oder Tintequellen
    • – einen oder mehrere Modulatoren: Licht-, Elektron- oder Tintemodulationsvorrichtungen,
    • – eine Fokalisierungsvorrichtung, die bei einem Lichtprojektor eine Optik oder bei einem Bildschirm mit Bildröhre Fokalisierungsspulen oder bei einem Flachbildschirm Filter sein kann,
    • – einen Wiedergabesupport 190, der bei einem Bildschirm mit Bildröhre, einem Flachbildschirm oder einem Projektor ein Bildschirm, oder bei einem Drucker ein Drucksupport, auf dem der Druck erfolgen wird, oder bei einem Virtuellbildprojektor eine virtuelle Fläche im Raum sein kann.
  • Mit dem besagten Bildwiedergabemittel 19 kann aus einem Bild 103 ein wiedergegebenes Bild 191 auf dem Wiedergabesupport 190 erhalten werden.
  • Bewegliche Bilder bestehen aus einer zeitlichen Reihenfolge von festen Bildern.
  • Wird Bildwiedergabe genannt ein Verfahren, in dem das Bild vom Bildwiedergabegerät 19 angezeigt oder gedruckt wird.
  • Im Falle, dass ein Wiedergabemittel 19 mehrere Untereinheiten, die austauschbar sind, oder die sich relativ voneinander bewegen können, im Speziellen der Wiedergabesupport 190, nennt man Bildwiedergabemittel 19 eine besondere Gestaltung.
  • Sensoroberfläche, optischer Mittelpunkt, fokale Distanz
  • Jetzt wird mit Bezug auf 1 beschrieben, was man unter Sensoroberfläche 110 versteht.
  • Wird Sensoroberfläche genannt die Form, die im Augenblick der Bilderfassung durch die empfindliche Oberfläche des Sensors 101 des Bilderfassungsgerätes 1 im Raum gezeichnet wird. Generell ist diese Oberfläche eben.
  • Wird optischen Mittelpunkt 111 genannt ein Punkt im Raum, der im Augenblick der Bilderfassung dem Bild 103 zugeordnet wird. Ist die Sensoroberfläche 110 gleich, nennt man fokale Distanz die Distanz zwischen diesem Punkt 111 und der Ebene 110 Pixel, Pixelwert, Belichtungsdauer Jetzt wird mit Bezug auf 3 beschrieben, was man unter Pixel 104 und Pixelwert versteht.
  • Wird Pixel 104 genannt eine elementare Zone der Sensoroberfläche 110, die durch Herstellung einer generell regelmäßigen Bepflasterung der besagten Sensoroberfläche 110 erhalten wird. Wird Pixelwert genannt eine diesem Pixel 104 zugeordnete Zahl.
  • Eine Bilderfassung besteht darin den Wert jedes Pixels 104 zu ermitteln. Diese gesamten Pixel bilden das Bild 103.
  • Bei einer Bilderfassung wird den Pixelwert durch Integration, während der Zeitperiode, die man Belichtungsdauer nennt, eines Teiles des aus der Szene 3 durch die Optik 100 stammenden Lichtstromes oder durch Umrechnung des Ergebnisses dieser Integration in digitalem Wert erhalten. Die Integration des Lichtstromes und/oder die Umrechnung des Ergebnisses dieser Integration in digitalen Wert wird anhand der Elektronik 102 durchgeführt.
  • Diese Definition der Pixelwertvorstellung gilt für schwarz-weiße oder farbige Bilder 103, und zwar ob fest oder beweglich.
  • Jedoch wird je nach Fall der betroffene Lichtstromteil anders erhalten.
    • a) Im Falle eines farbigen Bildes 103 enthält die Sensoroberfläche 110 im Allgemeinen mehrere Typen von Pixels 104, die jeweils Lichtströmen verschiedener Wellenlängen, wie zum Beispiel rote, grüne oder blaue Pixel, zugeordnet sind;
    • b) Im Falle eines farbigen Bildes 103 kann es auch mehrere nebeneinanderliegenden Sensoren 101 geben, die je einen Teil des Lichtstromes erhalten;
    • c) Im Falle eines farbigen Bildes 103 können die angewandten Farben anders als rot, grün und blau, wie zum Beispiel für den amerikanischen Fernseher NTSC, und mehr als drei sein;
    • d) Im Falle nun einer Fernsehkamera mit sogenannter überlappender Abtastung bestehen die hergestellten beweglichen Bilder aus einer Abwechslung von Bildern 103, die die paarige Linien enthalten, und von Bildern 103, die die unpaarigen Linien enthalten.
  • Angewandte Gestaltung, angewandte Einstellungen, angewandte Eigenschaften Wird angewandte Gestaltung genannt die Liste der umsetzbaren Untereinheiten des Bilderfassungsgerätes 1, zum Beispiel die Optik 100, die falls austauschbar effektiv auf dem Biederfassungsgerät 1 gebaut ist. Im speziellen bezeichnet sich die angewandte Gestaltung durch
    • – den Typ der Optik 100,
    • – die Seriennummer der Optik 100 oder irgendeine andere Bezeichnung. Werden angewandte Einstellungen genannt
    • – die wie oben beschrieben angewandte Gestaltung, sowie
    • – den Wert der manuellen oder automatischen Einstellungen, die in der angewandten Gestaltung verfügbar sind, und die einen Einfluss auf den Inhalt des Bildes 103 haben. Diese Einstellungen werden vom Benutzer, unter anderem mittels Knöpfe, gemacht oder vom Bilderfassungsgerät 1 berechnet. Diese Einstellungen können ins Gerät, im Speziellen auf einen umsetzbaren Support, oder in irgendeine Vorrichtung, die mir dem Gerät verbunden ist, gespeichert werden. Diese Einstellungen können im Speziellen die Einstellungen der Fokalisierung, der Blende, der Brennweite der Optik 100, die Einstellungen der Belichtungsdauer, die Einstellungen der Weißenschwebe, die Einstellungen der Bildverarbeitung wie Digitalzoom, Kompression, Kontrast, einschließen.
  • Werden angewandte Eigenschaften oder Satz von angewandten Eigenschaften genannt
    • a) Parameter, die auf die eigentlichen technischen Eigenschaften des Bilderfassungsgerätes 1, die bei der Herstellung des Bilderfassungsgerätes 1 ermittelt werden, bezogen sind. Zum Beispiel können diese Parameter die Formel der Optik 100 der angewandten Gestaltung, die die geometrischen Fehler beeinflusst, und den Pikee der erfassten Bilder enthalten; die Formel der Optik 100 der angewandten Gestaltung schließt im Speziellen die Form, die Anordnung und das Material der Linsen der Optik 100 ein. Darüber hinaus können diese Parameter folgendes enthalten: – die Geometrie des Sensors 101, und zwar die Oberfläche des Sensors 110 sowie die Form und die relative Anordnung der Pixel 104 auf dieser Oberfläche, – die von der Elektronik 102 generierte Störung, – das Gesetz zur Umrechnung des Lichtstromes in Pixelwert.
    • b) Parameter, die auf die eigentlichen technischen Eigenschaften des Bilderfassungsgerätes 1, die bei der Herstellung des Bilderfassungsgerätes 1 ermittelt werden, bezogen sind, und zwar: – die exakte Positionierung der Linsen in der Optik 100 der angewandten Gestaltung, – die exakte Positionierung der Linsen in der Optik 100 gegenüber dem Sensor 101.
    • c) Parameter, die auf die eigentlichen technischen Eigenschaften des Bilderfassungsgerätes 1, die bei der Erfassung des Bildes 103 ermittelt werden, bezogen sind, und zwar: – die Positionierung und die Orientierung der Oberfläche des Sensors 110 gegenüber der Szene 3, – die angewandten Einstellungen, – solche externen Faktoren wie die Temperatur, soweit sie Einfluss haben.
    • d) die Vorzüge des Benutzers, im Speziellen die für die Wiedergabe von Bildern anzuwendende Farbtemperatur. Diese Vorzüge werden zum Beispiel vom Benutzer anhand von Knöpfen ausgewählt.
  • Die angewandten Eigenschaften 74 schließen im Speziellen die Vorstellung von variablen Eigenschaften ein.
  • Beobachtungspunkt, Beobachtungsrichtung
  • Jetzt wird mit Bezug auf 1 beschrieben, was man unter Beobachtungspunkt 105 und Beobachtungsrichtung 106 versteht.
  • Wird mathematische Fläche 10 genannt eine Fläche, die der Oberfläche des Sensors 110 geometrisch zugeordnet ist. Ist zum Beispiel die Oberfläche des Sensors eben, kann die mathematische Fläche 10 mit derjenige des Sensors verwechselt werden.
  • Wird Beobachtungsrichtung 106 genannt eine Gerade, die mindestens durch einen Punkt der Szene 3 und durch den optischen Mittelpunkt 111 kommt. Wird Beobachtungspunkt 105 genannt der Abschnitt der Beobachtungsrichtung 106 und der Fläche 10.
  • Beobachtete Farbe, beobachtete Intensität
  • Jetzt wird mit Bezug auf 1 beschrieben, was man unter beobachteter Farbe und beobachteter Intensität versteht. Wird beobachtete Farbe genannt die Farbe des vorgebrachten, übertragenen oder zu einem bestimmten Zeitpunkt von der besagten Szene 3 in die besagte Beobachtungsrichtung 106 reflektierten und vom Beobachtungspunkt 105 aus beobachteten Lichtes. Wird beobachtete Intensität genannt die Intensität des zum gleichen Zeitpunkt von der besagten Szene 3 in die Beobachtungsrichtung 106 vorgebrachten und vom Beobachtungspunkt 105 aus beobachteten Lichtes.
  • Die Farbe kann im Speziellen durch eine Lichtintensität, die einer Wellenlänge entspricht, oder noch durch zwei solchen Werte wie von einem Kolorimeter gemessen bezeichnet werden. Die Intensität kann durch einen solchen Wert wie von einem Photometer gemessen bezeichnet werden.
  • Die besagte beobachtete Farbe und die besagte beobachtete Intensität hängen im Speziellen von der relativen Lage des Objektes 107 in der Szene 3, von den Beleuchtungsquellen sowie von den Transparenz- und Reflexionseigenschaften des Objektes 107 zum Zeitpunkt der Beobachtung ab.
  • Mathematische Projektion, mathematisches Bild, mathematischer Punkt, mathematische Farbe eines Punktes, mathematische Intensität eines Punktes, mathematische Form eines Punktes, mathematische Lage eines Punktes
  • Generell ist solch eine mathematische Umwandlung wie eine mathematische Projektion eine Operation, mit der eine Entsprechung zwischen einem ersten Bild und einem zweiten Bild und besonders zwischen einem Punkt eines ersten Bildes und einem Punkt eines zweiten Bildes erstellt werden kann.
  • In 1 bis 9d und speziell in 5 erstellt eine mathematische Projektion 8 aus einem echten Bild oder einer Szene 3 ein mathematisches Bild 70 oder aus einer Bezugsszene 9 ein Kunstbild.
  • In 13a bis 23c und speziell in 14a erstellt eine mathematische Projektion H ein Verhältnis zwischen einem echten Bild (das Bild I in 14a) und einer virtuellen Referenz (R in 14a), um die Abweichungen zwischen dem Bild und der virtuellen Referenz festzustellen, damit Informationen zur Korrektur des echten Bildes erhalten werden.
  • Jetzt werden mit Bezug zum Beispiel auf 1, 5, 9a, 9b, 9c und 9d die Vorstellungen der mathematischen Projektion 8, des mathematischen Bildes 70, des mathematischen Punktes, der mathematischen Farbe eines Punktes, der mathematischen Intensität eines Punktes, der mathematischen Form 41 eines Punktes, der mathematischen Lage eines Punktes näher beschrieben.
  • Erstens wird mit Bezug auf 5 beschrieben, wie ein mathematisches Bild 70 durch bestimmte mathematische Projektion 8 von zumindest einer Szene 3 auf die mathematische Fläche 10 hergestellt wird.
  • Vorher wird beschrieben, was man unter bestimmter mathematischer Projektion versteht.
  • Eine mathematische Projektion 8 ordnet
    • – einer Szene 3 zum Zeitpunkt der Erfassung eines Bildes 103, und
    • – den angewandten Eigenschaften 70 ein mathematisches Bild 70 zu.
  • Eine bestimmte mathematische Projektion 8 ist eine Umwandlung, mit der die Eigenschaften jedes Punktes des mathematischen Bildes 70 aus der Szene 3 zum Zeitpunkt der Bilderfassung und den angewandten Eigenschaften 74 ermittelt werden können.
  • Vorzugsweise wird die mathematische Projektion 8 wie folgt ermittelt.
  • Wird mathematische Lage 40 des Punktes genannt die Lage des Beobachtungspunktes 105 auf der mathematischen Fläche 10.
  • Wird mathematische Form 41 des Punktes genannt die pünktliche geometrische Form des Beobachtungspunktes 105.
  • Wird mathematische Farbe des Punktes genannt die beobachtete Farbe.
  • Wird mathematische Intensität des Punktes genannt die beobachtete Intensität.
  • Wird mathematisches Punkt genannt die Vereinigung der mathematischen Lage 40, der mathematischen Form 41, der mathematischen Farbe und der mathematischen Intensität für den angesehenen Beobachtungspunkt 105. Das mathematische Bild 70 besteht aus den gesamten besagten mathematischen Punkten.
  • Die mathematische Projektion 8 der Szene 3 ist das mathematische Bild 70.
  • Echte Projektion, echter Punkt, echte Farbe eines Punktes, echte Intensität eines Punktes, echte Form eines Punktes, echte Lage eines Punktes
  • Hiernach werden insbesondere mit Bezug auf 3, 5, 9a, 9b, 9c und 9d die Vorstellungen der echten Projektion 72, des echten Punktes, der echten Farbe eines Punktes, der echten Intensität eines Punktes, der echten Form 51 eines Punktes, der echten Lage 50 eines Punktes beschrieben.
  • Bei der Bilderfassung stellt das den angewandten Eigenschaften 74 zugeordnete Bilderfassungsgerät 1 ein Bild her. Damit erhaltet man in 1 und 7 ein Bild 103 der Szene 3 und in 13a und 14a ein Bild I eines Bezugssystems M. In 1 kommt das Licht aus der Szene 3 in einer Beobachtungsrichtung 106 durch die Optik 100 auf die Sensoroberfläche 110.
  • Damit erhaltet man für die besagte Beobachtungsrichtung was man einen echten Punkt (oder Eigenschaftspunkt PT auf 3a) nennt, das dem mathematischen Punkt (oder Referenzpunkt PR in 3a) gegenüber Abweichungen aufweist.
  • Jetzt werden mit Bezug auf 9a bis 9d die Abweichungen zwischen dem echten Punkt und dem mathematischen Punkt beschrieben.
  • Die der besagten Beobachtungsrichtung 106 zugeordnete echte Form 51 ist kein Punkt auf der Sensoroberfläche, sondern hat eine Wolkenform im dreidimensionalen Raum, der einen Abschnitt mit einem oder mehreren Pixels 104 hat. Diese Abweichungen sind im Speziellen auf das Koma, die sphärische Abberation, den Astigmatismus, die Zusammenfassung in Pixels 104, die chromatische Abberation, die Tiefe des Feldes, die Diffraktion, die parasitären Reflektionen, die Feldkrümmung des Bilderfassungsgerätes 1 zurückzuführen. Sie lassen einen Eindruck von Unschärfe, von Pikeemangel des Bildes 103.
  • Darüber hinaus weist die der besagten Beobachtungsrichtung 106 zugeordnete echte Lage 50 der mathematischen Lage 40 eines Punktes gegenüber eine Abweichung auf. Diese Abweichung sind im Speziellen auf die geometrische Verzerrung, die eine Eindruck von Deformierung ließt, zurückzuführen: zum Beispiel scheinen die senkrechten Wände gebogen. Sie kommt auch aus der Tatsache, dass die Anzahl von Pixels 104 beschränkt ist, und dass deswegen die echte Lage 50 nur eine begrenzte Anzahl von Werten annehmen kann.
  • Darüber hinaus weist die der besagten Beobachtungsrichtung 106 zugeordnete echte Intensität der mathematischen Intensität eines Punktes gegenüber Abweichungen auf. Diese Abweichungen sind im Speziellen auf das Gamma und die Vignettierung zurückzuführen: zum Beispiel scheinen die Ränder des Bildes 103 dunkler. Anderseits kann Störung zum Signal hinzukommen.
  • Schließlich weist die der besagten Beobachtungsrichtung zugeordnete echte Farbe der mathematischen Farbe eines Punktes gegenüber Abweichungen auf. Diese Abweichungen sind im Speziellen auf das Gamma und die gefärbte Dominante zurückzuführen. Anderseits kann Störung zum Signal hinzukommen.
  • Wird echten Punkt genannt die Zusammenfassung der echten Lage 50, der echten Form 51, der echten Farbe und der echten Intensität für die angesehene Beobachtungsrichtung 106.
  • Die echte Projektion 72 der Szene 3 besteht aus den gesamten echten Punkten.
  • Modell von parametrierbarer Umwandlung, Parameter, korrigiertes Bild
  • Wird in einer Ausführungsvariante Modell von parametrierbarer Umwandlung 12 (oder abgekürzt parametrierbare Umwandlung 12) genannt eine mathematische Umwandlung, mit der ein korrigiertes Bild 71 aus einem Bild 103 und dem Wert von Parametern erhalten werden kann. Die besagten Parameter können wie unten beschrieben aus den angewandten Eigenschaften 74 berechnet werden.
  • Mit der besagten Umwandlung können im Speziellen für jeden echten Punkt des Bildes 103 die korrigierte Lage des besagten echten Punktes, die korrigierte Farbe des besagten echten Punktes, die Form des besagten echten Punktes aus dem Wert der Parameter, der echten Lage des besagten echten Punktes und den Werten der Pixels des Bildes 103 ermittelt werden. Die korrigierte Lage kann zum Beispiel anhand von Polynomen, deren Grad der echten Lage, den Koeffizienten der Polynome, die vom Wert der Parameter abhängen, entsprechend gesetzt ist, berechnet werden. Die korrigierte Farbe und die korrigierte Intensität können zum Beispiel gewichtete summen der Werte der Pixels, die vom Wert der Parameter und von der echten Lage abhängenden Koeffizienten oder noch nichtlineare Funktionen der Werte der Pixels des Bildes 103 sein.
  • Im speziellen können die Parameter folgendes enthalten: die Brennweite der Optik 100 der angewandten Gestaltung oder solch ein bezogener Wert wie die Lage einer Linsengruppe, die Fokalisierung der Optik 100 der angewandten Gestaltung oder solch ein bezogener Wert wie die Lage einer Linsengruppe, die Öffnung der Optik 100 oder ein bezogner Wert wie die Lage der Blende.
  • Abweichung zwischen dem mathematischen Bild und dem korrigierten Bild
  • Mit Bezug auf 5 wird Abweichung 73 zwischen dem mathematischen Bild 70 und dem korrigierten Bild 71 für eine gegebene Szene 3 und gegebene angewandte Eigenschaften 74 genannt ein oder mehrere Werte, die aus Zahlen, die die Lage, die Farbe, die Intensität, die Form eines Teiles der oder aller korrigierten Punkte bezeichnen, ermittelt werden.
  • Zum Beispiel kann die Abweichung 73 zwischen dem mathematischen Bild 70 und dem korrigierten Bild 71 für eine gegebene Szene 3 und gegebene angewandte Eigenschaften 74 wie folgt ermittelt werden:
    • – Es werden Eigenschaftspunkte ausgewählt, die zum Beispiel die Punkte eines orthogonalen Rasters 80 von Punkten, die wie in 10 dargestellt regelmäßig angeordnet sind, sein können.
    • – Zum Beispiel wird die Abweichung 73 für jeden Eigenschaftspunkt durch Kalkulierung der Summe der absoluten Werte der Abweichungen zwischen jeder Zahl, die die Lage, die Farbe, die Intensität, die Form für den jeweiligen korrigierten Punkt und den mathematischen Punkt bezeichnet, berechnet. Die Funktion „Summe der absoluten Werte der Abweichungen" kann durch eine andere Funktion wie der Durchschnitt, die Summe der Quadrate oder irgendeine andere Funktion, mit der die Zahlen kombiniert werden können, ersetzt werden.
  • Bezugszene oder Bezugssystem
  • Wird Bezugsszene 9 (oder in 13a und usw. Bezugssystem M) genannt eine Szene 3, von der einige Eigenschaften bekannt sind. Als Beispiel zeigt 4a eine Bezugsszene 9, die aus einem Papierblatt besteht, das regelmäßig angeordnete schwarz gefüllte Kreise beinhaltet. 4b zeigt ein anderes Papierblatt, das die gleichen Kreise beinhaltet, zu den aber Striche und gefärbte Flächen hinzugefügt wurden. Mit den Kreisen kann die echte Lage 50 eines Punktes, mit den Strichen die echte Form 51 eines Punktes und mit den gefärbten Flächen die echte Farbe eines Punktes sowie die echte Intensität eines Punktes gemessen werden. Statt aus Papier kann diese Bezugsszene 9 aus einem anderen Material sein.
  • Referenzbild
  • Jetzt wird mit Bezug auf 12 die Vorstellung des Referenzbildes 11 (oder in 13a und usw. des Bildes I auf dem Support SC) beschrieben. Wird Referenzbild 11 genannt ein mit dem Bilderfassungsgerät 1 erhaltenes Bild der Bezugsszene 9.
  • Kunstbild, Kunstbildklasse
  • Jetzt wird mit Bezug auf 12 die Vorstellung des Kunstbildes und der Kunstbildklasse 7 beschrieben. Wird Kunstbild genannt ein durch mathematische Projektion 8 erhaltenes mathematisches Bild 70 einer Bezugsszene 9. Wird Kunstbildklasse 7 genannt ein Satz von durch mathematische Projektion 8 einer oder mehrerer Bezugsszenen 9 erhaltenen mathematischen Bildern 70, und zwar für einen oder mehreren Sätze von angewandten Eigenschaften 74. Sollte es nur eine Szene 9 und nur einen Satz von angewandten Eigenschaften 74 geben, enthält die Kunstbildklasse 7 nur ein Kunstbild. In 13a usw. kann die virtuelle Referenz SR als solch eine Kunstbild angesehen werden.
  • Umwandeltes Bild
  • Jetzt wird mit Bezug auf 12 die Vorstellung des umwandeltes Bildes 13 beschrieben. Wird umwandeltes Bild 13 genannt das durch Anwendung eines parametrierbaren Umwandlungsmodells 12 für ein Referenzbild 11 erhaltene korrigierte Bild.
  • Einer Kunstbildklasse nahes umwandeltes Bild, restliche Abweichung
  • Jetzt werden mit Bezug auf 12 die Vorstellung des einer Kunstbildklasse 7 nahen umwandelten Bildes 13 und die Vorstellung der restlichen Abweichung 14 beschrieben.
  • Es wird die Abweichung zwischen einem umwandelten Bild 13 und einer Kunstbildklasse 7 als die schwächste Abweichung zwischen dem umwandelten Bild 13 und irgendeinem der Kunstbilder der besagten Kunstbildklasse ermittelt.
  • Nun wird beschrieben, wie man unter den parametrierbaren Umwandlungsmodellen 12, dasjenige mit dem jedes Referenzbild 11 in ein der Kunstbildklasse 7 der dem besagten Referenzbild 11 entsprechenden Bezugsszene 9 nahes, umwandeltes Bild 13 umwandelt wird, auswählt, und zwar in verschiedenen Fällen von Bezugsbildern 9 und angewanden Eigenschaften 74.
    • – ist eine gegebene Bezugsszene 9 einem Satz von gegebenen angewandten Eigenschaften 74 zugeordnet, wählt man die parametrierbare Umwandlung 12 (und ihre Parameter) aus, mit der das Referenzbild 11 in das umwandelte Bild 13, das die schwächste Abweichung mit der Kunstbildklasse 7 aufweist, umwandelt werden kann. Dann sagt man, dass die Kunstbildklasse 7 und das umwandelte Bild 13 nah sind. Die besagte Abweichung wird restliche Abweichung 14 genannt.
    • – ist eine gegebene Gruppe von Bezugsszenen 9 Sätzen von gegebenen angewandten Eigenschaften 74 zugeordnet, wählt man die parametrierbare Umwandlung 12 (und ihre Parameter) den Abweichungen zwischen dem umwandelten Bild jeder Bezugsszene 9 und der Kunstbildklasse 7 jeder angesehenen Bezugszene 9 entsprechend aus. Man wählt die parametrierbare Umwandlung 12 (und ihre Parameter) aus, mit der die Referenzbilder 11 in umwandelte Bilder 13 umwandelt werden können, sodass die Summe der besagten Abweichungen am schwächsten ist. Die Funktion „Summe" kann durch eine andere Funktion wie „Produkt" ersetzt werden. Man sagt dann, dass die Kunstbildklasse 7 und die umwandelten Bilder 13 nah sind. Wird restliche Abweichung genannt ein aus den besagten Abweichungen, zum Beispiel durch Berechnung ihres Mittelwertes, erhaltener Wert.
    • – Sind einige angewandten Eigenschaften 74 unbekannt, können diese von der Erfassung mehrerer Referenzbilder von zumindest einer Bezugszene 9 ausgehend ermittelt werden. In diesem Falle werden die unbekannten Eigenschaften und die parametrierbare Umwandlung 12 (sowie ihre Parameter), mit der die Referenzbilder 11 in umwandelte Bilder 13 umwandelt werden können, sodass die Summe der besagten Abweichungen am schwächsten ist, im Speziellen durch iterative Berechnung oder Auflösung von Gleichungen bezüglich der Summe der besagten Abweichungen und/oder ihres Produkts und/oder irgendeiner anderer geeigneter Kombination der besagten Abweichungen, gleichzeitig ermittelt. Man sagt dann, dass die Kunstbildklasse 7 und die umwandelten Bilder 13 nahestehend sind. Die unbekannten Eigenschaften können zum Beispiel die Lagen und die relativen Orientierungen der Sensoroberfläche 110 und jeder angesehenen Bezugsszene 9 sein. Wird restliche Abweichung genannt ein Wert, der aus den besagten Abweichungen, zum Beispiel durch Berechnung des Mittelwertes, erhalten wird.
  • Beste Umwandlung
  • Wird beste Umwandlung genannt die Umwandlung, die unter den parametrierbaren Umwandlungsmodellen 12 es ermöglicht, jedes Referenzbild 11 in ein umwandeltes Bild 13, das der Kunstbildklasse 7 der dem Referenzbild 11 entsprechenden Bezugsszene 9 nahestehend ist, zu umwandeln.
  • Kalibrierung
  • Wird Kalibrierung genannt ein Verfahren, mit dem Daten bezüglich der eigentlichen Eigenschaften des Bilderfassungsgerätes 1, und zwar für eine oder mehrere je aus einer einem Bilderfassungsgerät 1 zugeordneten Optik 100 bestehenden angewandten Gestaltungen, erhalten werden können.
  • Fall 1: im Falle, dass es nur eine Gestaltung gibt, enthält das Verfahren
    • – den Schritt zur Montierung der besagten Optik 100 auf das Bilderfassungsgerät 1,
    • – den Schritt zur Auswahl einer oder mehrerer Bezugsszenen 9,
    • – den Schritt zur Auswahl mehrerer angewandten Eigenschaften 74
    • – den Schritt zur Erfassung von Bildern aus den besagten Bezugsszenen 9 für die besagten angewandten Eigenschaften,
    • – den Schritt zur Berechnung der besten Umwandlung für jede Gruppe von Bezugsszenen 9, die den gleichen angewandten Eigenschaften 74 entspricht,
  • Fall 2: im Falle, dass alle Gestaltungen angesehen werden, die einem gegebenen Bilderfassungsgerät 1 und allen Optiken 100 eines gleichen Typs entsprechen, enthält das besagte Verfahren
    • – den Schritt zur Auswahl einer oder mehrerer Bezugsszenen 9,
    • – den Schritt zur Auswahl mehrerer angewandten Eigenschaften 74,
    • – den Schritt zur Berechnung von Bildern 103 aus den angewandten Eigenschaften und im Speziellen den Formeln der Optik 100 der angewandten Gestaltung und den Parameterwerten, und zwar anhand zum Beispiel einer radienzeichnenden Optikberechnungssoftware,
    • – den Schritt zur Berechnung der besten Umwandlung für jede Gruppe von Bezugsszenen 9, die den gleichen angewandten Eigenschaften entspricht.
  • Fall 3: im Falle, dass alle Umwandlungen angesehen werden, die einer gegebenen Optik 100 und allen Bilderfassungsgeräten eines gleichen Typs entsprechen, enthält das besagte Verfahren
    • – den Schritt zur Montierung der besagten Optik 100 auf das Bilderfassungsgerät des angesehenen Typs,
    • – den Schritt zur Auswahl einer oder mehrerer Bezugsszenen 9,
    • – den Schritt zur Auswahl mehrerer angewandten Eigenschaften 74,
    • – den schritt zur Erfassung von Bildern der besagten Bezugsszenen 9 für die besagten angewandten Eigenschaften,
    • – den Schritt zur Berechnung der besten Umwandlung für jede Gruppe von Bezugsszenen 9, die den gleichen angewandten Eigenschaften entspricht.
  • Vorzugsweise kann die Kalibrierung vom Hersteller des Bilderfassungsgerätes 1, und zwar für jedes Gerät und jeder Gestaltung im Falle 1, durchgeführt werden. Diese Methode ist zwar exakter aber mehr anstrengend und ist im Falle, dass die Optik nicht umsetzbar ist, sehr geeignet.
  • Anwechselnd kann die Kalibrierung vom Hersteller des Bilderfassungsgerätes 1, und zwar für jeden Typ und jede Gestaltung von Bilderfassungsgerät im Falle 2, durchgeführt werden. Diese Methode ist nicht so exakt aber einfacher.
  • Anwechselnd kann die Kalibrierung vom Hersteller des Bilderfassungsgerätes 1, und zwar für jeder Optik 100 und jeden Typ von Gerät im Falle 3, durchgeführt werden. Diese Methode ist ein Kompromiss, mit dem ein Optik 100 auf alle Bilderfassungsgeräte 1 eines Typs ohne Wiederholung der Kalibrierung für jede Kombination von Bilderfassungsgeräten 1 und Optik 100 angewandt werden kann.
  • Abwechselnd kann die Kalibrierung von einem Händler oder Installateur, und zwar für jedes Bilderfassungsgerät 1 und jede Gestaltung im Falle 1, durchgeführt werden.
  • Abwechselnd kann die Kalibrierung von einem Händler oder Installateur, und zwar für jede Optik 100 und jeden Typ von Gerät im Falle 3, durchgeführt werden.
  • Abwechselnd kann die Kalibrierung vom Benutzer des Gerätes, und zwar für jedes Gerät und jede Gestaltung im Falle 1, durchgeführt werden
  • Abwechselnd kann die Kalibrierung vom Benutzer des Gerätes, und zwar für jede Optik 100 und jeden Typ von Gerät im Falle 3, durchgeführt werden.
  • Digitaloptikkonzeption
  • Wird Digitaloptikkonzeption genannt ein Verfahren zur Kostensenkung der Optik 100, das dahin besteht
    • – eine Optik 100, die Fehler im Speziellen von Positionierung der echten Punkte aufweist, zu konzipieren oder aus einem Katalog zu wählen,
    • – die Anzahl von Linsen zu reduzieren, und/oder
    • – die Form der Linsen zu vereinfachen, und/oder
    • – kostengünstigere Materialien, Verarbeitungen oder Verfahren zu verwenden.
  • Das besagte Verfahren enthält
  • – den Schritt zur Auswahl einer (im oben aufgeführten Sinne) akzeptablen Abweichung,
  • – den Schritt zur Auswahl einer oder mehrerer Bezugszenen 9,
  • – den Schritt zur Auswahl mehrerer angewandten Eigenschaften 74.
  • Darüber hinaus enthält das besagte Verfahren die Iteration der folgenden Schritte:
    • – der Schritt zur Auswahl einer optischen Formel, die im Speziellen die Form, das Material und die Anordnung der Linsen beinhaltet,
    • – der Schritt zur Berechnung der Bilder 103 aus den angewandten Eigenschaften 74 und im Speziellen den Formeln der Optik 100 der angewandten Gestaltung, zum Beispiel durch Ingangsetzung einer Radienzeichnenden Optikberechnungssoftware oder Ausführung von Messungen auf einem Prototyp,
    • – der Schritt zur Berechnung der besten Umwandlung für jede Gruppe von Bezugsszenen 9, die den gleichen angewandten Eigenschaften 74 entsprechen,
    • – den Schritt zur Prüfung, ob die Abweichung akzeptabel ist, bis die Abweichung akzeptabel ist.
  • Formatierte Informationen
  • Werden dem Bild 103 zugeordnete formatierte Informationen 15 oder formatierte Informationen 15 genannt ein Teil der oder alle folgenden Daten:
    • – Daten bezüglich der eigentlichen technischen Eigenschaften des Bilderfassungsgerätes 1, im Speziellen die Verzerrungseigenschaften, und/oder
    • – Daten bezüglich der technischen Eigenschaften des Bilderfassungsgerätes 1 zum Zeitpunkt der Bilderfassung, im Speziellen die Belichtungsdauer, und/oder
    • – Daten bezüglich der Vorzüge des besagten Benutzers, im Speziellen die Temperatur der Farben, und/oder
    • – Daten bezüglich der restlichen Abweichungen 14.
  • Eigenschaftsdatenbasis
  • Wird Eigenschaftsdatenbasis 22 genannt eine Datenbasis, die formatierte Informationen 15 für ein oder mehrere Bilderfassungsgeräte 1 und für ein oder mehrere Bilder 103 enthält.
  • Die besagte Datenbasis 22 kann zentralisiert oder verteilt gespeichert werden und kann im Speziellen
    • – ins Bilderfassungsgerät 1,
    • – in die Optik 100,
    • – in die umsetzbare Speichervorrichtung,
    • – in einen PC oder in einen sonstigen Computer, der während der Bilderfassung mit den anderen Elementen verbunden ist,
    • – in einen PC oder in einen sonstigen Computer, der nach der Bilderfassung mit den anderen Elementen verbunden ist,
    • – in einen PC oder in einen sonstigen Computer, der einen mit dem Bilderfassungsgerät gemeinsamen Speichersupport lesen kann,
    • – in einen ausgelagerten Server, der mit einem PC oder mit einem sonstigen Computer, der selber mit den anderen Elementen der Bilderfassung verbunden ist, integriert werden.
  • Felder
  • Jetzt wird mit Bezug auf 8 die Vorstellung der Felder 90 beschrieben. Die dem Bild 103 zugeordneten formatierten Informationen können zwar verschiedenartig gespeichert und in eine oder mehrere Tabellen gegliedert werden, aber sie entsprechen logisch teilweise oder völlig den Feldern 90, die
    • (a) die fokale Distanz,
    • (b) die Feldtiefe,
    • (c) die geometrischen Fehler enthalten.
  • Die besagten geometrischen Fehler enthalten die Geometriefehler des Bildes 103, die durch die den Eigenschaften der Bildaufnahme 74 zugeordneten Parameter bezeichnet sind, und eine parametrierbare Umwandlung, die die Eigenschaften des Bilderfassungsgerätes 1 zum Zeitpunkt der Bildaufnahme aufführt. Mit den besagten Parametern und der besagten parametrierbaren Umwandlung kann die Lage eines Punktes des Bildes 103 berechnet werden.
  • Die besagten geometrischen Fehler enthalten darüber hinaus die Vignettierung, die durch die den Eigenschaften der Bildaufnahme 74 zugeordneten Parameter bezeichnet ist, und eine parametrierbare Umwandlung, die die Eigenschaften des Bilderfassungsgerätes 1 zum Zeitpunkt der Bildaufnahme aufführt. Mit den besagten Parametern und der besagten parametrierbaren Umwandlung kann die korrigierte Intensität eines Punktes des Bildes 103 berechnet werden.
  • Die besagten geometrischen Fehler enthalten darüber hinaus die gefärbte Dominante, die durch die den Eigenschaften der Bildaufnahme 74 zugeordneten Parameter bezeichnet ist, und eine parametrierbare Umwandlung, die die Eigenschaften des Bilderfassungsgerätes 1 zum Zeitpunkt der Bildaufnahme aufführt. Mit den besagten Parametern und der besagten parametrierbaren Umwandlung kann die korrigierte Farbe eines Punktes des Bildes 103 berechnet werden.
  • Dies besagten Felder 90 enthalten darüber hinaus (d) den Pikee des Bildes 103.
  • Der besagten Pikee enthält die Unschärfe der Auflösung des Bildes 103, die durch die den Eigenschaften der Bildaufnahme 74 zugeordneten Parameter bezeichnet ist, und eine parametrierbare Umwandlung, die die Eigenschaften des Bilderfassungsgerätes 1 zum Zeitpunkt der Bildaufnahme aufführt. Mit den besagten Parametern und der besagten parametrierbaren Umwandlung kann die korrigierte Form eines Punktes des Bildes 103 berechnet werden. Die Unschärfe deckt im Speziellen das Koma, die sphärische Abberation, den Astigmatismus, die Zusammenfassung in Pixels 104, die chromatische Abberation, die Feldtiefe, die Diffraktion, die parasitären Reflektionen, die Feldkrümmung.
  • Der besagten Pikee enthält darüber hinaus die Unschärfe der Feldtiefe, im Speziellen die sphärischen Aberrationen, das Koma, den Astigmatismus. Die besagte Unschärfe hängt von der Distanz der Punkte der Szene 3 dem Bilderfassungsgerät 1 gegenüber ab und ist durch die den Eigenschaften der Bildaufnahme 74 zugeordneten Parameter und durch eine parametrierbare Umwandlung, die die Eigenschaften des Bilderfassungsgerätes 1 zum Zeitpunkt der Bildaufnahme aufführt, bezeichnet. Mit den besagten Parametern und der besagten parametrierbaren Umwandlung kann die korrigierte Form eines Punktes des Bildes 103 berechnet werden.
  • Die besagten Felder 90 enthalten darüber hinaus (e) Parameter der Quantifizierungsmethode. Die besagten Parameter hängen von der Geometrie und der Physik des Sensors 101, von der Architektur der Elektronik 102 und von eventuellen Verarbeitungssoftwares ab.
  • Die besagten Parameter enthalten eine Funktion, die die Variationen der Intensität eines Pixels 104 entsprechend der Wellenlänge und dem Lichtstrom aus der besagten Szene 3 aufführt. Die besagte Funktion enthält im Speziellen die Gammainformationen.
  • Die besagten Parameter enthalten darüber hinaus:
    • – die Geometrie des besagten Sensors 101, im Speziellen die Form, die relative Lage und die Anzahl der empfindlichen Elemente des besagten Sensors 101,
    • – eine Funktion, die die räumliche und zeitliche Verteilung der Störung des Bilderfassungsgerätes 1
    • – einen Wert, der die Belichtungsdauer der Bilderfassung aufführt.
  • Die Felder 90 enthalten darüber hinaus (f) Parameter der vom Bilderfassungsgerät 1 durchgeführten digitalen Verarbeitungen, im Speziellen den digitalen Zoom, die Kompression. Diese Parameter hängen von der Verarbeitungssoftware des Bilderfassungsgerätes 1 und von den Einstellungen des Benutzers ab.
  • Die Felder 90 enthalten darüber hinaus:
    • (g) Parameter, die die Vorzüge des Benutzers, im Speziellen hinsichtlich des Unschärfegrades, der Auflösung des Bildes 103, aufführen,
    • (h) die restlichen Abweichungen.
  • Berechnung der formatierten Informationen
  • Die formatierten Informationen 15 können berechnet und in die Datenbasis 22 gespeichert werden, und zwar in mehreren Schritten.
    • a) Ein Schritt anschließend der Konzeption des Bilderfassungsgerätes 1. Mit diesem Schritt können eigentliche technische Eigenschaften des Bilderfassungsgerätes 1 erhalten werden, und zwar: – die räumliche und zeitliche Verteilung der von der Elektronik 102 generierten Störung, – das Gesetz zur Umwandlung des Lichtstromes in Pixelwert – die Geometrie des Sensors 101.
    • b) Ein Schritt anschließend der Kalibrierung oder der Konzeption einer digitalen Optik. Mit diesem Schritt können weitere eigentliche technische Eigenschaften des Bilderfassungsgerätes 1 erhalten werden, und zwar für eine bestimmte Anzahl von Werten von angewandten Eigenschaften, die zugeordnete beste Umwandlung und die zugeordnete restliche Abweichung 14.
    • c) Bin Schritt zur Auswahl der Benutzervorzüge mithilfe von Knöpfen, Menüs oder umsetzbarem Support oder Verbindung mit einer anderen Vorrichtung.
    • d) Ein Schritt zur Bilderfassung.
  • Mit diesem Schritt (d) können technische Eigenschaften des Bilderfassungsgerätes zum Zeitpunkt der Bilderfassung, im Speziellen die von den durchgefürten manuellen oder automatischen Einstellungen ermittelte Belichtungsdauer, erhalten werden.
  • Mit diesem Schritt (d) kann darüber hinaus die fokale Distanz erhalten werden. Die Berechnung der fokalen Distanz erfolgt aus
    entweder
    • – einer Bemessung der Lage der Gruppe von Linsen mit variabler Brennweite der Optik 100 der angewandten Gestaltung, oder
    • – einer dem Positionierungsmotor gegebenen Anweisung, oder
    • – einer Herstellerangabe, falls die Brennweite fest ist.
  • Die besagte fokale Distanz kann schließlich durch Analyse des Inhalts des Bildes 103 ermittelt werden.
  • Mit dem Schritt (d) kann darüber hinaus die Feldtiefe erhalten werden. Die Berechnung der Feldtiefe erfolgt aus
    Entweder
    • – einer Bemessung der Lage der Fokalisierungslinsen der Optik 100 der angewandten Gestaltung, oder
    • – einer dem Positionierungsmotor gegebenen Anweisung, oder noch
    • – einer Herstellerangabe, falls die Brennweite fest ist.
  • Mit dem Schritt (d) können darüber hinaus die Geometrie- und Pikeefehler erhalten werden. Die Geometrie- und Pikeefehler entsprechen einer Umwandlung, die mithilfe einer Kombination der Umwandlungen der Datenbasis von anschließend des Schrittes (b) erhaltenen Eigenschaften 22 berechnet wurde. Diese Kombination wird zur Aufführung der Parameterwerte, die den angewandten Eigenschaften 74 entsprechen, im Speziellen die fokale Distanz, ausgewählt.
  • Mit dem Schritt (d) können darüber hinaus die Parameter der vom Bilderfassungsgerät 1 durchgeführten digitalen Verarbeitung erhalten werden. Diese Parameter werden von den durchgeführten manuellen oder automatischen Einstellungen ermittelt.
  • Die Berechnung der formatierten Informationen 15 nach den Schritten (a) bis (d) kann von:
    • – einer im Bilderfassungsgerät 1 integrierten Vorrichtung oder Software, und/oder
    • – einer Pilotsoftware in einem PC oder sonstigen Computer, und/oder
    • – einer Software in einem PC oder sonstigen Computer, und/oder
    • – einer Kombination der dreien ausgeführt werden.
  • Die oben im Schritt (b) und im Schritt (d) aufgeführten Umwandlungen können in Form
    • – einer allgemeinen mathematischen Formel,
    • – einer mathematischen Formel für jeden Punkt,
    • – einer mathematischen Formel für einige Eigenschaftspunkte gespeichert werden.
  • Die mathematischen Formeln können durch
    • – eine Liste von Koeffizienten,
    • – eine Liste von Koeffizienten und Koordinaten beschrieben werden.
  • Mit diesen verschiedenen Methoden kann es zu einem Kompromiss zwischen der Größe des zur Speicherung der Formeln verfügbaren Speichers und der zur Berechnung der korrigierten Bilder 71 verfügbaren Rechenleistung kommen.
  • Darüber hinaus werden zum Wiederfinden der Daten Identifizierungen, die den Daten zugeordnet sind, in die Datenbasis 22 gespeichert. Diese Identifizierungen beinhalten im Speziellen
    • – eine Identifizierung der Art und der Referenz des Bilderfassungsgerätes 1,
    • – eine Identifizierung der Art und der Referenz der Optik 100, falls umsetzbar,
    • – eine Identifizierung der Art und der Referenz irgendeines anderen Elementes, das mit den gespeicherten Informationen etwas zu tun hat,
    • – eine Identifizierung des Bildes 103,
    • – eine Identifizierung der formatierten Information 15.
  • Ergänztes Bild
  • Wie in 11 beschrieben nennt man ergänztes Bild 120 das den formatierten Informationen 15 zugeordnete Bild 103. Dieses ergänzte Bild 120 kann vorzugsweise eine Datei sein. Das ergänzte Bild 120 kann auch unter mehrere Dateien verteilt werden.
  • Das ergänzte Bild 120 kann mit dem Bilderfassungsgerät 1 berechnet werden. Es kann auch mit einer externen Rechenvorrichtung, zum Beispiel ein Computer, berechnet werden.
  • Bildverarbeitungssoftware
  • Wird Bildverarbeitungssoftware 4 genannt eine Software, die am Eingang ein oder mehrere ergänzte Bilder 120 nimmt, und die auf diesen Bildern Verarbeitungen durchführt. Diese Verarbeitungen können dahin bestehen
    • – ein korrigiertes Bilde 71 zu berechnen,
    • – Bemessungen in der echten Welt durchzuführen,
    • – mehrere Bilder zu kombinieren,
    • – die Treue der Bilder der echten Welt gegenüber zu verbessern,
    • – die subjektive Qualität der Bilder zu verbessern,
    • – Objekte oder Personen 107 in einer Szene 3 zu erkennen
    • – Objekte oder Personen 107 einer Szene 3 hinzufügen
    • – Objekte oder Personen 107 in einer Szene 3 zu ersetzen oder ändern,
    • – die Schatten einer Szene 3 wegzunehmen
    • – Schatten einer Szene 3 hinzufügen
    • – Objekte in einer Bilderbasis zu suchen Die besagte Bildverarbeitungssoftware kann
    • – ins Bilderfassungsgerät 1 integriert,
    • – auf Rechenmittel 17, die durch Übertragungsmittel 18 mit dem Bilderfassungsgerät verbunden sind, eingespielt werden.
  • Digitale Optik
  • Wird digitale Optik genannt die Kombination eines Bilderfassungsgerätes 1, einer Datenbasis 22 von Eigenschaftsdaten und eines Rechenmittels 17, mit den
    • – die Bilderfassung eines Bildes 103,
    • – die Berechnung eines ergänzten Bildes,
    • – die Berechnung des Korrigierten Bildes 71 durchgeführt werden können.
  • Vorzugsweise erhält der Benutzer direkt das korrigierte Bild 71. Auf Wunsch kann der Benutzer das Weglassen der automatischen Korrektur beantragen. Die Eigenschaftsdatenbasis 22 kann
    • – ins Bilderfassungsgerät 1
    • – in einen PC oder in einen sonstigen Computer, der während der Bilderfassung mit den anderen Elementen verbunden ist,
    • – in einen PC oder in einen sonstigen Computer, der nach der Bilderfassung mit den anderen Elementen verbunden ist,
    • – in einen PC oder in einen sonstigen Computer, der einen mit dem Bilderfassungsgerät 1 gemeinsamen Speichersupport lesen kann,
    • – in einen ausgelagerten Server, der mit einem PC oder mit einem sonstigen Computer, der selber mit den anderen Elementen der Bilderfassung verbunden ist, integriert werden.
  • Das Rechenmittel 17 kann
    • – auf eine Komponente mit dem Sensor 101,
    • – auf eine Komponente mit einem Teil der Elektronik 102,
    • – ins Bilderfassungsgerätes 1
    • – in einen PC oder in einen sonstigen Computer, der während der Bilderfassung mit den anderen Elementen verbunden ist,
    • – in einen PC oder in einen sonstigen Computer, der nach der Bilderfassung mit den anderen Elementen verbunden ist,
    • – in einen PC oder in einen sonstigen Computer, der einen mit dem Bilderfassungsgerät 1 gemeinsamen Speichersupport lesen kann,
    • – in einen ausgelagerten Server, der mit einem PC oder mit einem sonstigen Computer, der selber mit den anderen Elementen der Bilderfassung verbunden ist, integriert werden.
  • Verarbeitung der Komplettkette
  • In den obigen Absätzen wurden wesentlich die Konzepte und Beschreibung des Verfahrens und Systems nach der Erfindung, um Bildverarbeitungssoftwares 4 formatierte Informationen 15 bezüglich der Eigenschaften der Bilderfassungsgeräte 1 beizustellen, abgezeichnet.
  • In den folgenden Absätzen wird die Definition der Konzepte erweitert und die Beschreibung des Verfahrens und Systems nach der Erfindung, um Bildverarbeitungssoftwares 4 formatierte Informationen 15 bezüglich der Eigenschaften der Bildwiedergabegeräte 19 beizustellen, ergänzt. Damit wird man die Verarbeitung einer Komplettkette aufgefürt haben.
  • Mit der Verarbeitung der Komplettkette können
    • – die Qualität des Bildes 103 vom Anfang bis zum Ende der Kette verbessert werden, um ein wiedergegebenes Bild 191, das die Fehler des Bilderfassungsgerätes 1 und des Bildwiedergabemittels 19 korrigiert, zu erhalten, und/oder
    • – zweitklassige aber kostengünstige Optiken kombiniert mit einem Bildqualitätsverbesserungssoftware in einem Videoprojektor eingesetzt werden.
  • Definitionen bezüglich der Bildwiedergabemittel
  • Jetzt wird in Anlehnung an 2 und 6 die Berücksichtigung der Eigenschaften eines solchen Bildwiedergabemittels 19 wie ein Drucker, ein Anzeigebildschirm oder ein Projektor in die formatierten Informationen 15 beschrieben.
  • Die Ergänzungen oder Änderungen, die im Falle eines Bildwiedergabemittels den Definitionen herzubringen sind, können sinngemäß von einem Berufspieler aus den im Falle eines Bilderfassungsgerätes 1 angegebenen Definitionen extrapoliert werden. Jedoch werden jetzt zur Erklärung dieser Methode, im Speziellen mit Bezug auf 6, die hauptsächlichen Ergänzungen und Änderungen beschrieben.
  • Werden Wiedergabeeigenschaften 95 genannt die eigentlichen Eigenschaften der Bildwiedergabemittel 19, die Eigenschaften des Bildwiedergabemittels 19 zum Zeitpunkt der Bildwiedergabe und die Vorzüge des Benutzers zum Zeitpunkt der Wiedergabe der Bilder. Besonders im Falle eines Projektors enthalten die angewandten Wiedergabeeigenschaften 95 die Form und die Lage des angewandten Bildschirmes. Die Vorstellung der angewandten Wiedergabeeigenschaften 95 ist eine Ausdehnung der Vorstellung der variablen Eigenschaft.
  • Wird parametrierbares Wiedergabeumwandlungsmodell 97 (oder abgekürzt parametrierbare Wiedergabeumwandlung 97) genannt eine mathematische Umwandlung, die dem parametrierbaren Umwandlungsmodell 12 ähnlich ist.
  • Wird korrigiertes Wiedergabebild 94 genannt das Bild, das durch Anwendung der parametrierbaren Wiedergabeumwandlung 97 für das Bild 103 erhalten wird.
  • Wird mathematische Wiedergabeprojektion 96 genannt eine mathematische Projektion, die einem korrigierten Wiedergabebild 94 eine mathematische Wiedergabebild 92 auf der mathematischen Wiedergabefläche, die der Fläche des Wiedergabesupports 190 geometrisch zugeordnet ist, zuordnet. Die mathematischen Wiedergabepunkte der mathematischen Wiedergabefläche haben eine Form, eine Lage, eine Farbe und eine Intensität, die aus dem korrigierten Wiedergabebild 94 berechnet wurden.
  • Wird echte Wiedergabeprojektion 90 genannt eine Projektion, die einem Bild 103 ein wiedergegebenes Bild 191 zuordnet. Die Pixelwerte des Bildes 103 werden durch die Elektronik der Wiedergabemittel 19 in ein Signal, das den Modulator der Wiedergabemittel 19 steuert, umwandelt. Es werden echte Wiedergabepunkte auf den Wiedergabesupport 190 erhalten. Die besagten echten Wiedergabepunkte bekommen eine Form, ein Farbe, eine Intensität und eine Lage. Das oben im Falle eines Bilderfassungsgerätes 1 beschriebene Phänomen der Zusammenfassung in Pixels 104 passiert nicht im Falle eines Bildwiedergabegerätes. Jedoch passiert ein umgekehrtes Phänomen, bei dem Geraden wie Treppenstufen erscheinen.
  • Wird Wiedergabeabweichung 93 genannt die Abweichung zwischen dem wiedergegebenen Bild 191 und dem mathematischen Wiedergabebild 92. Diese Wiedergabeabweichung 93 wird wie die Abweichung 73 sinngemäß erhalten.
  • Wird Wiedergabereferenz genannt ein Bild 103, dessen Werte der Pixels 104 bekannt sind.
  • Wird beste Wiedergabeumwandlung für eine Wiedergabereferenz und für angewandte Wiedergabeeigenschaften 95 genannt, diejenige mit der das Bild 103 in ein korrigiertes Wiedergabebild 94 umwandelt werden kann, sodass seine mathematische Wiedergabeprojektion 92 dem wiedergegebenen Bild 191 gegenüber die schwächste Wiedergabeabweichung aufweist.
  • Die Verfahren zur Wiedergabekalibrierung und zur Konzeption der digitalen Wiedergabeoptik sind den Verfahren zur Kalibrierung und zur Konzeption der digitalen Optik im Falle eines Bilderfassungsgerätes 1 vergleichbar. Jedoch weisen einige Schritte Unterschiede und im Speziellen folgende Schritte auf:
    • – den Schritt zur Auswahl einer Wiedergabereferenz,
    • – den Schritt zur Durchführung der Wiedergabe der besagten Wiedergabereferenz,
    • – den Schritt zur Berechnung der besten Wiedergabeumwandlung.
  • Die formatierten Informationen 15 bezüglich eines Bilderfassungsgerätes 1 und diejenige bezüglich eines Bildwierdegabemittels 19 können für ein gleiches Bild aneinandergefügt werden.
  • Oben wurde die Vorstellung des Feldes im Falle eine Bilderfassungsgerätes 1 beschrieben. Diese Vorstellung gilt auch sinngemäß aber für Bildwiedergabemittel 19. Jedoch werden die Parameter der Quantifizierungsmethode durch die Parameter der Signalwiederherstellungsmethode ersetzt, und zwar: die Geometrie des Wiedergabesupports 190 und seine Lage, eine Funktion, die die räumliche und zeitliche Verteilung der Störung des Bildwiedergabemittels 19.
  • Verallgemeinerung des Konzeptes
  • Die technischen Merkmale, die die Erfindung bilden und in den Patentansprüchen aufgeführt sind, wurden wesentlich mit Bezug auf digitalartigen Bilderfassungsgeräte, dass heißt, die digitale Bilder herstellen, definiert, beschrieben und abgebildet. Leicht ist dann zu verstehen, dass die gleichen technischen Merkmale für Bilderfassungsgeräte gelten, die die Kombination eines analogen Gerätes (ein Photo- oder Filmapparat, der empfindliche Analog-, Negativ- oder Umkehrfilme einsetzt) und eines Scanners, der aus empfindlichen entwickelten Filmen ein digitales Bild herstellt. Jedoch sollen im diesem Falle zumindest einige der angewandten Definitionen angepasst werden. Diese Anpassungen sind für einen Berufsspieler ganz und gar machbar. Um die Evidenz solcher Anpassungen zu zeigen, braucht man nur zu sagen, dass die mit Bezug auf 3 beschriebenen Pixel- und Pixelwertvorstellungen müssen, im Falle der Kombination eines analogen Gerätes und eines Scanners, für eine elementare Zone des Filmes, nachdem dieser mit dem Scanner digitalisiert wurde, angewandt werden. Solche Umsetzungen der Definitionen sind logisch und können auf die Vorstellung der angewandten Gestaltung erweitert werden. Der Liste der umsetzbaren Untereinheiten des Bilderfassungsgerätes 1, die die angewandte Gestaltung bilden, kann zum Beispiel den Typ des im analogen Gerät angewandten Bildfilmes hinzugefügt werden.
  • Ausführung des Systems
  • 25 stellt ein Ausführungsbeispiel des Systems dar, mit dem die oben beschriebene Erfindung in Gang gesetzt werden kann. Dieses System enthält erste Rechenmittel MC1 bezüglich eines Bildes I, das aus einem Gerät APP1 und/oder einer Gerätkette P3, die variable Eigenschaften besitzt, stammt. Wie oben beschrieben werden diese Rechenmittel aus den Eigenschaften der Geräte variable Eigenschaften nach dem Bild und zugeordnete Werte (Brennweite, Scharfstellung, Geschwindigkeit, Öffnung ...) der gemessenen formatierten Informationen IFM berechnen. Zweite Rechenmittel MC2 werden aus den gemessenen formatierten Informationen sowie aus den variablen Informationen und ihren zugeordneten Werten erweiterte formatierte Informationen berechnen, sodass die erweiterten Informationen im Speicher kompakter sind und es gegebenenfalls ermöglichen, Informationen bezüglich des Verzerrungsfehlers anderer Punkte als die Punkte bezüglich der gemessenen formatierten zu bewerten. Die gemessenen formatierten Informationen IFM und erweiterten formatierten Informationen IFE werden Auswahlmitteln MS1 gegeben, damit formatierte Informationen hergestellt werden.
  • Anwendung der Erfindung für die Kostensenkung
  • Wird Kostensenkung genannt ein Verfahren und ein System zur Senkung der Kosten eines Gerätes oder einer Gerätkette P3, im Speziellen die Kosten der Optik eines Gerätes oder einer Gerätkette, Verfahren das darin besteht,
    • – die Anzahl von Linsen zu reduzieren, und/oder
    • – die Form der Linsen zu vereinfachen, und/oder
    • – eine Optik, die größere Fehler P5 wie die für das Gerät oder die Gerätkette gewünscht zu konzipieren oder aus einem Katalog zu wählen,
    • – Fehler P5 anführende Materialien, Komponenten, Verarbeitungen oder Herstellungsvorgänge einzusetzen, die für das Gerät oder die Gerätkette kostengünstiger sind.
  • Das Verfahren und das System nach der Erfindung können zur Kostensenkung eines Gerätes oder einer Gerätkette angewandt werden: Man kann eine digitale Optik konzipieren, formatierte Informationen IF bezüglich der Fehler des Gerätes oder der Gerätkette herstellen, diese formatierten Informationen anwenden, damit Bildverarbeitungsmittel ob integriert oder nicht die Qualität der Bilder, die aus dem Gerät oder der Gerätkette stammen oder für diese bestimmt sind, geändert werden können, sodass mit der Kombination des Gerätes oder der Gerätkette und der Bildverarbeitungsmittel Bilder von gewünschter Qualität kostengünstig erfasst, geändert oder wiedergegeben werden können.

Claims (20)

  1. Verfahren zur Schaffung von formatierten Informationen (IF) im Zusammenhang mit Geräten (App1, App2, App3) einer Gerätekette (APP1); die besagte Gerätekette enthält dabei vor allem zumindest ein Bilderfassungsgerät (App1) und/oder zumindest ein Bildwiedergabegerät (APP2); mit dem besagten Gerät kann ein Bild (I) erfasst oder auf einem Support (SC) wiedergegeben werden; das besagte Gerät weist dabei je nach Bild (I) zumindest eine feste Eigenschaft und/oder eine variable Eigenschaft auf; die besagte feste Eigenschaft und/oder variable Eigenschaft sollte dabei einem oder mehreren Eigenschaftswerten zugeordnet werden können, speziell die Brennweite und/oder die Scharfstellung und den entsprechenden Eigenschaftswerten; wobei das besagte Verfahren folgende Schritte enthält: die Schaffung formatierter Informationen (IF) im Zusammenhang mit Geometriefehlern zumindest eines Gerätes der besagten Kette, die Schaffung gemessener formatierter Informationen (IFM1 bis IFMm) im Zusammenhang mit Geometriefehlern des besagten Gerätes ausgehend von einem gemessenen Feld (D(H)); die besagten formatierten Informationen können dabei die besagten gemessenen formatierten Informationen enthalten, die Schaffung erweiterter formatierter Informationen (IFE1 bis IFEm) im Zusammenhang mit Geometriefehlern des besagten Gerätes ausgehend von den besagten gemessenen formatierten Informationen (IFM1 bis IFMm); die besagten formatierten Informationen können dabei die besagten erweiterten formatierten Informationen enthalten; die besagten erweiterten formatierten Informationen weisen dabei eine Abweichung (14) im Verhältnis zu den besagten gemessenen formatierten Informationen auf, und das besagte Verfahren beinhaltet einen ersten Rechenalgorithmus (AC1) mit dem man das besagte gemessene Feld D(H) aus einem Bezugssystem (M) mit Eigenschaftspunkten (PP1, PPi, PPj, PPm) und aus einer virtuellen Referenz (R) bestehend aus Referenzpunkten (PR1, PRi, PRj, PRm) auf einer Referenzfläche (SR) erhält; der besagte erste Rechenalgorithmus (AC1) enthält dabei den Schritt zur Erfassung oder zur Wiedergabe des besagten Bezugssystems (M) mithilfe des besagten Gerätes zur Erstellung eines Bildes (I) aus den besagten Eigenschaftspunkten am besagten Support (SC); das Bild eines Eigenschaftspunktes (PP1, PPi, PPj, PPm) wird nachfolgend Eigenschaftspunkt Bild (PT1, PTi, PTj, PTm) genannt; der besagte erste Rechenalgorithmus (AC2) enthält darüber hinaus: – den Schritt zur Erstellung einer Bijektion zwischen den besagten Eigenschaftspunkten Bild (PT1, PTi, PTj, PPm) und den besagten Referenzpunkten – den Schritt zur Auswahl von null, einem oder mehrerer variabler Eigenschaften unter den genannten variablen Eigenschaften, die nachfolgend die ausgewählten variablen Eigenschaften genannt werden; das besagte gemessene Feld (D(H)) besteht aus: – einer Ansammlung an Paaren bestehend aus einem der genannten Referenzpunkte (PRm) und dem Eigenschaftspunkt Bild (PTm), der durch die Bijektion zugeordnet wird, und – dem Wert für das besagte Bild (I) für jede einzelne der besagten ausgewählten variablen Eigenschaften.
  2. Verfahren nach Anspruch 1, wobei das besagte Verfahren darüber hinaus den Schritt zur Auswahl einer mathematischen Projektion (H(Prj)), im Speziellen einer Homografie zwischen dem besagten Support (SC) und der besagten Referenzfläche (SR) enthält; das besagte gemessene Feld (D(H)) für das besagte Bild (I) besteht dabei aus dem Wert aller besagten ausgewählten variablen Eigenschaften und für jeden Referenzpunkt (PRm): – aus dem Paar, das aus dem Referenzpunkt (PRj) und der besagten mathematischen Projektion (H(Prj)) auf der besagten Referenzfläche (SR) des besagten Eigenschaftspunkts Bild (PTj) besteht, der durch die besagte Bijektion dem besagten Referenzpunkt (PRj) zugeordnet wird, und/oder – aus dem Paar, das aus dem Eigenschaftspunkt Bild (PTj), der durch die Bijektion dem besagten Referenzpunkt (PRj) zugeordnet wird, und aus der besagten mathematischen Projektion (H(Prj)) auf den besagten Support (SC) des besagten Referenzpunktes (PRj) besteht.
  3. Verfahren nach einem der Ansprüche 1 oder 2; das besagte Verfahren beinhaltet darüber hinaus den Schritt zum Erhalt der besagten erweiterten formatierten Informationen im Bezug zu irgendeinem Referenzpunkt (PQRi) auf der besagten Referenzfläche (SR) und/oder zu irgendeinem Eigenschaftspunkt Bild (PQTi) des besagten Supports (SC) durch Ableitung der besagten formatierten Informationen im Verhältnis zu irgendeinem besagten Referenzpunkt oder zu irgendeinem besagten Eigenschaftspunkt Bild, ausgehend von den besagten gemessenen formatierten Informationen.
  4. Verfahren nach Anspruch 1, 2 oder 3, wobei das Verfahren so ausgelegt ist, dass die besagten formatierten Informationen, die auf Basis der besagten gemessenen formatierten Informationen erstellt werden, durch die Parameter eines parametrierbaren Modells dargestellt werden, das aus einer Reihe von parametrierbaren Modellen (SP, 12, 97), speziell aus einer Reihe von Polynomen ausgewählt wird; das besagte Verfahren enthält darüber hinaus den Schritt der Auswahl des besagten parametrierbaren Modells aus der besagten Reihe an parametrierbaren Modellen, durch: – die Festlegung einer maximalen Abweichung, – das Ordnen der besagten parametrierbaren Modelle der besagten Reihe an parametrierbaren Modellen, je nach Komplexität der Anwendung, – die Auswahl des ersten der parametrierbaren Modelle aus der geordneten Reihe an parametrierbaren Modellen, bei dem die besagte Abweichung (14) unter der besagten maximalen Abweichung liegt.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei die besagten erweiterten formatierten Informationen die gemessenen formatierten Informationen sind.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei das Verfahren so ausgelegt ist, dass das besagte Gerät der besagten Gerätekette je nach Bild zumindest eine variable Eigenschaft aufweist, speziell die Brennweite und/oder die Schärfe; jede variable Eigenschaft sollte dabei einem Wert zugeordnet werden können, um eine Kombination zu bilden, die aus der Reihe der genannten variablen Eigenschaften und den besagten Werten gebildet wird; das besagte Verfahren beinhaltet darüber hinaus die folgenden Schritte: – den Schritt zur Auswahl der vorbestimmten Kombinationen, – den Schritt zur Berechnung der gemessenen formatierten Informationen, speziell durch die Anwendung des besagten ersten Rechenalgorithmus (AC2) für alle so ausgewählten vorbestimmten Kombinationen.
  7. Verfahren nach Anspruch 6; man bezeichnet als Argument, je nach Fall: – irgendeinen Referenzpunkt (PQRi) auf der besagten Referenzfläche (SR) und eine Kombination, oder – irgendeinen Eigenschaftspunkt Bild (PQTi) des genannten Supports (SC) und eine Kombination; das genannte Verfahren beinhaltet darüber hinaus den Schritt zur Ableitung der besagten erweiterten formatierten Informationen in Bezug zu irgendeinem Argument, ausgehend von den besagten gemessenen formatierten Informationen.
  8. Verfahren nach irgendeinem der vorherigen Ansprüche; das besagte Verfahren beinhaltet darüber hinaus den Schritt zur Auswahl von vier Eigenschaftspunkten Bild (PTm1 bis 4) auf dem besagten Support (SC), so wie jenes Viereck, das von den besagten vier Eigenschaftspunkten Bild definiert wird, jenes ist, das eine größtmögliche Fläche aufweist und einen Schwerpunkt, der in der Nähe der geometrischen Mitte des Bildes (I) liegt; die besagte mathematische Projektion ist dabei die Homografie, die die vier Eigenschaftspunkte Bild in die Referenzpunkte (PRm1 bis 4) umwandelt, die durch die besagte Bijektion den vier Eigenschaftspunkten Bild zugeordnet werden.
  9. Verfahren nach irgendeinem der vorherigen Ansprüche; das besagte Bild ist dabei ein Farbbild bestehend aus mehreren Farbebenen; das besagte Verfahren beinhaltet darüber hinaus den Schritt zur Schaffung der besagten gemessenen formatierten Informationen durch die Anwendung des besagten ersten Rechenalgorithmus (AC2) für zumindest zwei der besagten Farbebenen, durch die Verwendung der besagten selben mathematischen Projektion für jede der besagten Farbebenen.
  10. Verfahren nach irgendeinem der vorherigen Ansprüche; das besagte Bild ist ein Farbbild bestehend aus mehreren Farbebenen (PTR, PTV, PTB); das besagte Verfahren beinhaltet darüber hinaus den Schritt zur Schaffung der besagten gemessenen formatierten Informationen durch die Anwendung des besagten ersten Rechenalgorithmus (AC2) für zumindest eine der besagten Farbebenen, durch die Verwendung der besagten selben virtuellen Referenz für jede der besagten Farbebenen; sodass es möglich wird, die besagten formatierten Informationen und/oder die besagten gemessenen formatierten Informationen zu verwenden, um die chromatischen Aberrationen des Gerätes zu korrigieren.
  11. System zur Schaffung von formatierten Informationen (IF) im Zusammenhang mit Gerätefehlern (App1, App2, App3) einer Gerätekette (APP1); die besagte Gerätekette beinhaltet dabei zumindest ein Bilderfassungsgerät (App1) und/oder zumindest ein Bildwiedergabegerät (APP2); mit den besagten Geräten kann ein Bild (I) erfasst oder auf einem Support (SC) wiedergegeben werden; das besagte Gerät beinhaltet dabei je nach Bild (I) zumindest eine feste Eigenschaft und/oder eine variable Eigenschaft, die einem oder mehreren Eigenschaftswerten zugeordnet werden können sollte, speziell die Brennweite und/oder die Bildschärfe und ihre entsprechenden Eigenschaftswerte; das besagte Verfahren beinhaltet: Berechnungsdaten zur Schaffung von formatierten Informationen im Zusammenhang mit geometrischen Verzerrungen von zumindest einem Gerät der besagten Kette, Berechnungsdaten (MC1) zur Schaffung von gemessenen formatierten Informationen im Zusammenhang mit geometrischen Verzerrungen des besagten Geräts, ausgehend von einem gemessenen Feld (D(H)); die besagten formatierten Informationen können dabei die besagten gemessenen formatierten Informationen enthalten, Berechnungsdaten (MC2) zur Schaffung erweiterter formatierter Informationen (IFE1 bis IFEm) im Zusammenhang mit geometrischen Verzerrungen des besagten Gerätes ausgehend von den besagten gemessenen formatierten Informationen (IFM1 bis IFMm); die besagten formatierten Informationen können dabei die besagten erweiterten formatierten Informationen enthalten; die erweiterten formatierten Informationen weisen dabei eine Abweichung im Verhältnis zu den besagten gemessenen formatierten Informationen auf, und Berechnungsdaten zur Anwendung eines ersten Rechenalgorithmus (AC1) zum Erhalt des besagten gemessenen Feldes (D(H)) ausgehend von einem Bezugssystem (M) mit Eigenschaftspunkten (PP1, PPi, PPj, PPm) und einer virtuellen Referenz (R) bestehend aus Referenzpunkten (PR1, PRi, PRj, PRm) auf einer Referenzfläche (SR); das besagte Bilderfassungsgerät oder das besagte Bildwiedergabegerät beinhaltet dabei Erfassungsdaten oder Wiedergabemitteldaten des besagten Bezugssystems (M) wodurch aus den Eigenschaftspunkten (PP) ein Bild (I) auf dem besagten Support (SC) erzeugt werden kann; das Bild eines Eigenschaftspunkts (PP) wird nachfolgend Eigenschaftspunkt Bild (PT) genannt; die besagten Berechnungsdaten des genannten ersten Rechenalgorithmus (AC1) enthalten darüber hinaus Datenverarbeitungssysteme zur: – Durchführung einer Bijektion zwischen den genannten Eigenschaftspunkten Bild (PT1, PTi, PTj, PTm) und den Referenzpunkten (PR1, PRi, PRj, PRm), – Auswahl von null, einer oder mehrerer variabler Eigenschaften aus einer Reihe besagter variabler Eigenschaften, die nachfolgend ausgewählte variable Eigenschaften genannt werden; das besagte gemessene Feld (D(H)) besteht dabei aus: – einer Reihe von Paaren, die aus einem der genannten Referenzpunkte (PRm) und dem Eigenschaftspunkt Bild (PTm), der durch die genannte Bijektion zugeordnet wird, bestehen, und – dem Wert für das besagte Bild (I) aller besagten ausgewählten variablen Eigenschaften.
  12. System nach Anspruch 11, wobei das System darüber hinaus über Analysesysteme zur Auswahl einer mathematischen Projektion (H(Prj)) verfügt, speziell einer Homografie zwischen dem besagten Support (SC) und der besagten Referenzfläche (SR); das besagte gemessene Feld (D(H)) besteht dabei für das besagte Bild (I) aus dem Wert aller besagten ausgewählten variablen Eigenschaften und für jeden Referenzpunkt (PR): – aus dem Paar, das aus dem Referenzpunkt (PRm) und der besagten mathematischen Projektion (H(Prj)) auf der besagten Referenzfläche (SR) des besagten Eigenschaftspunkts Bild (PTj) besteht, der durch die besagte Bijektion dem Referenzpunkt (PRj) zugeordnet wird, und/oder – aus dem Paar, das aus dem Eigenschaftspunkt Bild (PTj), der durch die besagte Bijektion dem Referenzpunkt (PRj) zugeordnet wird, und aus der besagten mathematischen Projektion auf den besagten Support (SC) des besagten Referenzpunktes, besteht.
  13. System nach Anspruch 11 oder 12, wobei das besagte System darüber hinaus über Datenverarbeitungssysteme für den Erhalt der besagten relativen erweiterten formatierten Informationen in Bezug zu irgendeinem Referenzpunkt (PQRi) auf der besagten Referenzfläche (SR) und/oder zu irgendeinem Eigenschaftspunkt Bild (PQTi) des besagten Supports (SC), durch Ableitung der besagten formatierten Informationen im Verhältnis zu irgendeinem Referenzpunkt oder zu irgendeinem Eigenschaftspunkt Bild, ausgehend von den gemessenen formatierten Informationen.
  14. System nach Anspruch 11, 12 oder 13, wobei das besagte System so ausgelegt ist, dass die besagten formatierten Informationen, die auf Basis der besagten gemessenen formatierten Informationen erstellt werden, durch die Parameter eines parametrierbaren Modells (SP) dargestellt werden, die aus einer Reihe parametrierbarer Modelle, speziell aus einer Reihe von Polynomen, ausgewählt werden; das besagte System beinhaltet dabei darüber hinaus Auswahlsysteme zum Auswählen des besagten parametrierbaren Modells aus der besagten Reihe an parametrierbaren Modellen; die besagten Auswahlsysteme beinhalten dabei Datenverarbeitungssysteme zum: – Festlegen einer maximalen Abweichung, – Ordnen der besagten parametrierbaren Modelle der besagten Reihe an parametrierbaren Modellen, je nach Komplexität der Anwendung, – Auswählen des ersten parametrierbaren Modells der besagten geordneten Reihe an parametrierbaren Modellen, für die die besagte Abweichung unter der maximalen Abweichung liegt.
  15. System nach irgendeinem der Ansprüche 11 bis 14, wobei die erweiterten formatierten Informationen die besagten gemessenen formatierten Informationen sind
  16. System nach irgendeinem der Ansprüche 11 bis 15, wobei das System so ausgelegt ist, dass das besagte Gerät der besagten Gerätekette je nach Bild zumindest eine variable Eigenschaft aufweist, speziell die Brennweite und/oder die Bildschärfe; jede variable Eigenschaft sollte dabei einem Wert zugeordnet werden können, um eine Kombination zu bilden, die aus der Reihe der besagten variablen Eigenschaften und der besagten Werte besteht; das besagte System besteht darüber hinaus: – aus den Auswahlsystemen zur Auswahl der vorbestimmten Kombinationen, – aus den Berechnungsmitteln zur Berechnung der gemessenen formatierten Informationen, speziell durch die Umsetzung des besagten ersten Rechenalgorithmus (AC1) für alle so ausgewählten vorbestimmten Kombinationen.
  17. System nach Anspruch 16, wobei ein Argument je nach Fall folgendes bezeichnet: – irgendeinen Referenzpunkt (PQRj) auf der besagten Referenzfläche (SR) und eine Kombination, oder – irgendeinen Eigenschaftspunkt Bild (PQTj) des besagten Supports (SC) und eine Kombination; das besagte System beinhaltet darüber hinaus Datenverarbeitungssysteme (MC2) zur Ableitung der besagten erweiterten formatierten Informationen in Bezug zu irgendeinem Argument, ausgehend von den besagten gemessenen formatierten Informationen.
  18. System nach irgendeinem der Ansprüche 11 bis 17, wobei das besagte System darüber hinaus über Auswahlsysteme zur Auswahl von vier Eigenschaftspunkten Bild (PTm1 bis 4) auf dem besagten Support (SC), wie jenes Viereck, das von den besagten vier Eigenschaftspunkten Bild definiert wird, jenes ist, das eine größtmögliche Fläche aufweist, und einen Schwerpunkt, der in der Nähe der geometrischen Mitte des Bildes (I) liegt; die besagte mathematische Projektion ist dabei die Homografie, die die vier Eigenschaftspunkte Bild in die Referenzpunkte (PRm1 bis 4) umwandelt, die durch die besagte Bijektion den vier Eigenschaftspunkten Bild zugeordnet werden.
  19. System nach irgendeinem der Ansprüche 11 bis 18; das besagte Bild ist dabei ein Farbbild, das aus mehreren Farbebenen besteht; das besagte Verfahren beinhaltet darüber hinaus den Schritt zur Schaffung der besagten gemessenen formatierten Informationen durch die Anwendung des besagten ersten Rechenalgorithmus (AC1) für zumindest zwei der besagten Farbebenen, durch die Verwendung der selben mathematischen Projektion für jede der besagten Farbebenen; sodass es möglich wird, die besagten formatierten Informationen und/oder die besagten gemessenen formatierten Informationen zu verwenden, um die Verzerrungen und/oder chromatischen Aberrationen des Gerätes zu korrigieren.
  20. System nach irgendeinem der Ansprüche 11 bis 19; das besagte Bild ist ein Farbbild, das aus mehreren Farbebenen besteht; das besagte Verfahren beinhaltet darüber hinaus den Schritt zur Schaffung der besagten gemessenen formatierten Informationen durch die Anwendung des besagten ersten Rechenalgorithmus (AC1) für zumindest eine der besagten Farbebenen, durch die Verwendung der besagten selben virtuellen Referenz für jede der besagten Farbebenen; sodass es möglich wird, die besagten formatierten Informationen und/oder die besagten gemessenen formatierten Informationen zu verwenden, um die chromatischen Aberrationen des Gerätes zu korrigieren.
DE60218317T 2001-07-12 2002-06-05 Verfahren und system zur herstellung von auf geometrischen verzerrungen bezogenen formatierten informationen Expired - Lifetime DE60218317T2 (de)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
FR0109291A FR2827459B1 (fr) 2001-07-12 2001-07-12 Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image
FR0109292A FR2827460B1 (fr) 2001-07-12 2001-07-12 Procede et systeme pour fournir, selon un format standard, a des logiciels de traitement d'images des informations liees aux caracteristiques des appareils de capture d'image et/ou des moyens de resti
FR0109292 2001-07-12
FR0109291 2001-07-12
FR0112664A FR2830401B1 (fr) 2001-10-02 2001-10-02 Procede et systeme pour corriger les aberrations chromatiques d'une image couleur realisee au moyen d'un systeme optique
FR0112664 2001-10-02
PCT/FR2002/001906 WO2003007237A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire des informations formatees liees aux distorsions geometriques

Publications (2)

Publication Number Publication Date
DE60218317D1 DE60218317D1 (de) 2007-04-05
DE60218317T2 true DE60218317T2 (de) 2008-01-03

Family

ID=27248787

Family Applications (2)

Application Number Title Priority Date Filing Date
DE60231752T Expired - Lifetime DE60231752D1 (de) 2001-07-12 2002-06-05 Verfahren und system zur umsetzung eines bildes aus einem digitalen bild
DE60218317T Expired - Lifetime DE60218317T2 (de) 2001-07-12 2002-06-05 Verfahren und system zur herstellung von auf geometrischen verzerrungen bezogenen formatierten informationen

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE60231752T Expired - Lifetime DE60231752D1 (de) 2001-07-12 2002-06-05 Verfahren und system zur umsetzung eines bildes aus einem digitalen bild

Country Status (9)

Country Link
US (2) US7532766B2 (de)
EP (3) EP1421777B1 (de)
JP (3) JP4159986B2 (de)
KR (1) KR100940149B1 (de)
CN (3) CN100346633C (de)
AT (2) ATE426868T1 (de)
DE (2) DE60231752D1 (de)
ES (2) ES2282429T3 (de)
WO (3) WO2003007592A1 (de)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4159986B2 (ja) 2001-07-12 2008-10-01 ドゥ ラブズ デジタル画像から変換された画像を計算するための方法およびシステム
CN1305006C (zh) * 2001-07-12 2007-03-14 杜莱布斯公司 向图象处理装置提供格式化信息的方法和系统
US7343278B2 (en) * 2002-10-22 2008-03-11 Artoolworks, Inc. Tracking a surface in a 3-dimensional scene using natural visual features of the surface
US7773316B2 (en) * 2003-01-16 2010-08-10 Tessera International, Inc. Optics for an extended depth of field
US8294999B2 (en) 2003-01-16 2012-10-23 DigitalOptics Corporation International Optics for an extended depth of field
JP4377404B2 (ja) * 2003-01-16 2009-12-02 ディ−ブルアー テクノロジス リミテッド 画像向上機能を備えたカメラ
JP2004234379A (ja) * 2003-01-30 2004-08-19 Sony Corp 画像処理方法、画像処理装置及び画像処理方法を適用した撮像装置、表示装置
JP4010254B2 (ja) * 2003-02-06 2007-11-21 ソニー株式会社 画像記録再生装置、画像撮影装置及び色収差補正方法
US7596286B2 (en) * 2003-08-06 2009-09-29 Sony Corporation Image processing apparatus, image processing system, imaging apparatus and image processing method
US7505946B2 (en) * 2004-03-31 2009-03-17 Microsoft Corporation High performance content alteration architecture and techniques
US7583858B2 (en) * 2004-10-12 2009-09-01 Eastman Kodak Company Image processing based on direction of gravity
WO2006047816A1 (en) * 2004-11-01 2006-05-11 Eye Diagnostics Pty Ltd Devic and method for investigating changes in the eye
FR2881011B1 (fr) 2005-01-19 2007-06-29 Dxo Labs Sa Procede de realisation d'un appareil de capture et/ou restitution d'images et appareil obtenu par ce procede
US7683950B2 (en) * 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image
FR2889321B1 (fr) * 2005-07-26 2008-02-01 Sagem Comm Procede de correction automatique de photographies numeriques
US20070058881A1 (en) * 2005-09-12 2007-03-15 Nishimura Ken A Image capture using a fiducial reference pattern
US7724942B2 (en) * 2005-10-31 2010-05-25 Mitutoyo Corporation Optical aberration correction for machine vision inspection systems
US8311311B2 (en) * 2005-10-31 2012-11-13 Mitutoyo Corporation Optical aberration correction for machine vision inspection systems
JP2007172059A (ja) * 2005-12-19 2007-07-05 Toshiba Corp 紙葉類判別装置、および紙葉類処理装置
FR2895102B1 (fr) * 2005-12-19 2012-12-07 Dxo Labs Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede
FR2895103B1 (fr) * 2005-12-19 2008-02-22 Dxo Labs Sa Procede et systeme de traitement de donnees numeriques
FR2895104A1 (fr) * 2005-12-19 2007-06-22 Dxo Labs Sa Procede pour fournir des donnees a un moyen de traitement numerique
US7881563B2 (en) * 2006-02-15 2011-02-01 Nokia Corporation Distortion correction of images using hybrid interpolation technique
US20070239417A1 (en) * 2006-03-31 2007-10-11 D-Blur Technologies Ltd. Camera performance simulation
US7847831B2 (en) * 2006-08-30 2010-12-07 Panasonic Corporation Image signal processing apparatus, image coding apparatus and image decoding apparatus, methods thereof, processors thereof, and, imaging processor for TV conference system
US7792357B2 (en) * 2007-05-30 2010-09-07 Microsoft Corporation Chromatic aberration correction
US7809208B2 (en) * 2007-05-30 2010-10-05 Microsoft Corporation Image sharpening with halo suppression
US9177368B2 (en) 2007-12-17 2015-11-03 Nvidia Corporation Image distortion correction
US9379156B2 (en) 2008-04-10 2016-06-28 Nvidia Corporation Per-channel image intensity correction
JP4816704B2 (ja) * 2008-09-25 2011-11-16 富士ゼロックス株式会社 指示システム、指示プログラム
JP5153593B2 (ja) * 2008-12-02 2013-02-27 株式会社Pfu 画像処理装置および画像処理方法
US8749662B2 (en) * 2009-04-16 2014-06-10 Nvidia Corporation System and method for lens shading image correction
FR2948521B1 (fr) 2009-07-21 2012-01-27 Dxo Labs Procede d'estimation d'un defaut d'un systeme de capture d'images et systemes associes
US8248511B2 (en) * 2009-09-30 2012-08-21 Ricoh Co., Ltd. Dual-mode extended depth-of-field imaging systems
JP5479225B2 (ja) * 2010-05-27 2014-04-23 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
DE112010005743B4 (de) 2010-07-16 2021-09-02 Robert Bosch Gmbh Verfahren für die Detektion und Korrektur von lateraler chromatischer Aberration
DE112010005744B4 (de) 2010-07-16 2021-09-09 Robert Bosch Gmbh Verfahren für die Detektion und Korrektur einer lateralen chromatischen Aberration
JP5582935B2 (ja) 2010-09-22 2014-09-03 富士フイルム株式会社 撮像モジュール
CN103377467B (zh) * 2012-04-25 2017-03-29 华晶科技股份有限公司 图像补偿的方法
EP2877080B1 (de) 2012-07-26 2020-07-22 DePuy Synthes Products, Inc. Ycbcr-gepulstes beleuchtungsschema in einer lichtarmen umgebung
CN104486986B (zh) 2012-07-26 2018-06-01 德普伊辛迪斯制品公司 光不足环境中的连续视频
US9509917B2 (en) 2012-07-26 2016-11-29 DePuy Synthes Products, Inc. Wide dynamic range using monochromatic sensor
US9798698B2 (en) 2012-08-13 2017-10-24 Nvidia Corporation System and method for multi-color dilu preconditioner
WO2014041968A1 (ja) 2012-09-11 2014-03-20 株式会社日本触媒 ポリアクリル酸(塩)系吸水剤の製造方法及びその吸水剤
CN107376866B (zh) 2012-09-11 2021-06-01 株式会社日本触媒 聚丙烯酸(盐)系吸水剂的制造方法及其吸水剂
US9508318B2 (en) 2012-09-13 2016-11-29 Nvidia Corporation Dynamic color profile management for electronic devices
US9307213B2 (en) 2012-11-05 2016-04-05 Nvidia Corporation Robust selection and weighting for gray patch automatic white balancing
JP2016519591A (ja) 2013-03-15 2016-07-07 オリーブ・メディカル・コーポレイションOlive Medical Corporation パルスカラー撮像システムにおける超解像度及び色運動アーチファクト補正
US10251530B2 (en) 2013-03-15 2019-04-09 DePuy Synthes Products, Inc. Scope sensing in a light controlled environment
US9777913B2 (en) 2013-03-15 2017-10-03 DePuy Synthes Products, Inc. Controlling the integral light energy of a laser pulse
WO2014145244A1 (en) 2013-03-15 2014-09-18 Olive Medical Corporation Comprehensive fixed pattern noise cancellation
WO2014144950A1 (en) 2013-03-15 2014-09-18 Olive Medical Corporation Noise aware edge enhancement
US9418400B2 (en) 2013-06-18 2016-08-16 Nvidia Corporation Method and system for rendering simulated depth-of-field visual effect
US9756222B2 (en) 2013-06-26 2017-09-05 Nvidia Corporation Method and system for performing white balancing operations on captured images
US9826208B2 (en) 2013-06-26 2017-11-21 Nvidia Corporation Method and system for generating weights for use in white balancing an image
DE102013012988A1 (de) * 2013-08-03 2015-02-05 Carl Zeiss Microscopy Gmbh Verfahren zur Kalibrierung eines digitalen optischen Abbildungssystems, Verfahren zur Korrektur von Abbildungsfehlern in einem digitalen optischen Abbildungssystem, sowie digitales optisches Abblildungssystem
WO2015093594A1 (ja) 2013-12-20 2015-06-25 株式会社日本触媒 ポリアクリル酸(塩)系吸水剤及びその製造方法
JP6573960B2 (ja) 2014-03-21 2019-09-11 デピュイ・シンセス・プロダクツ・インコーポレイテッド イメージングセンサ用のカードエッジコネクタ
EP3200148B1 (de) * 2014-10-31 2019-08-28 Huawei Technologies Co., Ltd. Bildverarbeitungsverfahren und vorrichtung
KR102328020B1 (ko) * 2015-04-03 2021-11-17 한국전자통신연구원 하나의 룩업 테이블을 이용한 파노라마 영상 출력 시스템 및 방법
CN107847905A (zh) 2015-07-01 2018-03-27 株式会社日本触媒 颗粒状吸水剂
WO2018002910A1 (en) * 2016-06-28 2018-01-04 Cognata Ltd. Realistic 3d virtual world creation and simulation for training automated driving systems
EP4254035A3 (de) * 2016-10-12 2023-12-06 Samsung Electronics Co., Ltd. Verfahren, vorrichtung und aufzeichnungsmedium zur bildverarbeitung
JP2021139718A (ja) * 2020-03-04 2021-09-16 日本発條株式会社 検査システムの点検方法、検査システム、およびコンピュータプログラム。

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60120473A (ja) * 1983-12-02 1985-06-27 Hitachi Ltd 衛星画像補正処理方法
US5144687A (en) * 1985-03-02 1992-09-01 Kabushika Kaisha Toshiba Image processing apparatus including spatial shift variant filter
FR2661061B1 (fr) 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
GB2256989B (en) * 1991-06-21 1995-02-08 Sony Broadcast & Communication Video image capture apparatus
JP3035416B2 (ja) 1992-11-18 2000-04-24 キヤノン株式会社 撮像装置及び画像再生装置及び映像システム
US5905530A (en) 1992-08-24 1999-05-18 Canon Kabushiki Kaisha Image pickup apparatus
US5353056A (en) * 1992-10-27 1994-10-04 Panasonic Technologies, Inc. System and method for modifying aberration and registration of images
JPH06205273A (ja) 1993-01-04 1994-07-22 Sony Corp 幾何補正内蔵ビデオカメラ
DE69526635T2 (de) * 1994-12-29 2002-12-05 Koninkl Philips Electronics Nv Bilderzeugungsgerät und Verfahren zur Verbesserung geometrischer optischer Bildverzerrungen
JP3950188B2 (ja) * 1996-02-27 2007-07-25 株式会社リコー 画像歪み補正用パラメータ決定方法及び撮像装置
US6173087B1 (en) 1996-11-13 2001-01-09 Sarnoff Corporation Multi-view image registration with application to mosaicing and lens distortion correction
US6222583B1 (en) 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
EP0878970A3 (de) * 1997-05-16 1999-08-18 Matsushita Electric Industrial Co., Ltd. System zum Messen der Ausrichtungsfehler und chromatischen Aberration eines Bildaufnehmers für eine Videokamera
JPH10319517A (ja) * 1997-05-21 1998-12-04 Konica Corp 画像形成装置、及びレンズ付きフィルムユニットの製造方法
KR19990027149A (ko) * 1997-09-29 1999-04-15 윤종용 스캐너의 블록간 화질현차 보상방법
US6493028B1 (en) 1997-11-26 2002-12-10 Flashpoint Technology, Inc. Method and system for extending the available image file formats in an image capture device
DE19812028A1 (de) * 1998-03-19 1999-09-23 Heidelberger Druckmasch Ag Verfahren zur Koordinatenumrechnung von Bilddaten mit zufälligem Offset der Bildpunkte
US6173067B1 (en) * 1998-04-07 2001-01-09 Hughes Electronics Corporation System and method for rapid determination of visibility-based terrain properties over broad regions
US6603885B1 (en) * 1998-04-30 2003-08-05 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JP4338155B2 (ja) 1998-06-12 2009-10-07 キヤノン株式会社 画像処理装置及びその方法、コンピュータ可読メモリ
US6456339B1 (en) 1998-07-31 2002-09-24 Massachusetts Institute Of Technology Super-resolution display
JP2000125174A (ja) * 1998-10-12 2000-04-28 Fuji Photo Film Co Ltd 画像情報における歪曲収差補正方法および装置
JP2000125175A (ja) 1998-10-16 2000-04-28 Olympus Optical Co Ltd カメラ、画像処理システム、及び記録媒体
JP4095184B2 (ja) * 1998-10-29 2008-06-04 キヤノン株式会社 画像処理装置及びその方法
US6538691B1 (en) * 1999-01-21 2003-03-25 Intel Corporation Software correction of image distortion in digital cameras
AU1486101A (en) 1999-11-12 2001-06-06 Brian S. Armstrong Image metrology methods and apparatus
US6809837B1 (en) * 1999-11-29 2004-10-26 Xerox Corporation On-line model prediction and calibration system for a dynamically varying color reproduction device
US6819333B1 (en) * 2000-05-12 2004-11-16 Silicon Graphics, Inc. System and method for displaying an image using display distortion correction
US6816625B2 (en) * 2000-08-16 2004-11-09 Lewis Jr Clarence A Distortion free image capture system and method
JP3429280B2 (ja) * 2000-09-05 2003-07-22 理化学研究所 画像のレンズ歪みの補正方法
TW508538B (en) * 2001-06-14 2002-11-01 Ulead Systems Inc Special effect method of lens using converting mask
JP4159986B2 (ja) 2001-07-12 2008-10-01 ドゥ ラブズ デジタル画像から変換された画像を計算するための方法およびシステム
US7092581B2 (en) * 2001-11-23 2006-08-15 Imaging Dynamics Company Ltd. Balancing areas of varying density in a digital image

Also Published As

Publication number Publication date
US7532766B2 (en) 2009-05-12
JP4630547B2 (ja) 2011-02-09
JP2004535033A (ja) 2004-11-18
CN1526118A (zh) 2004-09-01
US20040240750A1 (en) 2004-12-02
EP1523730A1 (de) 2005-04-20
CN100371950C (zh) 2008-02-27
EP1523730B1 (de) 2009-03-25
CN100346633C (zh) 2007-10-31
US20040247195A1 (en) 2004-12-09
ES2324817T3 (es) 2009-08-17
KR20040043156A (ko) 2004-05-22
EP1421777A1 (de) 2004-05-26
CN1531711A (zh) 2004-09-22
EP1412918A1 (de) 2004-04-28
KR100940149B1 (ko) 2010-02-03
CN1526231A (zh) 2004-09-01
ATE354837T1 (de) 2007-03-15
EP1421777B1 (de) 2017-04-19
EP1412918B1 (de) 2007-02-21
ES2282429T3 (es) 2007-10-16
JP2004534489A (ja) 2004-11-11
US7356198B2 (en) 2008-04-08
WO2003007237A1 (fr) 2003-01-23
JP4378168B2 (ja) 2009-12-02
WO2003007238A1 (fr) 2003-01-23
JP2004534490A (ja) 2004-11-11
DE60231752D1 (de) 2009-05-07
ATE426868T1 (de) 2009-04-15
CN100345158C (zh) 2007-10-24
DE60218317D1 (de) 2007-04-05
WO2003007592A1 (fr) 2003-01-23
JP4159986B2 (ja) 2008-10-01

Similar Documents

Publication Publication Date Title
DE60218317T2 (de) Verfahren und system zur herstellung von auf geometrischen verzerrungen bezogenen formatierten informationen
DE60207417T2 (de) Verfahren und vorrichtung zur erzeugung formatierter information, die mit den fehlern zumindest eines geräts einer kette verbunden ist, insbesondere der bildschärfeverzerrung
DE19714101C2 (de) Verfahren und Vorrichtung zum Bearbeiten von Bilddaten
DE112020003794T5 (de) Tiefenbewusste Fotobearbeitung
US8280194B2 (en) Reduced hardware implementation for a two-picture depth map algorithm
JP3429784B2 (ja) 複合像を発生する方法
DE69735488T2 (de) Verfahren und vorrichtung zum ausrichten von bildern
JP5202546B2 (ja) マルチ画像表示を較正および/または視覚化しかつゴーストアーチファクトを低減するためのするための方法およびシステム
DE602005002739T2 (de) Fraktal-skr-verfahren zur auswertung der bildqualität
DE69909635T2 (de) Gerät und verfahren zur elektronischen bildverbesserung
DE112009005418B4 (de) Bildverarbeitungsgerät
DE602004002643T2 (de) Bildverarbeitungsapparat, Bildverarbeitungsmethode und Programm
DE102014010152A1 (de) Automatikeffektverfahren für Fotografie und elektronische Vorrichtung
DE102015010096A1 (de) Konfigurationseinstellungen einer Digitalkamera zur Tiefenkarten-Erzeugung
CN1985274A (zh) 用于复原图像模型中颜色分量的方法、系统和程序模块
US20060056733A1 (en) Image comparing method, computer program product, and image comparing apparatus
DE19855885A1 (de) Bildverarbeitungsverfahren und -vorrichtung
DE112017007695T5 (de) Facettenaugen-bildaufnahmevorrichtung, bildverarbeitungsverfahren, programm und aufzeichnungsmedium
CN106165398A (zh) 摄像元件、摄像装置以及图像处理装置
DE69633589T2 (de) Verfahren und Gerät zur Verarbeitung von visuellen Informationen
DE102014211039B4 (de) Bildgebungsgerät, Bildverarbeitungsgerät und zugehöriges Steuerungsverfahren
US8934730B2 (en) Image editing method and associated method for establishing blur parameter
DE19536691B4 (de) Verfahren und Anordnung zur Korrektur von Bildstandsfehlern bei der fernsehmäßigen Filmabtastung
DE69837244T2 (de) Verfahren und vorrichtung zur erzielung einer übereinstimmung in der farberscheinung für ein in unterschiedlichen umgebungen mit unterschiedlicher relativer leuchtdichte zu betrachtendes bild
WO2011032642A1 (de) Verfahren und vorrichtung zum erzeugen von teilansichten und/oder einer raumbildvorlage aus einer 2d-ansicht für eine stereoskopische wiedergabe

Legal Events

Date Code Title Description
8364 No opposition during term of opposition