DE69725505T2 - Bildkombinationsgerät und -verfahren - Google Patents

Bildkombinationsgerät und -verfahren Download PDF

Info

Publication number
DE69725505T2
DE69725505T2 DE69725505T DE69725505T DE69725505T2 DE 69725505 T2 DE69725505 T2 DE 69725505T2 DE 69725505 T DE69725505 T DE 69725505T DE 69725505 T DE69725505 T DE 69725505T DE 69725505 T2 DE69725505 T2 DE 69725505T2
Authority
DE
Germany
Prior art keywords
image
tone
images
correction
corresponding points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69725505T
Other languages
English (en)
Other versions
DE69725505D1 (de
Inventor
Tatsushi Ohta-ku Katayama
Hideo Ohta-ku Takiguchi
Kotaro Ohta-ku Yano
Kenji Ohta-ku Hatori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP8133642A external-priority patent/JPH09321972A/ja
Priority claimed from JP8260200A external-priority patent/JPH1091765A/ja
Application filed by Canon Inc filed Critical Canon Inc
Application granted granted Critical
Publication of DE69725505D1 publication Critical patent/DE69725505D1/de
Publication of DE69725505T2 publication Critical patent/DE69725505T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3876Recombination of partial images to recreate the original image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Description

  • Hintergrund der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Vorrichtung und ein Verfahren zum Kombinieren von Bildern, und insbesondere auf eine Bildkombiniervorrichtung und ein Verfahren dafür zum Kombinieren einer Vielzahl von Bildern, die teilweise eine überlappende Region mit dem gleichen Bild enthalten, um ein Panoramabild mit einer Weitwinkelansicht zu erzeugen.
  • Gemäß dem herkömmlichen Verfahren zur Erzeugung eines Panoramabildes mit einer Weitwinkelansicht durch Kombinieren einer Vielzahl von Bildern, die teilweise eine überlappende Region des gleichen Bildes haben, werden zwei Bilder in einer Ebene durch eine geometrische Transformation kombiniert, wie einer affinen Transformation oder dergleichen, um Koordinatenwerte von zwei entsprechenden Punkten zusammenfallen zu lassen, die aus den überlappenden Regionen mit dem gleichen Bild aber mit verschiedenen Koordinatenwerten extrahiert sind.
  • In einem Fall aber, wenn Bedingungen, insbesondere Belichtungsbedingungen beim Fotografieren der Vielzahl an Bildern für jedes Bild aufgrund einiger Faktoren beim Fotografieren eines Subjekts verschieden sind, hat die Grenze der Bilder eine sichtbare Linie aufgrund des Unterschieds in der Helligkeit der Bilder, selbst wenn die zwei Bilder präzise gemäß dem herkömmlichen Verfahren kombiniert werden, bei dem die entsprechenden Punkte zusammenfallen.
  • Der Nachteil des herkömmlichen Bildkombinationsverfahrens wird bezüglich der 1, 2A, 2B und 3 beschrieben.
  • Dabei wird angenommen, dass ein Bild eines in 1 gezeigten Subjekts durch eine elektronische Stehbildkamera oder dergleichen aufgenommen wird, wobei zwei Fotografiebilder (Bild f1 und Bild f2) aufgenommen werden. Da das durch das Bild f1 aufgenommene Subjekt insgesamt eine dunkle Atmosphäre hat, korrigiert die Kamera eine Belichtungsmenge der Bildaufnahme, sodass der Dunkelabschnitt heller ist. Infolgedessen wird ein in 2A gezeigtes Bild erhalten. Da das durch das Bild f2 aufgenommene Subjekt insgesamt eine hellere Atmosphäre hat, korrigiert die Kamera eine Belichtungsmenge zum Zeitpunkt der Bildaufnahme derart, dass der helle Abschnitt dunkler wird. Infolgedessen wird ein in 2B gezeigtes Bild erhalten. Selbst wenn die zwei eingegebenen Bilder (Bilder in den 1A und 1B) präzise kombiniert werden, hat dementsprechend das in 3 gezeigte kombinierte Bild eine auffallende Linie aufgrund der Helligkeitsunterschiede.
  • Die Erfindung wurde unter Berücksichtigung der vorstehenden Situation ausgebildet, und hat die Ausbildung einer Bildkombinationsvorrichtung und eines Verfahrens zur Kombination von Bildern auf eine Weise zur Aufgabe, dass die Grenze der Bilder selbst in einem Fall nicht auffällt, in dem Belichtungsbedingungen für jedes eingegebene Bild unterschiedlich sind.
  • In der JP-A-7-11 55 34 ist eine Bildlesevorrichtung zum Kombinieren von Bildern zum Ausbilden eines übergroßen Bildes beschrieben. Beim Kombinieren von zwei Bildern korrigiert die in dieser Druckschrift beschriebene Vorrichtung zuerst Daten in einem überlappenden Bereich, und dann werden die Daten in Abhängigkeit davon geglättet oder binarisiert, ob der Überlappungsbereich als Zeichen oder Fotobild erfasst wird.
  • In der GB-A-21 30 838 sind ein Verfahren und eine Vorrichtung zum Bilden eines kombinierten Bildsignals beschrieben, wobei Bildsignale, die eines benachbarter Bilder darstellen, hinsichtlich der Bildhelligkeit innerhalb einer vorbestimmten Entfernung von einer Schnittstelle zwischen den benachbarten Bildern modifiziert werden, sodass sich die Bildhelligkeit allmählich von der vorbestimmten Entfernung zur der Schnittstelle mit einer gewünschten Änderungsrate ändert.
  • Gemäß einer ersten Ausgestaltung der Erfindung ist eine Bildkombinationsvorrichtung nach Patentanspruch 1 ausgebildet.
  • Gemäß einer zweiten Ausgestaltung der Erfindung ist ein Bildkombinationsverfahren nach Patentanspruch 13 ausgebildet.
  • Ein Ausführungsbeispiel der Erfindung stellt eine Bildkombinationsvorrichtung und ein Verfahren bereit, die ein kombiniertes Bild erzeugen können, dessen Grenze der Bilder nicht auffallend ist, indem eine überlappende Region mit dem gleichen Bild in zwei eingegebenen Bildern unterschieden und identifiziert wird, und Töne eines der eingegebenen oder beider Bilder entsprechend dem Unterschied in der Tonhelligkeit zwischen den zwei eingegebenen Bildern korrigiert werden.
  • Ein Ausführungsbeispiel der Erfindung stellt eine Bildkombinationsvorrichtung und ein Verfahren bereit, die ein kombiniertes Bild erzeugen können, dessen Grenze der Bilder nicht auffällt, indem eine Tonkorrektur insbesondere in der Nachbarschaft der Grenze durchgeführt wird.
  • Ein Ausführungsbeispiel der Erfindung liefert eine Bildkombinationsvorrichtung und eine Verfahren, die ein kombiniertes Bild erzeugen können, dessen Grenze der Bilder nicht auffällt, indem eine Tonkorrektur bei Bildelementen in der Nachbarschaft der Grenze in der überlappenden Region dementsprechend durchgeführt wird, wie weit das interessierende Bildelement von der Grenze entfernt ist.
  • Ein Ausführungsbeispiel liefert eine Bildkombinationsvorrichtung und ein Verfahren, die ein kombiniertes Bild erzeugen können, dessen Grenze der Bilder unauffällig ist, indem falsch erkannte entsprechende Punkte aus einer Gruppe entsprechender Punkte entfernt werden, die zum Identifizieren der überlappenden Region der Bilder erfasst wurde, und indem Parameter einer Tonkorrektur auf der Grundlage der Gruppe entsprechender Punkte bestimmt werden, aus denen die falschen entsprechenden Punkte entfernt sind, wodurch die Präzision der Tonkorrektur erhöht wird.
  • Weitere Merkmale und Vorteile der Erfindung werden aus der folgenden Beschreibung unter Bezugnahme auf die beiliegende Zeichnung ersichtlich, in der die gleichen Bezugszeichen gleiche oder ähnliche Abschnitte in den Figuren bezeichnen.
  • Kurzbeschreibung der Zeichnung
  • Die beiliegende Zeichnung, die einen Teil der Beschreibung bildet, veranschaulicht Ausführungsbeispiele der Erfindung und dient zusammen mit der Beschreibung der Erläuterung der Prinzipien der Erfindung.
  • 1 zeigt eine Darstellung von Bildaufnahmebedingungen eingegebener Bilder entsprechend dem herkömmlichem Beispiel und dem vorliegenden Ausführungsbeispiel,
  • 2A und 2B zeigen Beispiele des eingegebenen Bildes,
  • 3 zeigt ein mit dem herkömmlichen Verfahren kombiniertes Bild,
  • 4 zeigt ein Blockschaltbild einer Anordnung einer Bildkombinationsvorrichtung gemäß dem ersten Ausführungsbeispiel der Erfindung,
  • 5 zeigt ein Ablaufdiagramm eines Verarbeitungsalgorithmus, der durch eine Entsprechungspunktextrahiereinheit gemäß dem ersten Ausführungsbeispiel durchgeführt wird,
  • 6A zeigt eine Darstellung eines Verfahrens zur Extraktion einer Vorlage, die zum Extrahieren entsprechender Punkte aus eingegebenen Bildern verwendet wird,
  • 6B zeigt eine Darstellung eines Verfahrens zum Extrahieren einer Vorlage, die zum Extrahieren entsprechender Punkte in einem Fall verwendet wird, wenn eingegebene Bilder übereinander angeordnet sind,
  • 7A und 7B zeigen Darstellungen eines Verfahrens zum Einstellen eines Suchobjektbereichs zum Extrahieren entsprechender Punkte,
  • 8 zeigt ein Ablaufdiagramm eines Verarbeitungsalgorithmus einer Tonkorrektur,
  • 9 zeigt eine grafische Darstellung einer Kennlinie einer Beziehung von Abtastdaten,
  • 10 zeigt eine Tabelle, die Werte von Umwandlungsfunktionen für eine Tonumwandlungseinheit speichert,
  • 11 zeigt ein Ablaufdiagramm eines durch eine Bildkombinationseinheit durchgeführten Verarbeitungsalgorithmus,
  • 12 zeigt eine Beispieldarstellung des Bildkombinationsverfahrens,
  • 13 zeigt eine Beispieldarstellung des Bildkombinationsverfahrens,
  • 14 zeigt ein kombiniertes Bild,
  • 15 zeigt eine grafische Darstellung der Schwankung in der Helligkeit im in 14 gezeigten kombinierten Bild,
  • 16 zeigt eine Beispieldarstellung zur Beschreibung einer Extraktion von Abtastdaten gemäß einem modifizierten Ausführungsbeispiel des ersten Ausführungsbeispiels,
  • 17 zeigt eine grafische Darstellung einer Kennlinie einer Tonumwandlung gemäß einem zweiten modifizierten Ausführungsbeispiel des ersten Ausführungsbeispiels,
  • 18 zeigt eine grafische Darstellung einer Kennlinie eines Bildkombinationsvorgangs gemäß dem zweiten modifizierten Ausführungsbeispiel,
  • 19 zeigt ein Blockschaltbild der Anordnung der Bildkombinationsvorrichtung und den Verarbeitungsablauf eines eingegebenen Bildes gemäß dem zweiten Ausführungsbeispiel,
  • 20 zeigt eine Beispieldarstellung eines Punkts Pi in einem Bild a und eines entsprechenden Bilds Qi in einem Bild b gemäß dem zweiten Ausführungsbeispiel,
  • 21 zeigt ein Ablaufdiagramm mit den Schritten einer Tonkorrekturverarbeitung gemäß dem zweiten Ausführungsbeispiel, die durch eine Korrekturkoeffizientenbestimmungseinheit und Tonumwandlungseinheiten durchgeführt wird,
  • 22 zeigt eine Beispieldarstellung von zur Bestimmung von Tonkorrekturkoeffizienten erhaltenen Abtastdaten,
  • 23A und 23B zeigen grafische Darstellungen zur Beschreibung des Verfahrens der Tonkorrektur gemäß dem zweiten Ausführungsbeispiel,
  • 24 zeigt eine Tabelle, die zur Umwandlung von Bildelementwerten im Bild b in Bildelementwerte im Bild a gemäß dem zweiten Ausführungsbeispiel verwendet wird,
  • 25A25C zeigen Beispieldarstellungen zur Beschreibung der Schritte zum Entfernen falscher entsprechender Komponenten durch eine Entsprechungspunktauswahleinheit gemäß dem dritten Ausführungsbeispiel,
  • 26A und 26B zeigen grafische Darstellungen zur Beschreibung der Schritte zur Bestimmung von Tonkorrekturkoeffizienten durch eine Korrekturkoeffizientenbestimmungseinheit gemäß einem dritten Ausführungsbeispiel und
  • 27 zeigt eine Beispieldarstellung zum Erhalten von Abtastdaten gemäß dem vierten Ausführungsbeispiel.
  • Ausführliche Beschreibung der bevorzugten Ausführungsbeispiele Nachstehend werden bevorzugte Ausführungsbeispiele der Erfindung unter Bezugnahme auf die beiliegende Zeichnung näher beschrieben.
  • (Erstes Ausführungsbeispiel)
  • 4 zeigt die Anordnung einer Bildkombinationsvorrichtung 1000 gemäß dem ersten Ausführungsbeispiel der Erfindung.
  • Die Kombinationsvorrichtung 1000 kann eine einzelne Vorrichtung sein oder in einer Kamera oder dergleichen eingebaut sein. Die Vorrichtung dient der Eingabe zweier Eingangsbilder a und b und zur Ausgabe eines kombinierten Bildes c.
  • Gemäß 4 werden Eingangsbilder a und b durch eine elektronische Stehbildkamera oder eine Videokamera oder dergleichen derart aufgenommen, dass beide Bilder teilweise eine überlappende Region mit dem gleichen Bild enthalten. Selbst wenn die Eingangsbilder a und b mit unterschiedlichen Belichtungszuständen aufgenommen werden, wie jenen in den 2A und 2B gezeigten (beispielsweise wird ein Bild in einem dunklen Zustand aufgenommen, und das andere Bild in einem hellen Zustand), gibt die Kombinationsvorrichtung 1000 ein kombiniertes Bild c aus, dessen Grenze der Bilder nicht auffällt.
  • Die Kombinationsvorrichtung 1000 umfasst eine Entsprechungspunktextrahiereinheit 1, eine Parameterschätzeinheit 2, eine Korrekturkoeffizientenbestimmungseinheit 3, zwei Tonumwandlungseinheiten 4 und 5 und eine Bildkombinationseinheit 6.
  • Die Entsprechungspunktextrahiereinheit 1 extrahiert entsprechende Punkte aus den zwei Eingangsbildern a und b. Hier sind entsprechende Punkte jeweils Punkte in zwei Bildern, die ein identisches Subjekt enthalten, die in separaten Bildaufnahmevorgängen mit der gleichen Lichtquelle aufgenommen werden. Die entsprechenden Punkte beziehungsweise Entsprechungspunkte werden in der Form von Vektoren ausgegeben. Die Entsprechungspunktextrahiereinheit 1 identifiziert eine überlappende Region der Bilder a und b.
  • Eine Parameterschätzeinheit 2 schätzt Parameter, die für eine Bildumwandlung zum Zweck der Kombination der zwei Bilder verwendet werden, auf der Grundlage der durch die Extrahiereinheit 1 extrahierten Entsprechungspunktvektoren.
  • Eine Korrekturkoeffizientenbestimmungseinheit 3 bestimmt Koeffizienten, die für eine Tonkorrektur verwendet werden, die bei jedem der Eingangsbilder a und b durchgeführt wird. Die Korrekturkoeffizienten werden auf der Grundlage von Bilddaten in der überlappenden Region der Eingangsbilder a und b bestimmt.
  • Tonumwandlungseinheiten 4 und 5 führen jeweils eine Tonkorrektur bei den Eingangsbildern a und b derart durch, dass Helligkeit und Tönung jeder Farbe in der überlappenden Region der zwei Bilder gleich sind.
  • Eine Bildkombinationseinheit 6 wandelt die Eingangsbilder a und b, deren Helligkeit korrigiert wurde, unter Verwendung der Umwandlungsparameter um und kombiniert die zwei Bilder in ein einziges Bild.
  • Eine Steuereinheit 7 steuert die gesamte Bildkombinationsvorrichtung.
  • Entsprechungspunktextraktion durch Einheit 1 Nachstehend wird der Vorgang zur Erzeugung eines kombinierten Bildes c beruhend auf den Eingangsbildern a und b beschrieben. Es wird ein Fall beschrieben, in dem die Eingangsbilder a und b N Helligkeitsbilddatentöne haben.
  • Die Entsprechungspunktextrahiereinheit 1 extrahiert Entsprechungspunkte aus den Eingangsbildern a und b zum Identifizieren einer überlappenden Region. Der durch die Entsprechungspunktextrahiereinheit 1 durchgeführte Verarbeitungsalgorithmus ist in 5 gezeigt. Der in 5 gezeigte Algorithmus wird zur Durchführung einer Vorlagenübereinstimmung und Extraktion entsprechender Punkte (das heißt, der Überlappungsregion) ausgeführt.
  • In Schritt S1 bestimmt die Entsprechungspunktextrahiereinheit 1 eine Region, die eine Vorlage enthält (die nachstehend als Vorlagenregion bezeichnet wird), um einen Vorlagenübereinstimmungsvergleich durchzuführen. Da die Eingangsbilder a und b willkürlich aufgenommen werden, kann die überlappende Region nicht vorab bestimmt werden. Somit stellt die Extrahiereinheit 1 eine vorbestimmte Region als Vorlagenregion ein.
  • Die vorbestimmte Region kann auf verschiedene Weise bestimmt werden.
  • Im ersten Ausführungsbeispiel wird angenommen, dass das Bild des Rahmens f1 zuerst fotografiert ist, und das Bild des Rahmens f2 als nächstes fotografiert ist. Daher wird das Eingangsbild a links und das Eingangsbild b rechts angeordnet. Das heißt, eine überlappende Region der zwei Bilder sollte der rechte Abschnitt des Eingangsbildes a und der linke Abschnitt des Eingangsbildes b sein. Dementsprechend wird eine vorbestimmte Region T wie in 6A gezeigt eingestellt. Die Region T befindet sind im rechten Abschnitt des Bildes a. die horizontale Länge der Region T beträgt 30% der horizontalen Länge des Bildes a, und eine vertikale Länge der Region T beträgt 80% der vertikalen Länge des Bildes a. Die Region T befindet sind im Zentrum der vertikalen Länge des Bildes a, wobei ihr rechtes Ende an das rechte Ende des Bildes a angrenzt.
  • Sind die Eingangsbilder a und b vertikal angeordnet, dass heißt, übereinander, wird die Vorlagenregion T wie in 6B gezeigt eingestellt. Insbesondere befindet sich die Region T im unteren Abschnitt des Bildes a. Die vertikale Länge der Region T beträgt 30% der vertikalen Länge des Bildes a, und die horizontale Länge der Region T beträgt 80% der horizontalen Länge des Bildes a. Die Region T befindet sich im Zentrum der horizontalen Länge des Bildes a, wobei das untere Ende an das untere Ende des Bildes a angrenzt.
  • Bei dem Vorgang der Extraktion entsprechender Punkte wie in 5 gezeigt wird ein Übereinstimmungsvergleichsvorgang hinsichtlich der Region T mehrmals wiederholt. Eine Region (die nachstehend als Suchvorlage bezeichnet wird), die einer einzelnen Übereinstimmungsvergleichsverarbeitung unterzogen wird, beträgt 1/24(= 1/3 × 1/8) der Region T. Eine einzelne Suchvorlage ist in 6A mit „t" bezeichnet.
  • Die nachstehend beschriebenen Schritte S2 bis S4 werden hinsichtlich der in Schritt S1 extrahierten Region T durchgeführt.
  • In Schritt S2 bestimmt die Entsprechungspunktextrahiereinheit 1 einen Suchobjektbereich S im Eingangsbild b, und setzt im Berech S einen gesuchten Bereich s, der der im Bild a bestimmten Suchvorlage t entspricht. Der Suchobjektbereich S wird auf ähnliche Weise wie bei der Einstellung der Region T eingestellt. Das heißt, der Suchobjektbereich S sowie die Suchvorlage t werden wie in den 7A und 7B gezeigt beruhend auf einer Annahme bestimmt, dass dann, wenn ein Benutzer Fotografien zur Erzeugung eines Panoramabildes macht, der Benutzer die Rahmen f1 und f2 derart setzen würde, dass nicht mehr als 50% des Eingangsbildes a mit dem Eingangsbild b in der horizontalen Richtung überlappen, und nicht mehr als ±10% des Bildes a in der vertikalen Richtung von Bild b abweichen. Insbesondere wird die Vorlage t, die ein gesuchter Bereich s ist, auf eine Größe von 10% in der vertikalen Richtung und von weniger als 50 (vorzugsweise 40%) in der horizontalen Richtung des Bildes a eingestellt.
  • Ist ein geschätzter Überlappungszustand der Eingangsbilder a und b anders, kann die Einstellung des Suchobjektbereichs zur Extraktion entsprechender Punkte geändert werden.
  • Der in 7B gezeigte Bereich S ist der Suchobjektbereich S, der entsprechend der Vorlage t in 7A eingestellt wird. Die Extrahiereinheit 1 identifiziert einen Entsprechungspunkt in Schritt S3. Insbesondere bewegt die Extrahiereinheit 1 die Vorlage t, die im Bild a innerhalb des Suchobjektbereichs S eingestellt ist, der im Bereich t eingestellt ist, parallel, das heißt, der Bereich s wird im Bereich S bewegt. Die Extrahiereinheit 1 berechnet dann eine Summe von Absolutwerten der Differenz zwischen allen in der Suchvorlage t enthaltenen Bilddaten und allen im Bereich s enthaltenen Bilddaten. Die Extrahiereinheit 1 bestimmt eine Position im Bild b mit der minimalen Summe ΣD der Absolutwerte der Differenzen als Entsprechungspunkt der Vorlage t.
  • In Schritt S4 bestimmt die Entsprechungspunktextrahiereinheit 1 die Zuverlässigkeit des Ergebnisses der in Schritt S3 erfassten Entsprechungspunkte. Die Bestimmung der Zuverlässigkeit wird auf der Grundlage des minimalen Werts ΣD1 min und des zweiten minimalen Werts ΣD1 min der Summe FD der Absolutwerte der Differenzen durchgeführt. Das heißt, unter der Annahme, dass Th1 und Th2 die jeweiligen vorbestimmten Schwellenwerte sind, wird der erfasste Entsprechungspunkt als zuverlässig bestimmt, wenn die folgenden Gleichungen erfüllt sind. ΣD1 min ≤ Th1 (1) ΣD1 min – ΣD1 min ≥ Th2 (2)
  • Dann speichert die Entsprechungspunktextrahiereinheit 1 die Koordinaten der Entsprechungspunkte für die Bilder a und b jeweils in einem Speicher (nicht gezeigt).
  • Zur Erfassung der Positionen der Entsprechungspunkte kann die Extrahiereinheit 1 neben dem vorstehenden Verfahren, bei dem die Position mit der minimalen Summe ΣD der Absolutwerte der Differenzen als Entsprechungspunkt bestimmt wird, eine Korrelation berechnen und eine Position mit dem größten Korrelationswert als Entsprechungspunkt bestimmen.
  • Außerdem kann die Entsprechungsposition von einem Benutzer bestimmt werden. beispielsweise kann ein Benutzer einen zu bestimmenden identischen Punkt in beiden Bildern mit einem Cursor oder dergleichen bestimmen, indem er auf die zwei Bilder a und b Bezug nimmt, die auf einer Anzeige angezeigt werden.
  • Auf diese Weise wird die überlappende Region der Bilder a und b durch wiederholte Durchführung der in 5 beschriebenen Steuerschritte durchgeführt.
  • Bestimmung eines Koordinatenumwandlungsparameters durch die Schätzeinheit 2
  • Die Parameterschätzeinheit 2 schätzt Parameter für eine Koordinatenumwandlung auf der Grundlage der extrahierten Entsprechungspunkte aus der überlappenden Region. Hier ist die Koordinatenumwandlung der Vorgang zum Zusammenfallen lassen der überlappenden Region des Bildes a mit der überlappenden Region des Bildes b. Bei dem ersten Ausführungsbeispiel wird eine Affintransformation angewendet.
  • Es wird angenommen, dass das Bild b um θ° hinsichtlich der Position des Bildes a gedreht wird, um eine Entfernung dx in der Richtung von X und eine Entfernung von dy in der Richtung von Y parallel bewegt wird, und gegenüber dem Bild a m-mal vergrößert wird, wodurch ein willkürlicher Punkt (xa, ya) im Bild a dem Punkt (xb, yb) im Bild b entspricht, der durch die folgende Gleichung (3) definiert ist:
    Figure 00160001
    mit A = m·cosθ B = m·sinθ C = -m·dx D = –m·dy (3)
  • Die Parameterschätzeinheit 2 schätzt die Parameter A, B, C und D unter Anwendung des Verfahrens der kleinsten Quadrate. Zur Schätzung der Parameter unter Verwendung des Verfahrens der kleinsten Quadrate sind zumindest zwei Paare von Entsprechungspunkten erforderlich.
  • Wurde lediglich ein Paar von Entsprechungspunkten gefunden, kann die Schätzeinheit 2 die Übereinstimmungsverarbeitung nicht durchführen, da die Rotationskomponente θ nicht bestimmt werden kann. In diesem Fall nimmt die Schätzeinheit 2 θ = 0 und m = 1 an, was bewirkt, dass das Bild nicht gedreht wird. Das heißt, A und B werden jeweils auf 1 und 0 gesetzt. Unter der Annahme, dass die Entsprechungspunktvektoren mit (ax, ay) bezeichnet werden, gibt die Einheit 2 somit die folgenden Parameter aus: A = 1(= cos0), B = 0(= sin0) C = – ax, D = – ay (4)
  • Im Fall, dass keine Entsprechungspunkte erhalten werden, wird die folgende Verarbeitung nicht durchgeführt; stattdessen wird beispielsweise eine Nachricht oder dergleichen zu einer Katodenstrahlröhre CRT ausgegeben und die Verarbeitung wird beendet. Die auf die vorstehend beschriebene Art und Weise erhaltenen Parameter werden verwendet, wenn eine überlappende Region geschätzt wird.
  • Tonumwandlung
  • Zur Erzeugung eines kombinierten Bildes, dessen Grenze der Bilder nicht auffällt, führen die Tonumwandlungseinheiten 4 und 5 bei den eingegebenen Bildern a und b jeweils eine Tonumwandlung durch, sodass die Helligkeit und Tönung der Farben (R, G und B) in der überlappenden Region der zwei Bilder gleich sind. Die Korrekturkoeffizientenbestimmungseinheit 3 bestimmt Korrekturkoeffizienten für die Tonumwandlungsverarbeitung.
  • Dabei wird bei dem Ausführungsbeispiel die Tonumwandlung bei Helligkeitskomponenten durchgeführt. Verwendet das Ausführungsbeispiel Farbbilder, kann eine Tonkorrektur bei jeder Farbe (R, G und B) durchgeführt werden. Insbesondere wird eine Tonumwandlung unter Verwendung einer individuellen Tonkorrekturfunktion jeweils bei den R-, Gund B-Bildern durchgeführt.
  • 8 zeigt den durch die Korrekturkoeffizientenbestimmungseinheit 3 und die Tonumwandlungseinheiten 4 und 5 durchgeführten Verarbeitungsalgorithmus. Die Korrekturkoeffizientenbestimmungseinheit 3 erhält durch die Schätzeinheit 2 für die Koordinatenumwandlung geschätzte Parameter A, B, C und D und die Bilder a und b. Die Tonumwandlungseinheiten 4 und 5 erhalten jeweils die Bilder a und b.
  • In Schritt S11 in 8 bestimmt die Korrekturkoeffizientenbestimmungseinheit 3, ob sich ein Bildelement der Eingangsbilder a und b in der überlappenden Region befindet oder nicht. Für diese Bestimmung werden Koordinatenwerte jedes Bildelements in den eingegebenen Bildern der Affintransformation gemäß Gleichung (3) unter Verwendung der Parameter A, B, C und D unterzogen. Dann wird bestimmt, ob die Koordinatenwerte, bei denen die Affintransformation durchgeführt wurde, sich innerhalb des Bereichs befinden oder nicht, der als die überlappende Region des Bildes b bestimmt ist.
  • Als nächstes nimmt die Korrekturkoeffizientenbestimmungseinheit 3 in Schritt S12 in 8 Abtastwerte von Bilddaten für alle oder eine vorbestimmte Anzahl von Bildelementen, die als in der überlappenden Region enthalten bestimmt sind. So wird angenommen, dass eine Anzahl N von Abtastbildelementen erhalten wird. Das heißt, es werden Bildelementwerte Pa(k) und Pb(k)(k = 1 bis N) erhalten. Die folgende Gleichung (5) kann erhalten werden, wenn die Affintransformation in Gleichungen (3) einfach durch die Matrix H ausgedrückt wird: S(Pb(x', y')) = Pa(x, y) (5)
  • Pa(x, y) stellt einen Bildelementwert an einer (x, y) Koordinatenposition dar, die der Affintransformation nicht unterzogen wird. Pb(x', y') stellt einen Bildelementwert an einer (x, y) Koordinatenposition dar, die dem Ort (x', y') entspricht, der der Affintransformation unterzogen wurde. S in der Gleichung (5) stellt eine Funktion dar, die eine Tonumwandlungsverarbeitung bei Bildelementen durchführt, die von der vorstehenden Koordinatentransformation begleitet wird. Die Tonumwandlungsverarbeitung wird nachstehend näher beschrieben.
  • Die Korrekturkoeffizientenbestimmungseinheit 3 kann die Abtastung von Bildelementwerten bildelementweise oder für willkürliche Bildelemente durchführen. Des Weiteren kann die Korrekturkoeffizientenbestimmungseinheit 3 aus Abtastdaten einen Durchschnittswert der benachbarten Bildelementwerte beruhend auf den Koordinaten der Entsprechungspunkte verwenden, die durch die Verwendung der Parameter erhalten werden.
  • Die Korrekturkoeffizientenbestimmungseinheit 3 erhält dann Tonkorrekturkoeffizienten in Schritt S13 in 8 auf der Grundlage der Abtastdaten Pa(k) und Pb(k).
  • 9 zeigt das Verfahren zur Berechnung der Tonkorrekturkoeffizienten in Kürze.
  • In 9 gibt die Abszisse einen Dichtewert bzw. Helligkeitswert der Abtastbildelementdaten Pb(k) des Bildes b und die Ordinate einen Helligkeitswert der Abtastbildelementdaten Pa(k) des Bildes a an. In Schritt S13 in 8 erzeugt die Korrekturkoeffizientenbestimmungseinheit 3 eine Umwandlungsfunktion (Funktion f900 in 9) auf der Grundlage der vorstehenden Abtastdaten, damit der Bildelementhelligkeitswert eines Bildes (beispielsweise des Bildes a) dem Bildelementhelligkeitswert des anderen Bildes (beispielsweise des Bildes b) entspricht.
  • Experimentell gesagt haben Helligkeitswerte der Bilder a und b eine Verteilung ähnlich einer quadratischen Funktion. Zur Umwandlung eines Bildelementwerts in der überlappenden Region des Bildes b in einen Bildelementwert in der überlappenden Region des Bildes a wird somit die folgende quadratische Funktion angewendet. F(Pb) = Tb1 × Pb 2 + Tb 2 × Pb + Tb3 (6)wobei Tb1, Tb2 und Tb3 Koeffizienten sind.
  • In Schritt S13 in 8 erhält die Korrekturkoeffizientenbestimmungseinheit 3 die Koeffizienten Tb1, Tb2 und Tb3 zur Erzeugung von f(Pb) in Gleichung (6). Zum Erhalten dieser Werte berechnet die Korrekturkoeffizientenbestimmungseinheit 3 Tb1, Tb2 und Tb3, die eine Bewertungsfunktion ε minimieren, die durch die folgende Gleichung ausgedrückt ist: ε = Σ{Pa(k) – (Tb1 × P2 b(k) + Tb2 × Pb(k) + Tb3)} (7)
  • Die Korrekturkoeffizientenbestimmungseinheit 3 führt den Tonumwandlungseinheiten 4 und 5 die berechneten Koeffizienten Tb1, Tb2 und Tb3 zu. Da die Korrekturkoeffizientenbestimmungseinheit 3 die Koeffizienten zum Übereinstimmen der Bildelementwerte des Bildes mit den Bildelementwerten des Bildes a gemäß dem ersten Ausführungsbeispiel berechnet, sind die Tonkorrekturkoeffizienten Tb1, Tb2 und Tb3 für das Bild a jeweils Ta1 = 0, Ta2 = 1 und Ta3 = 0.
  • Als nächstes wandeln die Tonumwandlungseinheiten 4 und 5 Bildelementwerte jedes Bildes a und b entsprechend den Tonkorrekturkoeffizienten Tb1, Tb2 und Tb3 in Schritt S14 in 8 um. Im Folgenden wird die durch die Tonumwandlungseinheit 5 durchgeführte Verarbeitung beschrieben.
  • Die Tonumwandlungseinheit 5 wandelt Töne des Bildes b in Töne des Bildes a um. Die Tonumwandlungseinheit 5 erzeugt eine Tabelle zur Umwandlung der Töne des Bildes b in Töne des Bildes a auf der Grundlage der Tonkorrekturkoeffizient Tb1, Tb2 und Tb3. Beträgt der dynamische Bereich des Bildes 8 Bits, haben Bildelementwerte 0 bis 255 des Bildes b die Werte f(0) bis f(255) im Raum des Bildes entsprechend der quadratischen Funktion f(Pb) in der Gleichung (6). Beispiele von f(0) bis f(255) in einer Umwandlungstabelle 910 sind in 10 gezeigt.
  • Obwohl die Tonumwandlungseinheit 4 die Helligkeitswerte des Bildes a in Helligkeitswerte im Raum des Bildes b umwandeln kann, müssen Bildelementwerte des Bildes a gemäß dem ersten Ausführungsbeispiel nicht umgewandelt werden; somit gilt f(Pa) = Pa. Daher wandelt die Umwandlungstabelle in der Tonumwandlungseinheit 4 die Bildelementwerte 0 bis 255 in Bildelementwerte 0 bis 255 um, das heißt, es wird keine Umwandlung durchgeführt.
  • Im Fall eines Farbbildes ist es von Vorteil, die Tonumwandlung durch Erzeugung einer Umwandlungsfunktion durchzuführen, die gemeinsam von R, G und B verwendet wird. Die Tonumwandlungsfunktionen der jeweiligen Farben können so vorgesehen werden, dass die Farbübereinstimmung verbessert werden kann.
  • Obwohl die quadratische Funktion als Umwandlungsfunktion bei dem ersten Ausführungsbeispiel verwendet wird, ist es möglich, eine andere Form einer Funktion zu verwenden. Natürlich ist es auch möglich, die Tonumwandlung unter Verwendung einer nichtlinearen Tabelle durchzuführen.
  • Kombinieren von Bildern
  • Die Bildkombinationseinheit 6 erzeugt ein einzelnes kombiniertes Bild auf der Grundlage der Eingangsbilder und der Bilder, bei denen die Tonkorrektur jeweils durch die Tonumwandlungseinheiten 4 und 5 durchgeführt wurden.
  • Die Bildkombinationseinheit 6 erzeugt ein kombiniertes Bild b entsprechend einem in 11 gezeigten Algorithmus.
  • In Schritt S21 stellt die Bildkombinationseinheit 6 einen Bildbereich für das kombinierte Bild c ein.
  • Der durch die gestrichelten Linien in 12 angegebene Bereich bezeichnet den Bereich für das kombinierte Bild, der auf der Grundlage eines Koordinatensystems des Eingangsbildes a eingestellt wurde. Da die Beschreibung des ersten Ausführungsbeispiels auf den Koordinaten des Eingangsbildes a beruht, wird für eine einfache Beschreibung angenommen, dass die Ober- und Unterseite des Bildes a parallel zur Koordinatenachse X verlaufen.
  • Die Bildkombinationseinheit 6 lässt zuerst das linke Ende des kombinierten Bildes c mit dem linken Ende des Bildes a zusammenfallen. Die Bildkombinationseinheit 6 wandelt eine Position des Bildelementes (100) am oberen rechten Ende des Bildes b und eine Position des Bildelements (101) am unteren rechten Ende des Bildes b jeweils in Positionen im Koordinatensystem des Bildes a um. Dann lässt die Bildkombinationseinheit 6 das rechte Ende des kombinierten Bildes c mit einer Position mit einem größeren Koordinatenwert unter den umgewandelten zwei Positionen zusammenfallen. Da in 12 das untere rechte Ende 101 einen größeren Koordinatenwert hat, passt die Bildkombinationseinheit 6 das rechte Ende des kombinierten Bildes c mit dem unteren rechten Ende 101 zusammen.
  • Für den Vorgang der Umwandlung eines Koordinatenwerts des Bildes b in einen Koordinatenwert des Bildes a zum Erhalten einer Position mit größeren Koordinaten verwendet die Bildkombinationseinheit die inverse Transformation der Affintransformation, wie in Gleichung (8) gezeigt. Xa = A'·xb + B'yb + C' Ya = – B'·xb + A'·yb + D'mit A' = A/(A2 + B2 ) B' = –B/(A2 + B2) C' = (–A·C + B·D)/(A2 + B2) D' = (–B·C – A·D)/(A2 + B2) (8)
  • Hier sind A', B', C' und D' Parameter der inversen Transformation.
  • Gleichermaßen (siehe 12) wird das obere Ende des kombinierten Bildes c auf folgende Weise bestimmt. Insbesondere werden die Position des Bildelements (100) am oberen rechten Ende des Bildes b und die Position des Bildelements (103) am unteren linken Ende jeweils in Positionen im Koordinatensystem des Bildes a umgewandelt. Die Bildkombinationseinheit 6 lässt das untere Ende des kombinierten Bildes c mit einer Position mit dem kleinsten Koordinatenwert unter den zwei umgewandelten Positionen und der Position des Bildelements (102) am oberen linke Ende des Bildes a zusammenfallen. Des Weiteren lässt die Bildkombinationseinheit 6 das untere Ende des kombinierten Bildes c mit einer Position mit einem größeren Koordinatenwert unter der Position des Bildelements (101) am unteren rechten Ende und der Position des Bildelements (105) am unteren linke Ende des Bildes b zusammenfallen.
  • Der in 12 gezeigte kombinierte Bildbereich c wird in vorstehend beschriebener Weise bestimmt.
  • In Schritt S22 in 11 stellt die Bildkombinationseinheit 6 eine Grenze der Bilder so ein, dass die Grenze sich im Zentrum der überlappenden Region befindet. Da die Bilder a und b in dem ersten Ausführungsbeispiel Seite an Seite angeordnet sind, ist die grenze L, die im Zentrum eingestellt wurde, durch gestrichelte Linien L in 12 gezeigt. Zur genaueren Beschreibung ist die Grenze L parallel zur vertikalen Koordinatenachse eingestellt. In der horizontalen Richtung ist die Grenze L so eingestellt, dass die zwei Bilder am Schwerpunkt zwischen den Koordinaten des Bildelements 106 am unteren rechten Ende des Bildes a und einem kleineren Koordinatenwert der zwei Bildelemente 103 oder 105 kombiniert werden, die sich jeweils am oberen linken Ende und unteren linken Ende des Bildes b befinden, die jeweils in Bildelementpositionen im Koordinatensystem des Bildes a umgewandelt wurden.
  • In Schritt S23 führt die Bildkombinationseinheit 6 wiederholt die Verarbeitung in den Schritten S24 und S25 bei dem Bereich für das kombinierte Bild c durch, der in Schritt 521 eingestellt wird.
  • Aufgabe der Erfindung ist die Erzeugung eines kombinierten Bildes, dessen Helligkeitsunterschied an der Grenze der Bilder nicht auffällt. Diese Aufgabe wird teilweise durch die Tonkorrektur in Schritt S14 in 8 gelöst. Allerdings wird die in Schritt S14 durchgeführte Tonumwandlung für jedes Eingangsbild a und b unabhängig durchgeführt, und minimiert daher nicht immer den Helligkeitsunterschied nahe der Grenze der Bilder in der überlappenden Region. Die in den Schritten S24 und S25 durchgeführte Verarbeitung glättet den Helligkeitsunterschied nahe der Grenze der Bilder in der überlappenden Region noch weiter.
  • Wie es in 13 gezeigt ist, wird ein Tonumwandlungsbereich 150 mit einer vorbestimmten Breite 2W in den Schritten S24 und S25 in 11 eingestellt, wobei die Grenze L der Bilder in seinem Zentrum liegt. Das heißt, der Tonumwandlungsbereich 150 ist ein rechteckiger Bereich jeweils mit einer Breite W links und rechts von der Grenze L.
  • In Schritt S24 schreibt die Bildkombinationseinheit Bildelementwerte der Bildelemente des Bildes a in den entsprechenden Bereich des kombinierten Bildbereichs c. Hinsichtlich solcher in einem Bereich 140a des Bildes a in 13 enthaltener Bildelemente, die aber nicht im Tonumwanclungsbereich 150 enthalten sind, schreibt die Bildkombinationseinheit 6 die Bildelementwerte des ursprünglichen Bildes a. Hinsichtlich eines Bildelements Pa im Bild a, das im Tonumwandlungsbereich 150 enthalten ist, bestimmt die Bildkombinationseinheit 6 einen Tonumwandlungswert P'a dementsprechend wie weit (dxa) das Bildelement Pa von der Grenze L entfernt ist. Der Tonumwandlungswert P'a wird durch die folgende Gleichung bestimmt, wobei eine Funktion f verwendet wird, die in der vorstehend beschriebenen in der Tonumwandlungseinheit 4 gespeicherten Umwandlungstabelle (10) definiert ist.
  • Figure 00260001
  • Gemäß Gleichung (9) wird der Tonumwandlungswert P'a durch Addieren eines Korrekturterms
    Figure 00260002
    entsprechend einer Entfernung dxa zum Wert f(Pa) erhalten, der entsprechend einer Funktion f in der Umwandlungstabelle korrigiert wurde.
  • Da die Tonumwandlungseinheit wie vorstehend beschrieben den Ton des Bildes b mit dem des Bildes a gemäß dem ersten Ausführungsbeispiel entsprechend macht, ist f = 1.
  • Dementsprechend ist Gleichung (9) durch die folgende Gleichung ausgedrückt: P'a = Pa (10)
  • In Schritt S25 schreibt die Bildkombinationseinheit 6 gleichermaßen Bildelementwerte hinsichtlich des Bereichs des Bildes b. Das heißt, bezüglich solcher in einem Bereich 140b des Bildes b in 13 enthaltener Bildelemente, die aber nicht im Tonumwandlungsbereich 150 enthalten sind, schreibt die Bildkombinationseinheit 6 den Bildelementwert des ursprünglichen Bildes b. Bezüglich eines Bildelementes Pb in Bild b, das im Tonumwandlungsbereich 150 enthalten ist, bestimmt die Bildkombinationseinheit 6 einen Tonumwandlungswert P'b dementsprechend, wie weit (dxb) das Bildelement Pb von der Grenze L entfernt ist. Der Tonumwandlungswert P'b wird durch die folgende Gleichung unter Verwendung einer Funktion f' bestimmt, die in der in der Tonumwandlungseinheit 5 gespeicherten Umwandlungstabelle definiert ist.
  • Figure 00270001
  • 14 zeigt das auf die vorstehend beschriebene Art und Weise erhaltene kombinierte Bild c.
  • Ein durch die Schraffierung in 14 angegebener Leerbereich 160 ist eine Region, in die weder Bildelemente des Bildes a noch des Bildes geschrieben sind. Im Leerbereich 160 wird ein Leerbildelement (beispielsweise ein weißes Bildelement oder dergleichen) geschrieben.
  • 15 zeigt die Veränderung von Bildelementen an einer willkürlichen Geraden H im kombinierten Bild c aus 14. In der grafischen Darstellung in 15 stellt der Abfall 170 des Bildelementwerts Pa ein dunkles Subjekt dar; und der Anstieg 171 des Bildelementwerts Pb stellt ein helles Subjekt dar.
  • Die Varianz im Grafen aus 15 wird nachstehend beschrieben. Da die Bildelementwerte des Bildes a in dem kombinierten Bildbereich c gemäß dem ersten Ausführungsbeispiel ohne Verarbeitung geschrieben werden, sind die Bildelementwerte auf der linken Seite der Grenze L die Bildelementwerte des ursprünglichen Bildes a. Das heißt, wie durch Gleichung (10) ausgedrückt, sind die Bildelementwerte auf der linken Seite der Grenze L nicht umgewandelt, obwohl sich die Bildelemente im Tonumwandlungsbereich 150 befinden.
  • Unterdessen wäre hinsichtlich der Bildelementwerte auf der rechten Seite der Grenze L eine bei jedem Bildelement durchgeführte Tonumwandlung unabhängig davon unterschiedlich, ob das Bildelement im Tonumwandlungsbereich 150R (Weite W) liegt. Insbesondere wird hinsichtlich eines Bildelementwerts 133 im Tonumwandlungsbereich 150R der Bildelementwert durch die Gleichung (11) derart umgewandelt, dass sich der Wert allmählich vom Bildelementwert 131 des ursprünglichen Bildes b in den Bildelementwert 132 ändert, der entsprechend der Korrekturtabelle (Funktion f') umgewandelt ist, die in der Tonumwandlungseinheit 5 gespeichert ist.
  • Im Bereich außerhalb des Tonumwandlungsbereichs 150R werden Bildelementwerte des ursprünglichen Bildes b geschrieben.
  • Gemäß der vorstehenden Beschreibung führt die Bildkombinationseinheit 6 das Schreiben von Bildelementwerten für den Bereich des Bildes a separat vom Bereich des Bildes b durch, wobei der kombinierte Bildbereich durch die Grenze L geteilt ist. Allerdings kann eine Vielzahl von Bereichen in der überlappenden Region des Bildes (150L und 150R) eingestellt werden, und Gewichte können zu den Bildelementwerten jedes Bildes in jedem der Vielzahl der Bereich zur Erzeugung von Bildelementwerten eines kombinierten Bildes hinzugefügt werden.
  • Das durch die vorstehende Verarbeitung erzeugte kombinierte Bild c wird zu einem Drucker oder dergleichen ausgegeben.
  • (Modifikation des ersten Ausführungsbeispiels)
  • Erstes modifiziertes Ausführungsbeispiel
  • Nachstehend ist eine Modifikation des ersten Ausführungsbeispiels (erstes modifiziertes Ausführungsbeispiel) beschrieben.
  • Eine Bildkombinationseinheit gemäß dem ersten modifizierten Ausführungsbeispiel hat den gleichen Aufbau wie die des ersten Ausführungsbeispiels in 4. Allerdings unterscheiden sich die Funktionen und die Verarbeitung der Korrekturkoeffizientenbestimmungseinheit 3 und der Bildkombinationseinheit 6 von denen des ersten Ausführungsbeispiels. Die Verarbeitung wird nachstehend beschrieben. Die Korrekturkoeffizientenbestimmungseinheit 3 gemäß dem ersten modifizierten Ausführungsbeispiel bestimmt im Tonumwandlungsbereich 150 enthaltene Bildelementwerte auf der Grundlage von Bildelementwerten in der überlappenden Region der Eingangsbilder a und b. Das Verfahren der Bestimmung wird unter Bezugnahme auf 16 beschrieben.
  • Wie bei dem ersten Ausführungsbeispiel erzeugt die Korrekturkoeffizientenbestimmungseinheit 3 Abtastdaten Pa(k) und Pb(k) von Entsprechungspunkten auf der Grundlage der Bildelementwerte (siehe 16), die in der überlappenden Region der Bilder a und b enthalten sind. Bei der Erzeugung der Abtastdaten berechnet die Korrekturkoeffizientenbestimmungseinheit 3 einen Durchschnittswert dPavg der Differenz dP in jedem Paar der Entsprechungspunkte und führt den Durchschnittswert dPavg der Bildkombinationseinheit 6 zu. In 16 bezeichnet das Bezugszeichen Y eine laterale Breite des Bildes a. Das Bild b hat die gleiche laterale Breite Y.
  • Unter der Annahme, dass der dynamische Bereich eines Bildelementwerts 8 Bits beträgt, stellt die Bildkombinationseinheit 6 den Tonumwandlungsbereich 2W auf der Grundlage von Pavg durch die folgende Gleichung ein:
    Figure 00300001
    dPavg in Gleichung (12) bezeichnet die Tondifferenz zwischen jedem Paar entsprechender Punkte in der überlappenden Region der Bilder mit einem maximalem Wert von 255 und einem minimalen Wert 0. Ist der Unterschied der Tonstufen groß, wird gemäß Gleichung (12) die Breite 2W im Tonumwandlungsbereich groß; und ist der Unterschied der Tonstufen klein, wird die Breite 2W klein.
  • Vorstehend wurde das Verfahren der Bestimmung des Tonumwandlungsbereichs gemäß dem ersten modifizierten Ausführungsbeispiel beschrieben, insbesondere das Verfahren der Bestimmung einer Breite des Tonumwandlungsbereichs entsprechend dem Unterschied in Tonstufen in einem Fall, in dem Töne des Bildes a von Tönen des Bildes b in der Überlappungsregion verschieden sind.
  • Gemäß dem ersten modifizierten Ausführungsbeispiel wird ein kombiniertes Bild auf die gleiche Weise wie bei dem ersten Ausführungsbeispiel erzeugt.
  • Da bei dem ersten modifizierten Ausführungsbeispiel der Tonumwandlungsbereich geeignet entsprechend dem Unterschied in Tonstufen in der Überlappungsregion der Bilder eingestellt werden kann, ist es möglich, eine glatte Tonkorrektur durchzuführen, die für ein eingegebenes Bild geeignet ist.
  • Modifikation des ersten Ausführungsbeispiels
  • Zweites modifiziertes Ausführungsbeispiel
  • Der Aufbau einer Bildkombinationsvorrichtung gemäß dem zweiten modifizierten Ausführungsbeispiel ist mit dem des ersten Ausführungsbeispiels (4) identisch. Da das Verfahren der Tonkorrektur alleine sich von dem des ersten Ausführungsbeispiels unterscheidet, wird das Verfahren nachstehend beschrieben.
  • Die Bildkombinationsvorrichtung gemäß dem zweiten modifizierten Ausführungsbeispiel extrahiert Abtastdaten auf der Grundlage von Bildelementwerten in der überlappenden Region der eingegebenen Bilder a und b. Dieser Vorgang ist mit dem des ersten Ausführungsbeispiels identisch. Die Korrelation zwischen einem Paar von Bildelementwerten Pa und Pb, die als Abtastdaten extrahiert werden, wird entsprechend dem in 9 gezeigten Verfahren bestimmt.
  • Bei dem ersten Ausführungsbeispiel wird die Umwandlungsfunktion f900 (9) zum Zusammenfallen von Tönen des Bildes b mit Tönen des Bildes a auf der Grundlage der Beziehung jedes Abtastdatenwerts unter Verwendung des Verfahrens der kleinsten Quadrate erzeugt. Dementsprechend wird bei dem ersten Ausführungsbeispiel die Umwandlung von Bildelementwerten, die zur Tonkorrektur durchgeführt wird, lediglich bei dem Bild b ausgeführt. Bei dem zweiten modifizierten Ausführungsbeispiel wird eine Tonkorrektur bei Bildelementwerten Pa und Pb jedes Bildes ausgeführt.
  • Das heißt, die Korrekturkoeffizientenbestimmungseinheit 3 gemäß dem zweiten modifizierten Ausführungsbeispiel erzeugt eine Umwandlungsfunktion f ähnlich wie bei dem im ersten Ausführungsbeispiel bezüglich 9 beschriebenen Verfahren und führt den Tonumwandlungseinheiten 4 und 5 Tonkorrekturkoeffizienten (Tb1, Tb2 und Tb3) zu, die die Funktion f vorschreiben. Die Umwandlungsfunktion f dient dem Zusammenfallenlassen von Bildelementwerten des Bildes b mit Bildelementwerten des Bildes a wie beim ersten Ausführungsbeispiel.
  • Die Tonumwandlungseinheit 5 zur Umwandlung des eingegebenen Bildes b führt eine Tonumwandlung unter Verwendung der Umwandlungsfunktion f auf der Grundlage der Bildelementwerte des Bildes b durch. Die Tonumwandlung wird durch die Gleichung (13) ausgeführt, wobei Pb einen Bildelementwert des ursprünglichen Bildes b und f(Pb) einen Bildelementwert bezeichnet, der durch die Umwandlungsfunktion umgewandelt ist.
  • Figure 00330001
  • Das heißt, die Bildkombinationsvorrichtung gemäß dem zweiten modifizierten Ausführungsbeispiel führt eine Tonumwandlung bei dem eingegebenen Bild b durch die Verwendung eines Durchschnittswerts des ursprünglichen Bildelementwerts Pb und des Bildelementwerts f(Pb) durch, der durch die Umwandlungsfunktion f erhalten wird.
  • Währenddessen führt die Tonumwandlungseinheit 4 eine Tonumwandlung entsprechend der folgenden Gleichung (14) durch:
    Figure 00330002
    wobei Pa ein Bildelementwert des ursprünglichen Bildes a ist.
  • 17 zeigt in Kürze den Vorgangs der bei dem Bild b entsprechend der Gleichung (14) durchgeführten Tonumwandlung. Wie es in 17 gezeigt ist, bezeichnet {f(Pb) – Pb} einen Verschiebungs-Betrag zwischen der Umwandlungsfunktion f(Pb) und dem ursprünglichen Bildelementwert Pb. Gleichung (14) drückt aus, dass die Tonumwandlung durch Hinzufügen/Subtrahieren der Hälfte des Werts von {f(Pb) – Pb} zu/von den Bildern a und b durchgeführt wird. Mittels dieser Berechnung ändern sich Bildelementwerte jedes Bildes allmählich, wodurch eine glatte Tonkorrektur realisiert wird.
  • Die durch jede der Tonumwandlungseinheiten 4 und 5 umgewandelten Bildelementwerte werden in der Form einer Tabelle wie in 10 gezeigt wie bei dem ersten Ausführungsbeispiel aufbewahrt.
  • Bei dem zweiten modifizierten Ausführungsbeispiel führt die Bildkombinationseinheit 6 ein Schreiben von Bildelementwerten in das kombinierte Bild c wie bei dem ersten Ausführungsbeispiel durch.
  • 18 zeigt eine Schwankung der Bildelementwerte auf der Geraden H in 14 bezüglich des durch das zweite modifizierte Ausführungsbeispiel kombinierten Bildes. Aus dem Graf ist ersichtlich, dass Bildelementwerte jedes Bildes sich allmählich ändern, wodurch eine glatte Tonkorrektur realisiert werde kann.
  • Zweites Ausführungsbeispiel
  • 19 zeigt ein Blockschaltbild des Aufbaus einer Bildkombiniervorrichtung 210 und des Arbeitsablaufs bei einem eingegebenen Bild gemäß dem zweiten Ausführungsbeispiel.
  • Gemäß 19 umfasst die Bildkombiniervorrichtung 210 hauptsächlich Eingabeanschlüsse 210a oder 210b, eine Entsprechungspunktextrahiereinheit 220, die entsprechende Punkte aus zwei eingegebenen Bildern extrahiert, eine Entsprechungspunktauswahleinheit 225, die falsch als entsprechende Punkte erfasste Komponenten aus einem Satz entsprechender Punkte beseitigt, die durch die Entsprechungspunktextrahiereinheit 220 extrahiert wurden, und die lediglich die korrekten Entsprechungspunkte auswählt, eine Parameterschätzeinheit 240, die Parameter zum Kombinieren von Bildern schätzt, eine Korrekturkoeffizientenbestimmungseinheit 230, die Koeffizienten für eine Tonkorrektur des Bildes bestimmt, Tonumwandlungseinheiten 231 und 232, die jeweils Töne eingegebener Bilder a und b korrigieren, und eine Bildkombiniereinheit 250, die zwei Bilder kombiniert, bei denen eine Tonumwandlung durchgeführt wurde.
  • Die Bilder a und b werden jeweils in die Eingabeanschlüsse 210a und 210b eingegeben. Die eingegebenen Bilder a und b werden durch eine elektronische Stehbildkamera oder eine Videokamera oder dergleichen auf eine Art und Weise aufgenommen, dass beide Bilder teilweise eine überlappende Region mit dem gleichen Bild enthalten. Wie bei dem ersten Ausführungsbeispiel sind die Belichtungsbedingungen zum Zeitpunkt der Bildaufnahme für die zwei Bilder verschieden.
  • Jeder Eingabeanschluss 210a und 210b ist mit der Entsprechungspunktextrahiereinheit 220, der Korrekturkoeffizientenbestimmungseinheit 230 und den Tonumwandlungseinheiten 231 und 323 verbunden. Die eingegebenen Bilder a und b werden zur Entsprechungspunktextrahiereinheit 220 geführt, wo entsprechende Punkte aus jedem Bild a und b extrahiert werden.
  • Die Entsprechungspunktextrahiereinheit 220 ist mit der Entsprechungspunktauswahleinheit 225 und der Parameterschätzeinheit 240 verbunden. Die durch die Entsprechungspunktextrahiereinheit 220 extrahierten entsprechenden Punkte werden zur Entsprechungspunktauswahleinheit 225 und Parameterschätzeinheit 240 geführt. Die Entsprechungspunktauswahleinheit 225 und Parameterschätzeinheit 240 sind interaktiv miteinander verbunden. Auf der Grundlage von durch die Parameterschätzeinheit 240 geschätzten Koordinatenumwandlungsparametern und eines Koordinatenwerts, der die durch die Entsprechungspunktextrahiereinheit 220 extrahierten entsprechenden Punkte angibt, entfernt die Entsprechungspunktauswahleinheit 225 Komponenten, die falsch als entsprechende Punkte erfasst wurden, aus den durch die Entsprechungspunktextrahiereinheit 220 extrahierten Entsprechungspunkten und sendet das Ergebnis zur Parameterschätzeinheit 240. Die Parameterschätzeinheit 240 schätzt Parameter für eine Bildumwandlung auf der Grundlage des Ergebnisses, aus dem falsche entsprechende Punkte beseitigt sind.
  • Die Parameterschätzeinheit 240 ist mit der Korrekturkoeffizientenbestimmungseinheit 230 und der Bildkombiniereinheit 250 verbunden. Die durch die Parameterschätzeinheit 240 geschätzten Bildumwandlungsparameter werden zur Korrekturkoeffizientenbestimmungseinheit 230 und zur Bildkombiniereinheit 250 geleitet.
  • Die Korrekturkoeffizientenbestimmungseinheit 230, die durch die Eingabeanschlüsse 210a und 210b eingegebene Bilder a und b und durch die Parameterschätzeinheit 240 geschätzte Bildumwandlungsparameter (A, B, C und D) hält, bestimmt Koeffizienten (Ta und Tb) für eine Tonkorrektur eines Bildes auf der Grundlage des in der Überlappungsregion der Bilder a und b enthaltenen Bildes. Die Korrekturkoeffizientenbestimmungseinheit 230 ist mit den Tonumwandlungseinheiten 231 und 232 verbunden. Die Korrekturkoeffizientenbestimmungseinheit 230 schickt die bestimmten Koeffizienten (Ta und Tb) jeweils zu den Tonumwandlungseinheiten 231 und 232. die Tonumwandlungseinheiten 231 und 232 führen bei jedem Bild a und b eine Tonumwandlung unter Verwendung des von der Korrekturkoeffizientenbestimmungseinheit 230 geschickten Koeffizienten (Tb) durch, sodass in der Überlappungsregion der Bilder a und b die Helligkeit gleich ist.
  • Jede Tonumwandlungseinheit 231 und 232 ist mit der Bildkombiniereinheit 250 verbunden. Die Bildkombiniereinheit 250 wandelt die Bilder a und b, bei denen jeweils durch die Tonumwandlungseinheiten 231 und 232 eine Tonkorrektur durchgeführt wurde, unter Verwendung der durch die Parameterschätzeinheit 240 geschätzten Parameter um und kombiniert die zwei Bilder in ein einzelnes Bild.
  • Bei der vorstehenden Anordnung steuert die Steuereinheit 270 die gesamte Bildkombiniervorrichtung.
  • Wie nachstehend beschrieben unterscheidet sich das zweite Ausführungsbeispiel weitgehend vom ersten Ausführungsbeispiel durch die Aufnahme der Entsprechungspunktauswahleinheit 225.
  • Nachstehend wird die Arbeitsweise der Bildkombiniervorrichtung 210 für einen Fall beschrieben, in dem ein kombiniertes Bild c beruhend auf den Bildern a und b erzeugt wird. Bei diesem zweiten Ausführungsbeispiel enthalten die eingegebenen Bilder a und b jeweils Helligkeitsbilddaten mit einer Anzahl N an Tönen.
  • Extrahieren entsprechender Punkte
  • Die eingegebenen zwei Bilder a und b werden zuerst zur Entsprechungspunktextrahiereinheit 220 geschickt, wo entsprechende Punkte extrahiert werden.
  • Der durch die Entsprechungspunktextrahiereinheit 220 durchgeführte Vorgang zur Extraktion entsprechender Punkte ist im Wesentlichen mit dem durch die Extrahiereinheit 1 bei dem ersten Ausführungsbeispiel durchgeführten Vorgang identisch. Das heißt, die Extrahiereinheit 220 gemäß dem zweiten Ausführungsbeispiel führt im Wesentlichen die gleichen Verarbeitungsschritte wie die Extrahierverarbeitungsschritte gemäß dem ersten Ausführungsbeispiel (5) aus. Das heißt, die Extrahiereinheit 220 extrahiert einen Satz entsprechender Punkte durch die Durchführung einer Vorlagenzusammenpassung.
  • Schätzen von Koordinatenumwandlungsparametern
  • Die Entsprechungspunktextrahiereinheit 220 schickt die extrahierten Entsprechungspunkte zur Parameterschätzeinheit 240 und zur Entsprechungspunktauswahleinheit 225.
  • Die Parameterschätzeinheit 240 schätzt Parameter (A, B, C und D) für eine Koordinatenumwandlung auf der Grundlage der extrahierten Entsprechungspunkte.
  • Das zweite Ausführungsbeispiel erfordert auch eine Koordinatenumwandlung zum Zusammenfallenlassen der überlappenden Region des Bildes a mit der überlappenden Region des Bildes b. Somit wird wie bei dem ersten Ausführungsbeispiel eine Affintransformation angewendet. Dementsprechend bestimmt die Parameterschätzeinheit 240 gemäß dem zweiten Ausführungsbeispiel Parameter A, B, C und D, die bei der durch Gleichung (3) ausgedrückten Affintransformation anzuwenden sind, und gibt das Ergebnis zur Korrekturkoeffizientenbestimmungseinheit 230 aus. Das heißt, die Schätzeinheit 240 gemäß dem zweiten Ausführungsbeispiel ist im Wesentlichen mit der Schätzeinheit 3 gemäß dem ersten Ausführungsbeispiel identisch.
  • Auswählen von Entsprechungspunkten
  • Ein Satz von durch die Entsprechungspunktextrahiereinheit 220 extrahierten Entsprechungspunkten und von durch die Parameterschätzeinheit 240 geschätzten Koordinatenumwandlungsparametern (A, B, C und D) werden in die Entsprechungspunktauswahleinheit 225 eingegeben. Die Entsprechungspunktauswahleinheit 225 entfernt falsch erfasste Entsprechungspunkte aus dem Satz der durch die Entsprechungspunktextrahiereinheit 220 extrahierten Entsprechungspunkte. Mittels dieses Vorgangs werden Entsprechungspunkte, die von der Parameterschätzeinheit 240 zum Schätzen der Bildumwandlungsparameter verwendet werden, auf geeignetere Werte eingeengt. Die durch die Extrahiereinheit 220 zum Extrahieren von Entsprechungspunkten durchgeführte Vorlagenzusammenpassung beinhaltet eine mögliche falsche Erkennung. Daher müssen die Entsprechungspunkte durch ein Verfahren erneut bestätigt werden, dass sich von der Vorlagenzusammenpassung unterscheidet.
  • 20 zeigt die durch die Auswahleinheit 225 durchgeführte Verarbeitung, wobei eine Bestimmung durchgeführt wird, ob Entsprechungspunkte falsch erkannt wurden oder nicht. In 20 wird angenommen, dass ein Satz einer Vielzahl von Paaren von Punkten Pi(x, y) und Qi(x', y') (i = 0, 1,...) ein Satz von Entsprechungspunkten der Bilder a und b ist. Die Entsprechungspunktauswahleinheit 225 verwendet die Affintransformationsparameter A, B, C und D, die durch die Parameterschätzeinheit 240 erhalten werden, um Komponenten falscher Entsprechungspunkte gemäß der folgenden Gleichung zu erfassen. |x' – (A·x + B·y + C)| < Th |y' – (–B·x + A·y + D| < Th (15)
  • In Gleichung (15) geben (A·x + B·y + C) und (–B·x + A·y + D) jeweils Koordinaten (x, y) eines willkürlichen Punkts (der als Entsprechungspunkt geschätzt ist) im Bild a an, bei dem eine Affintransformation durchgeführt wurde. Ist demnach ein Absolutwert der Differenz zwischen den Koordinaten (A·x + B·y + C, –B·x + A·y + D), bei denen eine Affintransformation bezüglich (x, y) durchgeführt wurde, und den Koordinaten (x', y') im Bild b größer als ein Schwellenwert Th (das heißt, ist Gleichung (15) nicht erfüllt), wird das Paar der Entsprechungspunkte Pi(x, y) und Qi(x', y') als falsch erkannt betrachtet.
  • Die Entsprechungspunktauswahleinheit 225 wählt lediglich die Entsprechungspunkte, die Gleichung (15) erfüllen, aus dem Satz der durch die Entsprechungspunktextrahiereinheit 220 erhaltenen Entsprechungspunkte aus.
  • In 20 stellen durch durchgezogene Linien und gestrichelte Linien angegebene Pfeile eine Bewegung von Positionen der Punkte entsprechend der Affintransformation dar. Beispielsweise wird ein durch die durchgezogene Linie angegebenes Paar von Entsprechungspunkten, beispielsweise ein Paar aus den Punkte P0 und Q0 oder ein Paar aus den Punkten P2 und Q2 als Paar der Entsprechungspunkte ausgewählt, da die nach der Affintransformation erhaltene Position und eine als Entsprechungspunkt angenommene Position im Wesentlichen gleich sind. Andererseits weicht ein Paar von Entsprechungspunkten P1 und Q1 oder ein Paar der Entsprechungspunkte P3 und Q3, die durch die Entsprechungspunktextrahiereinheit 220 erhalten werden, um mehr als einen Schwellenwert von den auf der Grundlage der vorstehenden Parameter erhaltenen Koordinaten ab. Diese Entsprechungspunkte werden als falsch erkannte Komponenten beseitigt.
  • Gemäß 19 schickt die Entsprechungspunktauswahleinheit 225 das Ergebnis der Auswahl zur Parameterschätzeinheit 240. Die Parameterschätzeinheit 240 schätzt zum Kombinieren von Bildern unter Verwendung der ausgewählten Entsprechungspunkte verwendete Parameter. Wie vorstehend angeführt werden Parameter zum Kombinieren von Bildern auf der Grundlage der Koordinaten von Entsprechungspunkten geschätzt, aus denen falsche Komponenten beseitigt wurden. Daher kann die Bildkombiniervorrichtung ein genaueres kombiniertes Bild erzeugen.
  • Tonkorrekturverarbeitung
  • Die Parameterschätzeinheit 240 schickt die geschätzten Parameter (A, B, C und D) zur Korrekturkoeffizientenbestimmungseinheit 230. Die Korrekturkoeffizientenbestimmungseinheit 230 bestimmt von den Tonumwandlungseinheiten 231 und 232 für die Tonkorrektur zu verwendende Korrekturkoeffizienten.
  • 21 zeigt ein Ablaufdiagramm der durch die Korrekturkoeffizientenbestimmungseinheit 230 und die Tonumwandlungseinheiten 231 und 232 durchgeführten Tonkorrekturverarbeitung.
  • Zuerst werden Abtastbildelemente aus den Bildern a und b zur Bestimmung der Tonkorrekturkoeffizienten erhalten (Schritt S31).
  • 22 veranschaulicht erhaltene Abtastbildelemente. Die Korrekturkoeffizientenbestimmungseinheit 230 bestimmt zuerst auf der Grundlage der durch die Parameterschätzeinheit 240 geschätzten Bildkombinierparameter (A, B, C und D), ob sich ein Koordinatenwert eines Abtastbildelements Pa1 des Bildes a in der Überlappungsregion befindet oder nicht. Für diese Bestimmung wandelt die Korrekturkoeffizientenbestimmungseinheit 230 die Koordinatenwerte eines Abtastbildelements Pa1 des Bildes a in einen Koordinatenwert des Bildes b durch eine Affintransformation unter Verwendung der Gleichung (3) um und bestimmt, ob der umgewandelte Koordinatenwert im Bild b enthalten ist oder nicht. Wird bestimmt, dass das Abtastbildelement Pa1 sich in der Überlappungsregion der Bilder a und b befindet, wird ein Koordinatenwert, der dem Abtastbildelement Pa1 im Bild b entspricht, als Abtastbildelement Pb1 eingestellt. Die Korrekturkoeffizientenbestimmungseinheit 230 führt die gleiche Verarbeitung bei einer Vielzahl von Abtastbildelementen Pa1 bis Pak (k = 1 bis N) des eingegebenen Bildes a durch, und die erhaltenen Bildelementwerte werden als Abtastbildelemente Pb1 bis Pbk (k = 1 bis N) eingestellt.
  • Wie bei dem ersten Ausführungsbeispiel kann die Korrekturkoeffizientenbestimmungseinheit 230 die Abtastung von Bildelementwerten bildelementweise oder beruhend auf jeder willkürlichen Zahl von Bildelementen durchführen. Des Weiteren kann die Korrekturkoeffizientenbestimmungseinheit 230 als Abtastdaten einen Mittelwert benachbarter Bildelementwerte beruhend auf Koordinaten der Entsprechungspunkte verwenden, die unter Verwendung der Bildkombinierparameter erhalten werden.
  • Gemäß 21 erhält die Korrekturkoeffizientenbestimmungseinheit 230 Tonkorrekturkoeffizienten des Bildes a auf der Grundlage von Abtastbildelementen Pak und Pbk, die auf die vorstehende Art und Weise erhalten werden (Schritt S32). Die Tonkorrekturkoeffizienten werden als Koeffizient einer Tonkorrekturfunktion fa berechnet.
  • Das Verfahren der Durchführung der Tonkorrektur gemäß dem zweiten Ausführungsbeispiel wird unter Bezugnahme auf 23A beschrieben. In 23A bezeichnet die Abszisse Töne eines Bildes vor einer Korrektur und die Ordinate bezeichnet Töne nach der Korrektur.
  • Zuerst werden Mittelwerte Avg(Pa) und Avg(Pb) der Abtastbildelemente Pak und Pbk der Bilder a und b berechnet, und die Differenz D jedes Mittelwerts wird durch folgende Gleichung berechnet: D = Avg(Pa) – Avg(Pb) (16)
  • Dann wird wie in 23A gezeigt eine Korrekturfunktion fa bestimmt, sodass die Töne des Bildes a durch eine quadratische Funktion (Tonkorrekturfunktion) ausgedrückt werden können, die durch drei Punkte läuft (0, 0), (255, 255) und (128, 128 + D/2). Da hier eine willkürliche quadratische Funktion durch drei Parameter definiert werden kann, wird angenommen, dass die Tonkorrekturfunktion fa als Ta1, Ta2 und Ta3 definiert ist. Außerdem wird ein durch die Umwandlung des Abtastbildelementes Pak des Bildes a unter Verwendung der Tonkorrekturfunktion fa erhaltener Wert als fa(Pak) definiert.
  • Gemäß dem Ablaufdiagramm in 21 berechnet die Korrekturkoeffizientenbestimmungseinheit 230 bei der Berechnung der Koeffizienten (Ta1, Ta2 und Ta3) der Tonkorrekturfunktion fa des Bildes a Koeffizienten (Tb1, Tb2 und Tb3) der Tonkorrekturfunktion fb des Bildes b (Schritt S33).
  • Die Tonkorrekturfunktion fb wird zur Verwendung als Funktion zum Zusammenfallenlassen des Abtastbildelementes Pbx mit dem Abtastbildelement fa(Pak) erhalten. Die Koeffizienten (Tb1, Tb2 und Tb3) der Tonkorrekturfunktion fb werden durch das Verfahren der kleinsten Quadrate unter Verwendung der in 23B gezeigten Abtastbildelemente zum Minimieren von e in Gleichung (17) berechnet. ε = {fa(Pak) – (Tb1 × Pbk 2 + Tb2 × Pbk + Tb3)}2 (17)
  • Gemäß der vorstehenden Verarbeitung werden Tonkorrekturfunktionen fa und fb zur Umwandlung von Tönen der Bilder a und b durch die folgende Gleichung (18) erhalten: fa(i) = Ta1·i2 + Ta2·i + Ta3 fb(i) = Tb1·i2 + Tb2·i + Tb3 (18)wobei i die Töne vor der Umwandlung bezeichnet. Die Korrekturkoeffizientenbestimmungseinheit 230 schickt die Tonkorrekturkoeffizienten Ta und Tb jeweils zu den Tonumwandlungseinheiten 231 und 232.
  • Gemäß den Ablaufdiagrammen in 21 wandeln die Tonumwandlungseinheiten 231 und 232 jeweils jeden Bildelementwert der Bilder a und b jeweils unter Verwendung der durch die Korrekturkoeffizientenbestimmungseinheit 230 zugeführten Tonkorrekturkoeffizienten um (Schritt S34).
  • Die Arbeitsweise der Tonumwandlungseinheit 232 ist nachstehend beschrieben. Die Tonumwandlungseinheit 231 führt die gleiche Verarbeitung wie die Tonumwandlungseinheit 232 durch.
  • In der Tonumwandlungseinheit 232 wird eine Tabelle zur Umwandlung von Tönen des Bildes b auf der Grundlage der Tonkorrekturkoeffizienten Tb1, Tb2 und Tb3 erzeugt.
  • Insbesondere wird unter der Annahme, dass der dynamische Bereich des Bildes 8 Bits beträgt, eine in 24 erzeugte Tabelle zur Umwandlung eines Bildelementwertes (0 bis 255) des Bildes b in einen Bildelementwert fb(0) ~ fb(255) entsprechend der quadratischen Funktion in Gleichung (18) erzeugt.
  • Im Fall eines Farbbildes kann die Tonumwandlungseinheit eine Tonumwandlung für jede Farbe R, G und B durchführen. Alternativ dazu kann die Tonumwandlungseinheit eine Tonumwandlung durch die Erzeugung einer Umwandlungsfunktion, die gemeinsam für die Farben R, G und B verwendet wird, entsprechend einem Luminanzsignal durchführen. In diesem Zusammenhang kann die Funktion fa, die die Tönung des Bildes a korrigiert, auf der Grundlage von Bildelementwerten von G-Bildsignalen erzeugt werden. Alle R-, G- und B-Komponenten des Bildes a können durch die Funktion fa umgewandelt werden. Umwandlungsfunktionen fb für R-, G-, B-Farben des Bildes b werden auf solche Weise erzeugt, dass Bildelementwerte jeder Farbkomponente des durch fb umgewandelten Bildes b mit jenen des Bildes a übereinstimmen, die unter Verwendung der Funktion fa umgewandelt wurden.
  • Obwohl die quadratische Funktion bei der vorstehenden Beschreibung angewendet wird, kann eine andere Form einer Funktion verwendet werden. Die Tonumwandlung kann auch unter Verwendung einer nicht-linearen Tabelle durchgeführt werden.
  • Kombinieren von Bildern
  • Die Tonumwandlungseinheiten 231 und 232 schicken die Bilder a und b, bei denen eine Tonumwandlung durchgeführt wurde, zur Bildkombiniereinheit 250, wo die Bilder in ein einzelnes Bild kombiniert werden. Da der Vorgang der Kombination der Bilder mit dem im ersten Ausführungsbeispiel identisch ist (11), wird auf eine ausführliche Beschreibung verzichtet. Wie vorstehend beschrieben werden gemäß der Bildkombiniervorrichtung des zweiten Ausführungsbeispiels falsch erfasste entsprechende Punkte zuerst in einer Überlappungsregion der Bilder a und b, die teilweise dasselbe Objekt umfassen, bestimmt. Dann werden auf der Grundlage eines Ergebnisses der extrahierten Entsprechungspunkte, aus denen die falsch erfassten Entsprechungspunkte beseitigt sind, Parameter (A, B, C und D) zum Kombinieren der Bilder beschrieben. Als nächstes werden für die Tonkorrektur verwendete Abtastbildelemente (Pak und Pbk) erzeugt, indem die Bildkombinierparameter verwendet werden, und ein Tonkorrekturkoeffizient (Ta) des Bildes wird auf der Grundlage eines Mittelwerts der Abtastbildelemente berechnet. Auf der Grundlage der Abtastbildelemente des Bildes a, bei denen eine Tonkorrektur unter Verwendung des Tonkorrekturkoeffizienten durchgeführt wurde, wird ein Tonkorrekturkoeffizient (Tb) des Bildes b berechnet. Da die Bilder a und b nach der Durchführung einer Tonkorrektur bei den Bildern a und b jeweils unter Verwendung der auf vorstehenden Weise berechneten Tonkorrekturkoeffizienten kombiniert werden, ist es möglich, ein kombiniertes Bild zu erzeugen, dessen Grenze der Bilder nicht auffallend ist, selbst wenn die zwei Bilder unterschiedliche Belichtungsbedingungen aufweisen.
  • Aufgrund der Tonumwandlung des Bildes a, die auf der Grundlage einer Durchschnittsstufe der Bildelementwerte in der Überlappungsregion der Bilder durchgeführt wird, die entsprechend den vorstehend beschriebenen Bildparametern erhalten wird, und auch aufgrund der Korrektur, die zum Zusammenfallen der Töne des Bildes b mit den korrigierten Tönen des Bildes a durchgeführt wird, sind die korrigierten Töne der Bilder a und b natürlich.
  • Modifikation des zweiten Ausführungsbeispiels
  • Drittes modifiziertes Ausführungsbeispiel
  • Im Folgenden wird eine Modifikation des zweiten Ausführungsbeispiels (ein drittes modifiziertes Ausführungsbeispiel) unter Bezugnahme auf die 25A bis 26B beschrieben.
  • Eine Bildkombiniervorrichtung gemäß dem dritten modifizierten Ausführungsbeispiel hat den gleichen Aufbau wie die des zweiten in 19 gezeigten Ausführungsbeispiels. Allerdings sind die Funktionen und die Arbeitsweise der Entsprechungspunktextrahiereinheit 220, der Entsprechungspunktauswahleinheit 225 und der Korrekturkoeffizientenbestimmungseinheit 230 von denen des zweiten Ausführungsbeispiels verschieden. Dies wird im Folgenden beschrieben.
  • Anders als die Entsprechungspunktextrahiereinheit des zweiten Ausführungsbeispiels bestimmt die Entsprechungspunktextrahiereinheit 220 der Bildkombiniervorrichtung 210 gemäß dem dritten modifizierten Ausführungsbeispiel keine Zuverlässigkeit (Schritt S4 in 5) der durch den Zusammenpassungsvorgang erhaltenen Entsprechungspunkte. Stattdessen erkennt das dritte modifizierte Ausführungsbeispiel eine Position mit einem minimalen Wert einer Nicht-Koinzidenz als Entsprechungspunkt.
  • Die Entsprechungspunktauswahleinheit 225 wiederholt die Verarbeitung der Entfernung falscher Entsprechungspunkte, die in der vorstehenden Gleichung (15) gezeigt ist, wodurch die Genauigkeit bei der Extraktion von Entsprechungspunkten verbessert wird.
  • Die 25A bis 25C sind Beispieldarstellung zur Beschreibung der Schritte der Entfernung falscher Entsprechungspunkte, die durch die Entsprechungspunktauswahleinheit 225 durchgeführt werden.
  • Gemäß einem Ergebnis der Extraktion (25A), das durch die Entsprechungspunktextrahiereinheit 220 erhalten wird, berechnet die Parameterschätzeinheit Bildumwandlungsparameter A, B, C und D. Die Differenz jedes Paars von Entsprechungspunkten wird dann entsprechend Gleichung (15) erhalten. Als nächstes werden Mittelwerte Avg(dx) und Avg(dy) der Differenzen berechnet. Bei dem dritten modifizierten Ausführungsbeispiel wird der Mittelwert der Differenzen als Schwellenwert verwendet. Das heißt, die Entsprechungspunktauswahleinheit 225 beseitigt falsch erkannte Entsprechungspunkte wie in 15B gezeigt unter Verwendung der Werte Thx = Avg(dx) und Thy = Avg(dy).
  • Die Entsprechungspunktauswahleinheit 225 wiederholt die vorstehende Verarbeitung, bis die Mittelwerte Avg(dx) und Avg(dy) der Differenzen auf einen vorbestimmten Wert konvergieren. Die resultierenden Entsprechungspunkte ( 25C) werden zur Parameterschätzeinheit 240 geschickt, wo Bildkombinierparameter geschätzt werden.
  • Wie bei dem zweiten Ausführungsbeispiel erhält die Korrekturkoeffizientenbestimmungseinheit 230 Tonkorrekturkoeffizienten Ta und Tb auf der Grundlage der Abtastbildelemente Pak und Pbk, die in den Schritten S32 und S33 im Ablaufdiagramm in 21 erhalten werden.
  • Die 26A und 26B zeigen Grafen zur Beschreibung der Schritte der Bestimmung von Tonkorrekturkoeffizienten durch die Korrekturkoeffizientenbestimmungseinheit 230.
  • Die Korrekturkoeffizientenbestimmungseinheit 230 berechnet die Mittelwert Rvg(Pa) und Avg(Pb) der Abtastbildelemente Pak und Pbk, die jeweils aus den Bildern a und b erhalten werden, und berechnet ferner die Differenz D jedes Mittelwerts. Wie in 26A gezeigt, werden Töne des Bildes a derart umgewandelt, dass die Töne durch die lineare Funktion fa' ausgedrückt werden, die durch die Punkte (0, 0) und (128, 128 + D/2) läuft. Das Abtastbildelement Pak des Bildes a wird entsprechend der Tonkorrekturfunktion fa' umgewandelt, und das umgewandelte Abtastbildelement wird als fa'(Pak) definiert. Die Koeffizienten der Tonkorrekturfunktion fa' sind Ta1' und Ta2'.
  • Des Weiteren wird der Tonkorrekturkoeffizient fb' erzeugt, damit das Abtastbildelement Pbk mit dem Abtastbildelement fa' (Pak) zusammenfällt. Die Abszisse in 26B bezeichnet Töne vor der Korrektur und die Ordinate bezeichnet Töne, die unter Verwendung des Tonkorrekturkoeffizienten fb' korrigiert sind.
  • Die zur Erzeugung der Tonkorrekturfunktion fb' verwendeten Koeffizienten Tb1, Tb2 und Tb3 werden durch das Verfahren der kleinsten Quadrate unter Verwendung der in 26B gezeigten Abtastbildelemente zur Minimierung von e in Gleichung (17) berechnet.
  • Entsprechend der vorstehenden Verarbeitung werden Tonkorrekturfunktion fa' und fb' zum Umwandeln von Tönen der Bilder a und b durch die folgende Gleichung (19) erhalten: fa'(i) = T'a1·i + T'a2 fb'(i) = T'b1·i2 + T'b2·i + T'b3 (19)wobei i Töne vor der Umwandlung bezeichnet.
  • Wie vorstehend beschrieben bestimmt bei dem dritten modifizierten Ausführungsbeispiel die Entsprechungspunktextrahiereinheit keine Zuverlässigkeit der durch die Zusammenpassungsverarbeitung erhaltenen Entsprechungspunkte. Stattdessen wird eine Position mit einem minimalen Wert einer Nicht-Koinzidenz als Entsprechungspunkt erkannt. Mittels dieser Verarbeitung ist es möglich, die Genauigkeit bei der Extraktion von Entsprechungspunkten zu verbessern. Außerdem werden Bildkombinierparameter gemäß den Entsprechungspunkten mit großer Genauigkeit eingestellt, aus denen falsche Entsprechungspunkte beseitigt sind. Des Weiteren werden die Abtastbildelemente für die Tonkorrektur unter Verwendung der Bildkombinierparameter erzeugt. Daher ist es möglich, ein kombiniertes Bild zu erzeugen, dessen Grenzen der Bilder nicht auffallend ist, selbst wenn die zwei Bilder unterschiedliche Belichtungsbedingungen aufweisen.
  • Modifikation des zweiten Ausführungsbeispiels
  • Viertes modifiziertes Ausführungsbeispiel
  • Das vierte modifizierte Ausführungsbeispiel wird nachstehend unter Bezugnahme auf 27 beschrieben.
  • Der Aufbau der Bildkombiniervorrichtung gemäß dem vierten modifizierten Ausführungsbeispiel ist mit dem des zweiten Ausführungsbeispiels in 29 identisch. Allerdings unterscheidet sich die Arbeitsweise der Korrekturkoeffizientenbestimmungseinheit 230 von der des zweiten Ausführungsbeispiels. Nachstehend wird diese Arbeitsweise beschrieben.
  • Bei dem vorstehenden zweiten Ausführungsbeispiel und dem dritten modifizierten Ausführungsbeispiel erhält die Korrekturkoeffizientenbestimmungseinheit die in 22 gezeigten Abtastbildelemente Pak und Pbk, die zur Erzeugung von Tonkorrekturkoeffizienten verwendet werden, aus Bildelementwerten von Entsprechungspunkten unter den Bildern a und b, die auf der Grundlage von Affintransformationsparametern (A, B, C und D) erhalten werden. Bei dem vierten modifizierten Ausführungsbeispiel wird die Zusammenpassungsverarbeitung in der Nachbarschaft der Koordinaten der Entsprechungspunkte durchgeführt, die auf der Grundlage der Affintransformationsparameter erhalten werden, sodass Abtastbildelemente mit großer Genauigkeit erhalten werden.
  • Der Vorgang zum Erhalten von Abtastbildelementen gemäß dem vierten modifizierten Ausführungsbeispiel wird nachstehend unter Bezugnahme auf 27 beschrieben.
  • In 27 sind Punkte P und P' ein Paar von Entsprechungspunkten, die auf der Grundlage der Affintransformationsparameter erhalten werden. Hier wird die Vorlage T mit dem Punkt P als Mittelpunkt des Bildes a' erzeugt. Der Zusammenpassungsvorgang wird bezüglich der Punkte in der Vorlage T im Bereich des Suchobjektbereichs S des Bildes b' mit einem Punkt P' als Mittelpunkt ausgeführt. Der erhaltene Entsprechungspunkt wird als Punkt P " definiert, der präzise mit dem Punkt P zusammenfällt. Demnach wird eine Abweichung von Abtastbildelementen, die herkömmlich aufgrund von Fehlern in den Parametern erzeugt wird, korrigiert (ein zwischen P' – P'' erzeugter Fehler), wodurch genauere Abtastbildelemente erzeugt werden.
  • Das Ergebnis der Zusammenpassungsverarbeitung wird als korrekt bestimmt, wenn ein Wert einer Nicht-Koinzidenz an einem Spitzenwert niedriger als ein Schwellenwert ist.
  • Wird angenommen, dass keine passende Position im Suchobjektbereich gefunden werden kann, können Abtastbildelemente unter Verwendung von Koordinaten eines Entsprechungspunkts erzeugt werden, der durch eine Affintransformation erhalten wird.
  • Der Tonkorrekturvorgang der Bilder a' und b' und der Erzeugungsvorgang eines kombinierten Bildes c', der durch die Bildkombiniereinheit 250 durchgeführt wird, werden wie beim zweiten Ausführungsbeispiel durchgeführt.
  • Wie vorstehend beschrieben können mit dem vierten modifizierten Ausführungsbeispiel sehr genaue Abtastbildelemente durch die Durchführung einer Zusammenpassungsverarbeitung in der Nachbarschaft der Koordinaten der Entsprechungspunkte erhalten werden, die auf der Grundlage der Affintransformationsparameter erhalten werden.
  • Die Erfindung ist nicht auf die vorstehenden Ausführungsbeispiele beschränkt, und es können verschiedene Änderungen und Modifikationen innerhalb des Schutzbereichs der Erfindung ausgeführt werden. Der Schutzbereich der Erfindung ist lediglich durch die folgenden Patentansprüche beschränkt.

Claims (16)

  1. Vorrichtung zum Kombinieren eines ersten und eines zweiten Bildes mit überlappenden Regionen, mit einer Identifizierungseinrichtung (1) zum Identifizieren der überlappenden Regionen durch Einstellen eines Suchbereichs (s) in einem Bild und Abtasten des anderen Bildes mit einem Vorlagenbereich (t) zum Extrahieren entsprechender Punkte in den zwei Bildern, einer Umwandlungseinrichtung (2) zur Umwandlung des Koordinatensystems eines Bildes entsprechend dem Koordinatensystem des anderen Bildes, einer Kombinationseinrichtung (2,6) zum Kombinieren des ersten und zweiten Bildes zur Erzeugung eines kombinierten Bildes, einer Erfassungseinrichtung (3) zur Erfassung der Tonerdichte eines ersten, der überlappenden Region des ersten Bildes entsprechenden Teilbildes und der Tonerdichte eines zweiten, der überlappenden Region des zweiten Bildes entsprechenden Teilbildes auf der Grundlage der Ausgabe der Identifizierungseinrichtung, und einer Tonkorrektureinrichtung (4,5) zur Durchführung einer Tonkorrektur bei zumindest einem der Teilbilder auf der Grundlage der Differenz der Tondichte, wie sie durch die Erfassungseinrichtung erfasst wird, so dass die Tondichten der zwei Teilbilder sich aneinander annähern, und einer Einrichtung (6) zur Erzeugung einer Grenze, die die zwei Teilbilder trennt, wobei die Kombinationseinrichtung zur weiteren Korrektur der Ausgabe der Tonkorrektureinrichtung hinsichtlich der Entfernung jedes Bildelements in einer Ton-korrigierten Teilregion von der Grenze eingerichtet ist.
  2. Vorrichtung nach Anspruch 1, wobei die Erfassungseinrichtung eine Berechnungseinrichtung zur Berechnung einer Korrekturfunktion umfasst, die eine Korrelation zwischen der Tondichte des ersten Teilbildes und der Tondichte des zweiten Teilbildes definiert, und die Tonkorrektureinrichtung zur Durchführung einer Tonkorrektur bei dem ersten Bild oder dem zweiten Bild unter Verwendung der berechneten Korrekturfunktion eingerichtet ist.
  3. Vorrichtung nach Anspruch 2, wobei die Berechnungseinrichtung zur Berechnung der Korrekturfunktion derart eingerichtet ist, dass die Korrekturfunktion durch eine quadratische Funktion genähert wird.
  4. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Kombinationseinrichtung zum Hinzufügen von Gewichtungsfaktoren zu dem durch die Tonkorrektureinrichtung korrigierten Bild eingerichtet ist, wobei die Gewichtungsfaktoren auf der Entfernung von der Grenze beruhen.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, wobei die Kombinationseinrichtung zum Einstellen eines Tonumwandlungsbereichs in der Region der Überlappung zwischen den zwei Bildern eingerichtet ist.
  6. Vorrichtung nach Anspruch 5, wobei die Kombinationseinrichtung zur Durchführung einer Tonumwandlung lediglich bei dem zweiten Teilbild eingerichtet ist.
  7. Vorrichtung nach Anspruch 4 oder 5, wobei die Kombinationseinrichtung zur Änderung der Größe des Tonumwand lungsbereichs entsprechend der Differenz zwischen der Dichte des ersten Teilbildes und der Dichte des zweiten Teilbildes eingerichtet ist.
  8. Vorrichtung nach Anspruch 7, wobei die Kombinationseinrichtung zum Einstellen des Tonumwandlungsbereichs entsprechend der Differenz des Durchschnittsdichtewerts zwischen dem ersten Bild und dem zweiten Bild in der Region der Überlappung zwischen den zwei Bildern eingerichtet ist.
  9. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Umwandlungseinrichtung zur Bestimmung einer Abbildung für eine Koordinatenumwandlung der Koordinaten des ersten Teilbildes in die Koordinaten des zweiten Teilbildes eingerichtet ist, und die Kombinationseinrichtung zur Verwendung einer inversen Transformation der Abbildung zur Abbildung des zweiten Teilbildes auf die Koordinaten des ersten Teilbildes eingerichtet ist, wodurch das erste Bild und das zweite Bild kombiniert werden.
  10. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Identifizierungseinrichtung umfasst eine Entfernungseinrichtung zur Entfernung von Daten aus dem extrahierten Satz entsprechender Punkte, die entsprechende Punkte angeben, die irrtümlich als entsprechende Punkte durch die Entsprechungspunktextrahiereinrichtung erfasst werden, auf der Grundlage von Koordinatenumwandlungsparametern, die unter Verwendung des Satzes entsprechender Punkte geschätzt werden, die durch die Entsprechungspunktextrahiereinrichtung extrahiert werden, wobei die Kombinationseinrichtung zum Schätzen von Bildkombinationsparametern auf der Grundlage des Satzes entsprechender Punkte eingerichtet ist, aus dem falsche entsprechende Punkte entfernt wurden.
  11. Vorrichtung nach Anspruch 10, wobei die Tonkorrektureinrichtung zur Erzeugung einer ersten Korrekturfunktion zur Durchführung einer Tonkorrektur bei dem ersten Bild auf der Grundlage der Differenz zwischen einem Durchschnittswert der aus dem ersten Bild extrahierten Bildelementwerte und dem Durchschnittswert der aus dem zweiten Bild extrahierten Bildelementwerte, zur Durchführung einer Tonkorrektur bei dem ersten Bild unter Verwendung der ersten Korrekturfunktion, zur Erzeugung einer zweiten Korrekturfunktion zum Zusammenfallen der Bildelementwerte der entsprechenden Punkte in dem zweiten Bild, aus denen die falschen entsprechenden Punkt durch die Entfernungseinrichtung entfernt wurden, mit den Bildelementwerten der entsprechenden Punkte in dem korrigierten ersten Bild, aus denen die falschen entsprechenden Punkte entfernt wurden, und zur Durchführung einer Tonkorrektur bei dem zweiten Bild unter Verwendung der zweiten Korrekturfunktion eingerichtet ist.
  12. Vorrichtung nach Anspruch 1, wobei die Tonkorrektureinrichtung (4,5) zur Durchführung einer Tonkorrektur bei einer Tonumwandlungsregion eingerichtet ist, die größer als die überlappende Region ist, so dass die Tondichte des zumindest einen Teilbildes sich an die andere annähert, wobei die Kombinationseinrichtung das kombinierte Bild auf der Grundlage des ersten Bildes, des zweiten Bildes und zumindest eines der Teilbilder erzeugt, dessen Tondichte durch die Tonkorrektureinrichtung korrigiert wurde.
  13. Verfahren zum Kombinieren eines ersten und zweiten Bildes mit überlappenden Regionen, mit einem Schritt der Identifizierung der überlappenden Regionen durch Einstellen eines Suchbereichs (s) in einem Bild und Abtasten des anderen Bildes mit einem Vorlagenbereich (t), um entsprechende Punkte in den zwei Bildern zu extrahieren, einem Schritt der Umwandlung des Koordinatensystems eines Bildes entsprechend dem Koordinatensystem des anderen Bildes und einem Schritt der Kombination des ersten und zweiten Bildes zur Erzeugung eines kombinierten Bildes, und einem Schritt der Erfassung der Tondichte eines ersten, der überlappenden Region des ersten Bildes entsprechenden Teilbildes und der Tondichte eines zweiten, der überlappenden Region des zweiten Bildes entsprechenden Teilbildes auf der Grundlage der Ausgabe des Identifizierungsschritts und einem Schritt der Erzeugung einer Grenzlinie, die die zwei Teilbilder trennt, wobei der Kombinationsschritt die Durchführung eines Schritts einer Tonkorrektur bei zumindest einem der Teilbilder auf der Grundlage der Differenz der Tondichte beinhaltet, wie sie durch den Erfassungsschritt erfasst wird, so dass die Tondichten der zwei Teilbilder sich aneinander annähern, und wobei der Kombinationsschritt ferner die Ausgabe des Tonkorrekturschritts hinsichtlich der Entfernung jedes Bildelements in einer Dichte-korrigierten Teilregion von der Grenze korrigiert.
  14. Verfahren nach Anspruch 13, wobei der Identifizierungsschritt umfasst Entfernen von Daten aus dem Satz extrahierter entsprechender Punkte, die entsprechende Punkte angeben, die irrtümlich als entsprechende Punkte im Extrahier schritt erfasst werden, auf der Grundlage von Koordinatenumwandlungsparametern, die unter Verwendung des Satzes entsprechender Punkte geschätzt werden, die im Extrahierschritt extrahiert werden, wobei im Kombinationsschritt Bildkombinationsparameter auf der Grundlage des Satzes entsprechender Punkte geschätzt werden, aus denen falsche entsprechende Punkte entfernt wurden.
  15. Verfahren nach Anspruch 14, wobei der Schritt der Durchführung einer Tonkorrektur die Schritte umfasst Extrahieren von Bildelementwerten des Satzes entsprechender Punkte, aus denen die falschen entsprechenden Punkte entfernt wurden, jeweils aus dem ersten und zweiten Bild auf der Grundlage der geschätzten Bildkombinationsparameter und Durchführen einer Tonkorrektur jeweils bei dem ersten und zweiten Bild unter Verwendung der extrahierten Bildelementwerte.
  16. Verfahren nach Anspruch 14, wobei der Schritt der Durchführung der Tonkorrektur die Schritte umfasst Erzeugen einer ersten Korrekturfunktion zur Durchführung einer Tonkorrektur bei der Teilregion des ersten Bildes auf der Grundlage der Differenz zwischen dem Durchschnittswert der aus dem ersten Bild extrahierten Bildelementwerte und dem Durchschnittswert der aus dem zweiten Bild extrahierten Bildelementwerte, Durchführen einer Tonkorrektur bei der Teilregion des ersten Bildes unter Verwendung der ersten Korrekturfunktion, Erzeugen einer zweiten Korrekturfunktion zum Zusammenfallen der Bildelementwerte der entsprechenden Punkte im zweiten Bild, aus denen die falschen entsprechenden Punkte im Entfernungsschritt entfernt wurden, mit den Bildelementwerten der entsprechenden Punkte im korrigierten ersten Bild, aus denen die falschen entsprechenden Punkte entfernt wurden, und Durchführen einer Tonkorrektur bei dem zweiten Bild unter Verwendung der zweiten Korrekturfunktion.
DE69725505T 1996-05-28 1997-05-27 Bildkombinationsgerät und -verfahren Expired - Lifetime DE69725505T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP13364296 1996-05-28
JP8133642A JPH09321972A (ja) 1996-05-28 1996-05-28 画像合成装置及び方法
JP8260200A JPH1091765A (ja) 1996-09-10 1996-09-10 画像合成装置及びその方法
JP26020096 1996-09-10

Publications (2)

Publication Number Publication Date
DE69725505D1 DE69725505D1 (de) 2003-11-20
DE69725505T2 true DE69725505T2 (de) 2004-08-05

Family

ID=26467953

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69725505T Expired - Lifetime DE69725505T2 (de) 1996-05-28 1997-05-27 Bildkombinationsgerät und -verfahren

Country Status (3)

Country Link
US (1) US5982951A (de)
EP (1) EP0810776B1 (de)
DE (1) DE69725505T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112006000358B4 (de) 2005-02-11 2019-07-04 Creative Technology Ltd Verfahren und Vorrichtung zur Erstellung eines Panoramabildes

Families Citing this family (255)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU3062697A (en) 1996-05-10 1997-12-05 Applied Science Fiction, Inc. Luminance-priority color sensor
US6069714A (en) 1996-12-05 2000-05-30 Applied Science Fiction, Inc. Method and apparatus for reducing noise in electronic film development
US6442301B1 (en) 1997-01-06 2002-08-27 Applied Science Fiction, Inc. Apparatus and method for defect channel nulling
US6380539B1 (en) 1997-01-30 2002-04-30 Applied Science Fiction, Inc. Four color trilinear CCD scanning
US6017688A (en) 1997-01-30 2000-01-25 Applied Science Fiction, Inc. System and method for latent film recovery in electronic film development
JPH10232940A (ja) * 1997-02-20 1998-09-02 Sony Corp コーナ検出装置及びコーナ検出方法
JPH10334212A (ja) * 1997-04-01 1998-12-18 Fuji Photo Film Co Ltd 付加情報付き画像ファイルからの画像プリントシステム
JP3773011B2 (ja) * 1997-06-20 2006-05-10 シャープ株式会社 画像合成処理方法
US6215914B1 (en) * 1997-06-24 2001-04-10 Sharp Kabushiki Kaisha Picture processing apparatus
US6128108A (en) 1997-09-03 2000-10-03 Mgi Software Corporation Method and system for compositing images
US6466701B1 (en) * 1997-09-10 2002-10-15 Ricoh Company, Ltd. System and method for displaying an image indicating a positional relation between partially overlapping images
US6424752B1 (en) * 1997-10-06 2002-07-23 Canon Kabushiki Kaisha Image synthesis apparatus and image synthesis method
US6463426B1 (en) * 1997-10-27 2002-10-08 Massachusetts Institute Of Technology Information search and retrieval system
US6720997B1 (en) * 1997-12-26 2004-04-13 Minolta Co., Ltd. Image generating apparatus
JPH11205648A (ja) * 1998-01-09 1999-07-30 Olympus Optical Co Ltd 画像合成装置
EP1053644A1 (de) 1998-02-04 2000-11-22 Applied Science Fiction, Inc. Mehrzeilige detektorreihe mit infrarotzeile
EP1086577B1 (de) 1998-02-23 2002-09-18 Applied Science Fiction, Inc. Progressive flächenabtastung in der elektronischen filmentwicklung
JPH11250222A (ja) * 1998-02-27 1999-09-17 Canon Inc 画像処理方法及びその装置
EP1062636A1 (de) 1998-03-13 2000-12-27 Applied Science Fiction, Inc. Verfahren zur bildfehlerkorrektur
US6801339B1 (en) * 1998-03-26 2004-10-05 Fuji Photo Film Co., Ltd. Image processing method and apparatus
US6002804A (en) * 1998-03-26 1999-12-14 Hewlett-Packard Company Tone dependent variable halftoning with adjustable algorithm selection
JP3726223B2 (ja) * 1998-03-27 2005-12-14 富士写真フイルム株式会社 画像処理装置
CN1214614C (zh) * 1998-04-10 2005-08-10 株式会社理光 图像处理方法、图像处理装置及记录媒体
US7067473B1 (en) * 1998-07-14 2006-06-27 Janssen Pharmaceutica N.V. Neurotrophic growth factor
JP3370605B2 (ja) * 1998-07-14 2003-01-27 富士通株式会社 3次元モデルの最適化装置および方法
US6594041B1 (en) 1998-11-20 2003-07-15 Applied Science Fiction, Inc. Log time processing and stitching system
US6704042B2 (en) * 1998-12-10 2004-03-09 Canon Kabushiki Kaisha Video processing apparatus, control method therefor, and storage medium
US7558438B1 (en) 1998-12-15 2009-07-07 Fujifilm Corporation System for synthesizing divisional images based on information indicating relationship between a series of divisional images
US6714249B2 (en) * 1998-12-31 2004-03-30 Eastman Kodak Company Producing panoramic digital images by digital camera systems
US6437358B1 (en) 1999-02-04 2002-08-20 Applied Science Fiction, Inc. Apparatus and methods for capturing defect data
US6404516B1 (en) 1999-02-22 2002-06-11 Applied Science Fiction, Inc. Parametric image stitching
JP3808231B2 (ja) * 1999-03-01 2006-08-09 富士写真フイルム株式会社 画像合成方法および装置並びに記録媒体
US6781620B1 (en) 1999-03-16 2004-08-24 Eastman Kodak Company Mixed-element stitching and noise reduction system
US7620909B2 (en) * 1999-05-12 2009-11-17 Imove Inc. Interactive image seamer for panoramic images
US20040075738A1 (en) * 1999-05-12 2004-04-22 Sean Burke Spherical surveillance system architecture
US7050085B1 (en) * 2000-10-26 2006-05-23 Imove, Inc. System and method for camera calibration
JP3867883B2 (ja) * 1999-06-01 2007-01-17 株式会社リコー 画像合成処理方法、画像合成処理装置及び記録媒体
US6443639B1 (en) 1999-06-29 2002-09-03 Applied Science Fiction, Inc. Slot coater device for applying developer to film for electronic film development
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
DE60014956T2 (de) 1999-08-17 2006-02-09 Eastman Kodak Co. Verfahren und System für die Verwendung von Eichzonen in der Elektronischen Filmentwicklung
JP4169462B2 (ja) * 1999-08-26 2008-10-22 株式会社リコー 画像処理方法及び装置、デジタルカメラ、画像処理システム、並びに、画像処理プログラムを記録した記録媒体
JP4143228B2 (ja) * 1999-08-27 2008-09-03 キヤノン株式会社 画像処理装置、画像処理方法および記憶媒体
EP1221256A1 (de) 1999-09-16 2002-07-10 Applied Science Fiction, Inc. Verfahren und vorrichtung zur verbesserung von fehlern in einem digitalesn bild
EP1226710A1 (de) 1999-10-08 2002-07-31 Applied Science Fiction Verfahren und gerät für bildaufzeichnung und fehlerbehandlung mit differentieller beleuchtung
AU1962701A (en) 1999-10-08 2001-04-23 Applied Science Fiction, Inc. System and method for correcting defects in digital images through selective fill-in from surrounding areas
US6924911B1 (en) 1999-10-12 2005-08-02 Eastman Kodak Company Method and system for multi-sensor signal detection
US6711302B1 (en) 1999-10-20 2004-03-23 Eastman Kodak Company Method and system for altering defects in digital image
JP2001223862A (ja) * 1999-12-02 2001-08-17 Fuji Photo Film Co Ltd 原稿読取装置及び方法
US6683995B2 (en) 1999-12-23 2004-01-27 Eastman Kodak Company Method and apparatus for correcting large defects in digital images
US6704458B2 (en) 1999-12-29 2004-03-09 Eastman Kodak Company Method and apparatus for correcting heavily damaged images
US7164511B2 (en) * 1999-12-29 2007-01-16 Eastman Kodak Company Distinguishing positive and negative films system and method
US6720560B1 (en) 1999-12-30 2004-04-13 Eastman Kodak Company Method and apparatus for scanning images
US6554504B2 (en) 1999-12-30 2003-04-29 Applied Science Fiction, Inc. Distributed digital film processing system and method
WO2001050197A1 (en) 1999-12-30 2001-07-12 Applied Science Fiction, Inc. System and method for digital color dye film processing
US6788335B2 (en) 1999-12-30 2004-09-07 Eastman Kodak Company Pulsed illumination signal modulation control & adjustment method and system
US6862117B1 (en) 1999-12-30 2005-03-01 Eastman Kodak Company Method and apparatus for reducing the effect of bleed-through on captured images
US6813392B2 (en) 1999-12-30 2004-11-02 Eastman Kodak Company Method and apparatus for aligning multiple scans of the same area of a medium using mathematical correlation
US6447178B2 (en) 1999-12-30 2002-09-10 Applied Science Fiction, Inc. System, method, and apparatus for providing multiple extrusion widths
US6540416B2 (en) 1999-12-30 2003-04-01 Applied Science Fiction, Inc. System and method for digital film development using visible light
US6461061B2 (en) 1999-12-30 2002-10-08 Applied Science Fiction, Inc. System and method for digital film development using visible light
US6707557B2 (en) 1999-12-30 2004-03-16 Eastman Kodak Company Method and system for estimating sensor dark current drift and sensor/illumination non-uniformities
US6664034B2 (en) 1999-12-31 2003-12-16 Eastman Kodak Company Digital film processing method
US6475711B1 (en) 1999-12-31 2002-11-05 Applied Science Fiction, Inc. Photographic element and digital film processing method using same
US6717608B1 (en) * 1999-12-31 2004-04-06 Stmicroelectronics, Inc. Motion estimation for panoramic digital camera
US6456323B1 (en) * 1999-12-31 2002-09-24 Stmicroelectronics, Inc. Color correction estimation for panoramic digital camera
JP3849385B2 (ja) * 2000-02-03 2006-11-22 コニカミノルタホールディングス株式会社 画像処理装置、画像処理方法および画像処理プログラムを記録したコンピュータ読取可能な記録媒体
US6619863B2 (en) 2000-02-03 2003-09-16 Eastman Kodak Company Method and system for capturing film images
WO2001095028A2 (en) 2000-02-03 2001-12-13 Applied Science Fiction Method and system for self-service film processing
US6599036B2 (en) 2000-02-03 2003-07-29 Applied Science Fiction, Inc. Film processing solution cartridge and method for developing and digitizing film
US7136528B2 (en) 2000-02-11 2006-11-14 Sony Corporation System and method for editing digital images
US6993719B1 (en) 2000-02-11 2006-01-31 Sony Corporation System and method for animated character photo-editing interface and cross-platform education icon
US7262778B1 (en) 2000-02-11 2007-08-28 Sony Corporation Automatic color adjustment of a template design
JP4541482B2 (ja) * 2000-02-29 2010-09-08 キヤノン株式会社 画像処理装置及び画像処理方法
US6978051B2 (en) * 2000-03-06 2005-12-20 Sony Corporation System and method for capturing adjacent images by utilizing a panorama mode
US7221395B2 (en) * 2000-03-14 2007-05-22 Fuji Photo Film Co., Ltd. Digital camera and method for compositing images
GB2360413A (en) * 2000-03-16 2001-09-19 Lee Scott Friend Wide angle parabolic imaging and image mapping apparatus
JP2001333348A (ja) * 2000-05-24 2001-11-30 Minolta Co Ltd 送信装置、受信装置、放送システムおよび放送方法
US6813391B1 (en) * 2000-07-07 2004-11-02 Microsoft Corp. System and method for exposure compensation
US7313289B2 (en) * 2000-08-30 2007-12-25 Ricoh Company, Ltd. Image processing method and apparatus and computer-readable storage medium using improved distortion correction
WO2002025345A2 (en) * 2000-09-22 2002-03-28 Applied Science Fiction Lens focusing device, system and method for use with multiple light wavelengths
AU2001295059A1 (en) * 2000-09-22 2002-04-02 Applied Science Fiction Multiple-orientation image defect detection and correction
GB2369260B (en) * 2000-10-27 2005-01-19 Canon Kk Method and apparatus for the generation of composite images
US7412091B2 (en) 2000-12-07 2008-08-12 Ilookabout Inc. System and method for registration of cubic fisheye hemispherical images
US20020131651A1 (en) * 2001-01-12 2002-09-19 Chandrashekhara Anantharamu System and method for reducing images including graphs
EP1360551A2 (de) 2001-02-09 2003-11-12 Applied Science Fiction, Inc. Verfahren und verarbeitungslösungen zur digitalen filmverarbeitung
JP3539394B2 (ja) * 2001-03-26 2004-07-07 ミノルタ株式会社 画像処理装置、プログラムおよび記録媒体
US20020176116A1 (en) * 2001-04-12 2002-11-28 Rhoads Geoffrey B. Digital watermarks as a communication channel in documents for controlling document processing devices
US6987892B2 (en) * 2001-04-19 2006-01-17 Eastman Kodak Company Method, system and software for correcting image defects
JP3297040B1 (ja) * 2001-04-24 2002-07-02 松下電器産業株式会社 車載カメラの画像合成表示方法及びその装置
EP3388784B1 (de) * 2001-05-04 2019-07-17 Vexcel Imaging GmbH Verfahren und grossformatige kamera zur aufnahme eines grossformatigen bildes eines grossflächigen objektes
US7791626B2 (en) 2001-05-30 2010-09-07 Zink Imaging, Inc. Print head pulsing techniques for multicolor printers
US7830405B2 (en) 2005-06-23 2010-11-09 Zink Imaging, Inc. Print head pulsing techniques for multicolor printers
US7388686B2 (en) 2003-02-25 2008-06-17 Zink Imaging, Llc Image stitching for a multi-head printer
US8377844B2 (en) 2001-05-30 2013-02-19 Zink Imaging, Inc. Thermally-insulating layers and direct thermal imaging members containing same
US6805501B2 (en) 2001-07-16 2004-10-19 Eastman Kodak Company System and method for digital film development using visible light
JP2003153080A (ja) * 2001-11-09 2003-05-23 Matsushita Electric Ind Co Ltd 映像合成装置
US6978052B2 (en) * 2002-01-28 2005-12-20 Hewlett-Packard Development Company, L.P. Alignment of images for stitching
US20030151689A1 (en) * 2002-02-11 2003-08-14 Murphy Charles Douglas Digital images with composite exposure
JP2003259110A (ja) * 2002-02-28 2003-09-12 Fujitsu Ltd 画像結合装置、その方法、プログラム
JP4097980B2 (ja) * 2002-04-23 2008-06-11 オリンパス株式会社 画像合成装置
EP1379073A1 (de) * 2002-07-03 2004-01-07 Siemens Aktiengesellschaft Bildaufnahmeverfahren für ein Panoramabild
JP3845045B2 (ja) * 2002-07-23 2006-11-15 株式会社リコー 画像処理装置、画像処理方法、画像形成装置、印刷装置及びホストpc
AU2003278710A1 (en) * 2002-08-15 2004-03-03 Lc Technologies, Inc. Motion clutter suppression for image-subtracting cameras
US7893957B2 (en) 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
US8994822B2 (en) 2002-08-28 2015-03-31 Visual Intelligence Lp Infrastructure mapping system and method
US8483960B2 (en) 2002-09-20 2013-07-09 Visual Intelligence, LP Self-calibrated, remote imaging and data processing system
US6928194B2 (en) * 2002-09-19 2005-08-09 M7 Visual Intelligence, Lp System for mosaicing digital ortho-images
USRE49105E1 (en) 2002-09-20 2022-06-14 Vi Technologies, Llc Self-calibrated, remote imaging and data processing system
US7729511B2 (en) * 2002-09-24 2010-06-01 Pilz Gmbh & Co. Kg Method and device for safeguarding a hazardous area
JP2004153691A (ja) * 2002-10-31 2004-05-27 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
JP2004334843A (ja) * 2003-04-15 2004-11-25 Seiko Epson Corp 複数の画像から画像を合成する方法
US7236646B1 (en) 2003-04-25 2007-06-26 Orbimage Si Opco, Inc. Tonal balancing of multiple images
JP2005027206A (ja) * 2003-07-01 2005-01-27 Nikon Corp 階調変換処理装置、電子カメラおよび階調変換プログラム
CN100338631C (zh) * 2003-07-03 2007-09-19 马堃 数字成像设备现场全景成像的方法
JP3838243B2 (ja) * 2003-09-04 2006-10-25 ソニー株式会社 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム
WO2005024723A1 (ja) * 2003-09-08 2005-03-17 Nec Corporation 画像合成システム、画像合成方法及びプログラム
US7606441B2 (en) * 2003-11-27 2009-10-20 Seiko Epson Corporation Image processing device and a method for the same
JP4847685B2 (ja) * 2004-04-16 2011-12-28 株式会社日立ハイテクノロジーズ パターンサーチ方法
US7653260B2 (en) * 2004-06-17 2010-01-26 Carl Zeis MicroImaging GmbH System and method of registering field of view
US7375745B2 (en) * 2004-09-03 2008-05-20 Seiko Epson Corporation Method for digital image stitching and apparatus for performing the same
US20060115182A1 (en) * 2004-11-30 2006-06-01 Yining Deng System and method of intensity correction
US7756358B2 (en) * 2004-11-30 2010-07-13 Hewlett-Packard Development Company, L.P. System and method of aligning images
US7450137B2 (en) * 2005-02-18 2008-11-11 Hewlett-Packard Development Company, L.P. System and method for blending images
US7634152B2 (en) 2005-03-07 2009-12-15 Hewlett-Packard Development Company, L.P. System and method for correcting image vignetting
US7424218B2 (en) * 2005-07-28 2008-09-09 Microsoft Corporation Real-time preview for panoramic images
US7551802B2 (en) * 2005-09-22 2009-06-23 Konica Minolta Systems Laboratory, Inc. Map image matching method and apparatus
US7930627B2 (en) * 2005-09-22 2011-04-19 Konica Minolta Systems Laboratory, Inc. Office document matching method and apparatus
US7630582B2 (en) * 2005-11-15 2009-12-08 Lexmark International, Inc. Rendering optimization method and system
US7848596B2 (en) * 2006-05-24 2010-12-07 Hewlett-Packard Development Company, L.P. Templated collage generation with occlusion costing
DE102006036933B4 (de) * 2006-08-08 2024-01-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erzeugung eines Gesamtbilds aus überlappenden Einzelbildern
EP2063390B1 (de) * 2006-09-14 2016-08-03 Fujitsu Limited Bildverarbeitungseinrichtung und programm dafür
WO2008099443A1 (ja) * 2007-01-30 2008-08-21 Fujitsu Limited 画像生成プログラム、画像生成装置、画像生成方法
WO2008118886A1 (en) 2007-03-23 2008-10-02 Bioimagene, Inc. Digital microscope slide scanning system and methods
US8200039B2 (en) * 2007-04-05 2012-06-12 Adobe Systems Incorporated Laying out multiple images
US8203764B2 (en) * 2007-06-27 2012-06-19 Lexmark International, Inc. Phased illumination method for image capture system
KR101354899B1 (ko) * 2007-08-29 2014-01-27 삼성전자주식회사 파노라마 사진 촬영 방법
JP5223318B2 (ja) * 2007-12-07 2013-06-26 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP4678404B2 (ja) * 2007-12-27 2011-04-27 ソニー株式会社 撮像装置、その制御方法およびプログラム
TWI361396B (en) * 2008-01-18 2012-04-01 Univ Nat Chiao Tung Image synthesis system for a vehicle and the manufacturing method thereof mage synthesis device and method
TWI383680B (zh) * 2008-04-10 2013-01-21 Univ Nat Chiao Tung 整合式影像監視系統及其方法
KR20110016505A (ko) * 2008-06-17 2011-02-17 코닌클리케 필립스 일렉트로닉스 엔.브이. 컬러 조정
US8139883B2 (en) * 2008-07-29 2012-03-20 Sony Corporation System and method for image and video encoding artifacts reduction and quality improvement
KR101496467B1 (ko) 2008-09-12 2015-02-26 엘지전자 주식회사 파노라마 촬영 기능이 구비된 이동 단말기 및 그의 동작방법
US20100194851A1 (en) * 2009-02-03 2010-08-05 Aricent Inc. Panorama image stitching
JP2011005050A (ja) * 2009-06-26 2011-01-13 Canon Inc 画像処理方法及び画像処理装置
US8385689B2 (en) * 2009-10-21 2013-02-26 MindTree Limited Image alignment using translation invariant feature matching
KR20110052124A (ko) * 2009-11-12 2011-05-18 삼성전자주식회사 파노라마 이미지 생성 및 조회 방법과 이를 이용한 휴대 단말기
US20110141225A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama Imaging Based on Low-Res Images
US20110141224A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama Imaging Using Lo-Res Images
US20110141229A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama imaging using super-resolution
US20110141226A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama imaging based on a lo-res map
US8294748B2 (en) * 2009-12-11 2012-10-23 DigitalOptics Corporation Europe Limited Panorama imaging using a blending map
US10080006B2 (en) * 2009-12-11 2018-09-18 Fotonation Limited Stereoscopic (3D) panorama creation on handheld device
WO2011069698A1 (en) * 2009-12-11 2011-06-16 Tessera Technologies Ireland Limited Panorama imaging
CN102771113A (zh) * 2010-02-24 2012-11-07 汤姆逊许可证公司 用于3d的分割屏幕
US9508011B2 (en) 2010-05-10 2016-11-29 Videosurf, Inc. Video visual and audio query
US9413477B2 (en) 2010-05-10 2016-08-09 Microsoft Technology Licensing, Llc Screen detector
US9311708B2 (en) * 2014-04-23 2016-04-12 Microsoft Technology Licensing, Llc Collaborative alignment of images
CN103348666B (zh) * 2010-10-01 2016-01-27 康泰克斯有限公司 光扫描仪内的图像传感器调准的二维校准
CN102741878B (zh) 2010-10-26 2015-08-19 株式会社摩如富 图像处理装置、图像处理方法以及图像处理程序
CN101984463A (zh) * 2010-11-02 2011-03-09 中兴通讯股份有限公司 全景图合成方法及装置
JP2012105145A (ja) * 2010-11-11 2012-05-31 Canon Inc 画像処理装置、画像処理方法、及び、プログラム
CN107105157B (zh) 2010-11-29 2020-02-14 快图有限公司 从手持设备所捕获的多个图像进行肖像图像合成
JP5682304B2 (ja) * 2010-12-27 2015-03-11 トヨタ自動車株式会社 画像提供装置
US20120268626A1 (en) * 2011-04-25 2012-10-25 Avermedia Information, Inc. Apparatus and method for eliminating glare
KR101279576B1 (ko) * 2011-06-15 2013-06-27 삼성테크윈 주식회사 디지털 영상 처리 장치에서의 파노라마 영상 생성 방법
KR101913837B1 (ko) * 2011-11-29 2018-11-01 삼성전자주식회사 파노라마 영상 생성 방법 및 이를 적용한 영상기기
TW201324023A (zh) * 2011-12-13 2013-06-16 Fih Hong Kong Ltd 全景拍照系統及方法
DE102012016865B4 (de) * 2012-08-25 2022-12-15 Connaught Electronics Ltd. Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs
WO2014083489A1 (en) 2012-11-28 2014-06-05 Corephotonics Ltd. High-resolution thin multi-aperture imaging systems
US9568713B2 (en) 2013-01-05 2017-02-14 Light Labs Inc. Methods and apparatus for using multiple optical chains in parallel to support separate color-capture
CN108234851B (zh) 2013-06-13 2019-08-16 核心光电有限公司 双孔径变焦数字摄影机
CN108388005A (zh) 2013-07-04 2018-08-10 核心光电有限公司 小型长焦透镜套件
JP5929849B2 (ja) * 2013-07-08 2016-06-08 株式会社デンソー 画像生成装置、画像生成方法及び画像生成プログラム
CN109120823B (zh) 2013-08-01 2020-07-14 核心光电有限公司 具有自动聚焦的纤薄多孔径成像系统及其使用方法
US9374514B2 (en) 2013-10-18 2016-06-21 The Lightco Inc. Methods and apparatus relating to a camera including multiple optical chains
US9557520B2 (en) 2013-10-18 2017-01-31 Light Labs Inc. Synchronized image capture methods and apparatus
US9197816B2 (en) 2013-10-18 2015-11-24 The Lightco Inc. Zoom related methods and apparatus
US9736365B2 (en) 2013-10-26 2017-08-15 Light Labs Inc. Zoom related methods and apparatus
US9467627B2 (en) 2013-10-26 2016-10-11 The Lightco Inc. Methods and apparatus for use with multiple optical chains
US9426365B2 (en) 2013-11-01 2016-08-23 The Lightco Inc. Image stabilization related methods and apparatus
US9554031B2 (en) 2013-12-31 2017-01-24 Light Labs Inc. Camera focusing related methods and apparatus
JP5889495B2 (ja) * 2014-02-14 2016-03-22 オリンパス株式会社 内視鏡システム
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
US9462170B2 (en) 2014-02-21 2016-10-04 The Lightco Inc. Lighting methods and apparatus
EP3164831A4 (de) 2014-07-04 2018-02-14 Light Labs Inc. Verfahren und vorrichtung bezüglich der detektion von und/oder dem hinweis auf einen schmutzigen linsenzustand
US10110794B2 (en) 2014-07-09 2018-10-23 Light Labs Inc. Camera device including multiple optical chains and related methods
US9392188B2 (en) 2014-08-10 2016-07-12 Corephotonics Ltd. Zoom dual-aperture camera with folded lens
US9912864B2 (en) 2014-10-17 2018-03-06 Light Labs Inc. Methods and apparatus for using a camera device to support multiple modes of operation
CN107211099A (zh) 2014-12-17 2017-09-26 光实验室股份有限公司 用于实施并使用摄像机装置的方法及设备
US9544503B2 (en) 2014-12-30 2017-01-10 Light Labs Inc. Exposure control methods and apparatus
CN112433331B (zh) 2015-01-03 2022-07-08 核心光电有限公司 微型长焦镜头模块和使用该镜头模块的相机
CN106157273B (zh) * 2015-03-30 2020-01-21 阿里巴巴集团控股有限公司 生成合成图片的方法及装置
US10015384B2 (en) 2015-04-02 2018-07-03 Corephotonics Ltd. Dual voice coil motor structure in a dual-optical module camera
US9824427B2 (en) 2015-04-15 2017-11-21 Light Labs Inc. Methods and apparatus for generating a sharp image
CN112394467B (zh) 2015-04-16 2023-06-09 核心光电有限公司 紧凑型折叠式相机中的自动对焦和光学图像稳定
US9857584B2 (en) 2015-04-17 2018-01-02 Light Labs Inc. Camera device methods, apparatus and components
US9967535B2 (en) 2015-04-17 2018-05-08 Light Labs Inc. Methods and apparatus for reducing noise in images
US10091447B2 (en) 2015-04-17 2018-10-02 Light Labs Inc. Methods and apparatus for synchronizing readout of multiple image sensors
US10075651B2 (en) 2015-04-17 2018-09-11 Light Labs Inc. Methods and apparatus for capturing images using multiple camera modules in an efficient manner
WO2016172641A1 (en) 2015-04-22 2016-10-27 The Lightco Inc. Filter mounting methods and apparatus and related camera apparatus
KR102114595B1 (ko) 2015-05-28 2020-05-25 코어포토닉스 리미티드 이중-조리개 디지털 카메라의 광학식 손떨림 방지 및 자동-초점을 위한 양-방향성 강성
US10129483B2 (en) 2015-06-23 2018-11-13 Light Labs Inc. Methods and apparatus for implementing zoom using one or more moveable camera modules
US10491806B2 (en) 2015-08-03 2019-11-26 Light Labs Inc. Camera device control related methods and apparatus
CN112672024B (zh) 2015-08-13 2022-08-02 核心光电有限公司 视频支持和切换/无切换动态控制的双孔径变焦摄影机
US10365480B2 (en) 2015-08-27 2019-07-30 Light Labs Inc. Methods and apparatus for implementing and/or using camera devices with one or more light redirection devices
WO2017037688A1 (en) 2015-09-06 2017-03-09 Corephotonics Ltd. Auto focus and optical image stabilization with roll compensation in a compact folded camera
US9571759B1 (en) * 2015-09-30 2017-02-14 Gopro, Inc. Separate range tone mapping for component images in a combined image
US9749549B2 (en) 2015-10-06 2017-08-29 Light Labs Inc. Methods and apparatus for facilitating selective blurring of one or more image portions
US10003738B2 (en) 2015-12-18 2018-06-19 Light Labs Inc. Methods and apparatus for detecting and/or indicating a blocked sensor or camera module
US10225445B2 (en) 2015-12-18 2019-03-05 Light Labs Inc. Methods and apparatus for providing a camera lens or viewing point indicator
KR20230100749A (ko) 2015-12-29 2023-07-05 코어포토닉스 리미티드 자동 조정가능 텔레 시야(fov)를 갖는 듀얼-애퍼처 줌 디지털 카메라
US10306218B2 (en) 2016-03-22 2019-05-28 Light Labs Inc. Camera calibration apparatus and methods
EP3758356B1 (de) 2016-05-30 2021-10-20 Corephotonics Ltd. Antrieb
KR102646151B1 (ko) 2016-06-19 2024-03-08 코어포토닉스 리미티드 듀얼 애퍼처 카메라 시스템에서의 프레임 동기화
US9948832B2 (en) 2016-06-22 2018-04-17 Light Labs Inc. Methods and apparatus for synchronized image capture in a device including optical chains with different orientations
KR20240051317A (ko) 2016-07-07 2024-04-19 코어포토닉스 리미티드 폴디드 옵틱용 선형 볼 가이드 보이스 코일 모터
WO2018007951A1 (en) 2016-07-07 2018-01-11 Corephotonics Ltd. Dual-camera system with improved video smooth transition by image blending
KR20180040469A (ko) * 2016-10-12 2018-04-20 엘지이노텍 주식회사 이미지 정합 방법 및 장치
WO2018092642A1 (ja) * 2016-11-15 2018-05-24 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US11531209B2 (en) 2016-12-28 2022-12-20 Corephotonics Ltd. Folded camera structure with an extended light-folding-element scanning range
CN113805405B (zh) 2017-01-12 2023-05-23 核心光电有限公司 紧凑型折叠式摄影机及其组装方法
US11347016B2 (en) 2017-02-23 2022-05-31 Corephotonics Ltd. Folded camera lens designs
US10645286B2 (en) 2017-03-15 2020-05-05 Corephotonics Ltd. Camera with panoramic scanning range
US10904512B2 (en) 2017-09-06 2021-01-26 Corephotonics Ltd. Combined stereoscopic and phase detection depth mapping in a dual aperture camera
US10951834B2 (en) 2017-10-03 2021-03-16 Corephotonics Ltd. Synthetically enlarged camera aperture
EP4250695A3 (de) 2017-11-23 2023-11-22 Corephotonics Ltd. Kompakte gefaltete kamerastruktur
KR102128223B1 (ko) 2018-02-05 2020-06-30 코어포토닉스 리미티드 폴디드 카메라에 대한 감소된 높이 페널티
US11640047B2 (en) 2018-02-12 2023-05-02 Corephotonics Ltd. Folded camera with optical image stabilization
US10694168B2 (en) 2018-04-22 2020-06-23 Corephotonics Ltd. System and method for mitigating or preventing eye damage from structured light IR/NIR projector systems
KR102299752B1 (ko) 2018-04-23 2021-09-08 코어포토닉스 리미티드 연장된 2 자유도 회전 범위를 갖는 광학 경로 폴딩 요소
DE102018113281A1 (de) * 2018-06-05 2019-12-05 Connaught Electronics Ltd. Verfahren zur Bildharmonisierung, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug
CN111316346B (zh) 2018-08-04 2022-11-29 核心光电有限公司 摄像机上方的可切换连续显示信息系统
WO2020039302A1 (en) 2018-08-22 2020-02-27 Corephotonics Ltd. Two-state zoom folded camera
KR102242437B1 (ko) 2019-01-07 2021-04-20 코어포토닉스 리미티드 슬라이딩 조인트를 갖는 회전 메커니즘
KR102617820B1 (ko) * 2019-01-14 2023-12-22 엘지전자 주식회사 비디오 월
KR102268094B1 (ko) 2019-03-09 2021-06-22 코어포토닉스 리미티드 동적 입체 캘리브레이션을 위한 시스템 및 방법
KR102515482B1 (ko) 2019-07-31 2023-03-29 코어포토닉스 리미티드 카메라 패닝 또는 모션에서 배경 블러링을 생성하는 시스템 및 방법
CN110753217B (zh) * 2019-10-28 2022-03-01 黑芝麻智能科技(上海)有限公司 色彩平衡方法和装置、车载设备以及存储介质
US11659135B2 (en) 2019-10-30 2023-05-23 Corephotonics Ltd. Slow or fast motion video using depth information
US11949976B2 (en) 2019-12-09 2024-04-02 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
KR102708591B1 (ko) 2019-12-09 2024-09-20 코어포토닉스 리미티드 스마트한 파노라마 이미지를 획득하기 위한 시스템 및 방법
IL271518B2 (en) * 2019-12-17 2023-04-01 Elta Systems Ltd Radiometric corrections in the Mozika image
CN113132752B (zh) 2019-12-30 2023-02-24 阿里巴巴集团控股有限公司 视频处理方法及装置
KR20220053023A (ko) 2020-02-22 2022-04-28 코어포토닉스 리미티드 매크로 촬영을 위한 분할 스크린 기능
KR20220003550A (ko) 2020-04-26 2022-01-10 코어포토닉스 리미티드 홀 바 센서 보정을 위한 온도 제어
WO2021234515A1 (en) 2020-05-17 2021-11-25 Corephotonics Ltd. Image stitching in the presence of a full field of view reference image
WO2021245488A1 (en) 2020-05-30 2021-12-09 Corephotonics Ltd. Systems and methods for obtaining a super macro image
EP4045960A4 (de) 2020-07-15 2022-12-14 Corephotonics Ltd. Korrektur der aberration von ansichtspunkten in einer gefalteten abtastkamera
US11637977B2 (en) 2020-07-15 2023-04-25 Corephotonics Ltd. Image sensors and sensing methods to obtain time-of-flight and phase detection information
KR20240115258A (ko) 2020-07-31 2024-07-25 코어포토닉스 리미티드 큰 스트로크 선형 위치 감지를 위한 홀 센서-자석 구조
CN114424104B (zh) 2020-08-12 2023-06-30 核心光电有限公司 扫描折叠相机中的光学防抖
KR102629883B1 (ko) 2020-12-26 2024-01-25 코어포토닉스 리미티드 스캐닝 줌 카메라를 갖는 멀티-애퍼처 모바일 카메라에서의 비디오 지원
EP4127808A4 (de) 2021-03-11 2024-05-15 Corephotonics Ltd. Systeme für ausziehbare kamera
KR20240025049A (ko) 2021-06-08 2024-02-26 코어포토닉스 리미티드 슈퍼-매크로 이미지의 초점면을 틸팅하기 위한 시스템 및 카메라

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3341371C2 (de) * 1982-11-16 1989-09-21 Dainippon Ink And Chemicals, Inc., Tokio/Tokyo Verfahren und Einrichtung zum Erzeugen eines kombinierten Bildsignals
JPH07115534A (ja) * 1993-10-15 1995-05-02 Minolta Co Ltd 画像読取装置
US5287418A (en) * 1989-10-25 1994-02-15 Dainippon Screen Mfg. Co., Ltd. Method and apparatus for producing a corrected image from an original image
JP2917155B2 (ja) * 1989-12-18 1999-07-12 株式会社日立製作所 画像結合装置及び方法
US5185808A (en) * 1991-06-06 1993-02-09 Eastman Kodak Company Method for merging images
JPH07152895A (ja) * 1993-11-29 1995-06-16 Canon Inc 画像処理方法及び装置
JPH07221971A (ja) * 1994-02-01 1995-08-18 Canon Inc 画像処理方法及び装置
JP3192875B2 (ja) * 1994-06-30 2001-07-30 キヤノン株式会社 画像合成方法および画像合成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112006000358B4 (de) 2005-02-11 2019-07-04 Creative Technology Ltd Verfahren und Vorrichtung zur Erstellung eines Panoramabildes

Also Published As

Publication number Publication date
EP0810776A3 (de) 1998-11-25
EP0810776B1 (de) 2003-10-15
EP0810776A2 (de) 1997-12-03
US5982951A (en) 1999-11-09
DE69725505D1 (de) 2003-11-20

Similar Documents

Publication Publication Date Title
DE69725505T2 (de) Bildkombinationsgerät und -verfahren
DE69926205T2 (de) Artefaktentfernungstechnik für schiefenkorrigierte bilder
DE68926940T2 (de) Verfahren zur Erzeugung einer Abstufungskorrekturkurve zur Korrektur des Abstufungscharakters eines Bildes
DE69713243T2 (de) Bilderzeugungsgerät
DE69812882T2 (de) Verfahren zur bewegungskompensierten Mehrhalbbildverbesserung von Videostandbildern
DE4445386C1 (de) Verfahren und Vorrichtung zur Trennung einer Vordergrundinformation von einer Hintergrundinformation in einer Vorlage
DE69715076T2 (de) Vorrichtung zur Erzeugung eines Binärbildes
DE102008053460B4 (de) Objekterfassungssystem
DE69726421T2 (de) Projektor mit einer schaltung und verfahren zum automatischen einstellen des projektors
DE602006000400T2 (de) Bildsegmentierungsverfahren und -system
DE69601880T2 (de) Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio
DE19736696C2 (de) Bildverarbeitungsvorrichtung
DE69221665T2 (de) Verfahren zur Ermittlung einer Belichtung
DE69533054T2 (de) Mehrfenstertechnik zur Schwellenwertverarbeitung eines Bildes unter Verwendung lokaler Bildeigenschaften
DE69131591T2 (de) Bewegungsabhängige Videosignalverarbeitung
DE69625313T2 (de) Vorrichtung zur erzeugung von stanzsignalen, vorrichtung zur bilderstellung, verfahren zur erzeugung von stanzsignalen und verfahren zur bilderstellung
DE69230629T2 (de) Verfahren und Vorrichtung zur Bildverbesserung
DE69332397T2 (de) Mustererkennungsgerät
DE69736938T2 (de) Detektion und Wiedergabe von Text in gerasterten Bildbereichen
DE69519361T2 (de) Elektronischer Bildstabilisator und damit versehene Kamera
DE112008002819T5 (de) Autofokus-Bildsystem
DE60217589T2 (de) Vorrichtung und Verfahren zur Detektion von weissen Linien
DE69925354T2 (de) Bildverarbeitungssystem um vertikale Muster auf abgetasteten Bildern zu reduzieren
DE69923048T2 (de) Wirksames Testverfahren zum Klassifizieren der Bildqualität eines optischen Sensors unter Verwendung von drei Pixelkategorien
DE69518467T2 (de) Bildverarbeitungsgerät

Legal Events

Date Code Title Description
8364 No opposition during term of opposition