DE69920638T2 - Auflösungsverbesserung aus Mehrfach-Bildern einer Szene, die eine Bewegung in nichtganzzahligen Pixelwerten enthält - Google Patents

Auflösungsverbesserung aus Mehrfach-Bildern einer Szene, die eine Bewegung in nichtganzzahligen Pixelwerten enthält Download PDF

Info

Publication number
DE69920638T2
DE69920638T2 DE69920638T DE69920638T DE69920638T2 DE 69920638 T2 DE69920638 T2 DE 69920638T2 DE 69920638 T DE69920638 T DE 69920638T DE 69920638 T DE69920638 T DE 69920638T DE 69920638 T2 DE69920638 T2 DE 69920638T2
Authority
DE
Germany
Prior art keywords
resolution
low
pixel
image
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69920638T
Other languages
English (en)
Other versions
DE69920638D1 (de
Inventor
Regis J. Camas Crinon
Muhammed Ibrahim Camas Sezan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of DE69920638D1 publication Critical patent/DE69920638D1/de
Application granted granted Critical
Publication of DE69920638T2 publication Critical patent/DE69920638T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4069Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by subpixel displacements

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

  • Hintergrund der Erfindung
  • Die vorliegende Erfindung betrifft ein Erhöhen der Qualität von Hochauflösungs-Bildern, und insbesondere ein Erhöhen einer Auflösung an nicht-ganzzahligen Pixelpositionen für eine bestimmte Szene (als das Referenzbild bezeichnet) unter Verwendung mehrfacher Bilder der Szene.
  • Ein Erhöhen der Pixelauflösung eines Bilds über die Auflösung des Bildsensors hinaus über eine digitale Nachverarbeitung unter Verwendung mehrfacher Bilder stellt ein nützliches Mittel dar, um Hochqualitätsbilder mit Kameras zu erhalten, die mit kostengünstigen Niedrigauflösungs-Sensoren ausgestattet sind, oder um die physikalische Fähigkeit jedweden vorgegebenen Sensors auszuweiten und Bilder höherer Qualität zu erhalten.
  • Unterschiedliche Einzelbild-Interpolationstechniken werden verwendet, um die Menge einer Pixelinformation, die verwendet wird, um ein Bild darzustellen, zu erhöhen. Lineare Interpolationstechniken erhöhen den tatsächlichen Informationsinhalt eines Bilds nicht, sondern erhöhen einfach die Anzahl von Pixeln und Linien in dem Bild. Nichtlineare Interpolationstechniken benutzen eine A-priori-Information über den Bildaufbau (z.B. Richtung von Kanten und Bildobjektgeometrie) und können in manchen Fällen bessere Ergebnisse als die lineare Interpolation bereitstellen.
  • Unter Bezugnahme auf die 1 und 2 werden mehrfache Bilder 16 einer Szene verwendet, um die Bildauflösung zu verbessern. Die mehrfachen Bilder 16 können einzelne Aufnahmen, die von einer digitalen Standbildkamera aufgenommen sind, oder aufeinander folgende Rahmen/Felder sein, die von einer Videokamera aufgenommen sind. Eine neue Bildinformation ist in Bildproben (Pixeln) 17 der unterschiedlichen Bilder 16 enthalten, die durch eine relative Bewegung aufeinander bezogen sind. Dieses Verfahren ist in A. M. Tekalp, M. K. Ozkan and M. I. Sezan, "High resolution Image Reconstruction from Lower-resolution image sequences and space-varying Image Restoration", IEEE International Conference on Acoustics, Speech and Signal Processing, San Francisco, CA, Band III, März 1992, S. 169–172, beschrieben.
  • In diesem Verfahren wird ein Referenzbild 12 zuerst aus mehrfachen Bildern 16 gewählt. Eine Bewegungsinformation schließt ein Bewegungsvektorfeld 14 ein, das aus einem Niedrigauflösungs-Bild 16 auf dem Referenz-Niedrigauflösungs-Bild 12 abgeschätzt wird. Jedes Bewegungsvektorfeld 14 stellt den relativen Versatz von dem Bild 16 an jeder Pixelposition auf dem Referenzbild 12 dar. Bildproben aus dem Bild 16 werden auf das Referenzbild 12 abgebildet, um ein Hochauflösungs-Bild 19 unter Verwendung der Bewegungsvektoren 14 zu erzeugen. Das Bild 19 ist eine Hochauflösungs-Version der Szene, die in dem Referenzbild 12 aufgenommen ist. Neue Bildproben 20, die von den anderen Niedrigauflösungs-Bildern 16 abgeleitet sind, sind durch "x" in dem Hochauflösungs-Bild 19 gezeigt.
  • Das Niedrigauflösungs-Referenzbild 12 kann nicht in der Lage sein, ein Bilddetail, wie ein Bilddetail 10, in der Nachbarschaft der Niedrigauflösungs-Pixelproben 17 in dem Referenzbild 12 wiedergabegetreu aufzunehmen. Diese Unfähigkeit, ein Detail darzustellen, ist eine direkte Konsequenz des Nyquist-Theorems für ein- und mehrdimensional abgetastete Signale, das besagt, dass jedwedes Detail, das bei einer Frequenz gleich oder höher als die Hälfte der Abtastrate ist, in dem Bild 12 nicht wiedergabegetreu dargestellt werden kann. Jedoch kann aufgrund der Kamerabewegung, während elektronisch die Bilder 16 aufgenommen werden, oder der Bewegung in dem Bild, das von der Kamera zu unterschiedlichen Zeiten aufgenommen wird, das Bilddetail 10 eindeutig über die zusätzliche Bildinformation rekonstruiert werden, die in einem oder mehreren der Niedrigauflösungs-Bilder 16 aufgedeckt ist. Das Hochauflösungs-Bild 19 verwendet die Niedrigauflösungs-Proben 17 aus den anderen Bildern 16, um die zusätzlichen Bilddetails 10 zu rekonstruieren.
  • Unter Bezugnahme auf 2 zeigen Schnittpunkte gestrichelter Linien 18 Stellen der zusätzlichen Abtastgitterpunkte 20 (Pixel) an, die verwendet werden, um die Auflösung in dem Referenzbild 12 über seinen gegenwärtigen Auflösungspegel, der durch Quadrate 17 identifiziert ist, hinaus zu erhöhen. Wie in 2 veranschaulicht, werden die Proben x von den anderen Niedrigauflösungs-Bildern 16 im Allgemeinen in beliebige Zwischenpixelstellen abgebildet, die nicht mit irgendeiner Hochauflösungs-Zwischenpixelstelle 20 übereinstimmen. Probenstellen 20 bilden ein gleichförmiges Abtastgitter einer hohen Auflösung. Ein Erzeugen neuer Proben an diesen Stellen ist das letztliche Ziel jedweder Auflösungsverbesserungstechnik, da sämtliche Bildanzeigevorrichtungen auf der Grundlage eines gleichförmigen Abtastgitters arbeiten. Die ursprünglichen Niedrigauflösungs-Proben 17 und die neuen Proben x bilden Proben des Bilds einer höheren Auflösung über ein nicht-gleichförmiges Abtastgitter aus.
  • Ein sehr komplexer Interpolationsprozess ist erforderlich, um Pixelwerte für das Hochauflösungs-Bild 19 an gleichförmigen Gitterstellen 20 aus den nicht-gleichförmig angeordneten Proben x abzuleiten. Beispielsweise müssen mehrfache Proben 21 gleichzeitig von einem mehrdimensionalen digitalen Filter verwendet werden, um den Pixelwert an dem Hochauflösungs-Gitterpunkt 20A zu erzeugen. In typischer Weise können Proben an Gitterstellen 20 maximale Bilddetails aufgrund von Beschränkungen in der Größe der digitalen Filter, die zum Interpolieren der Proben x an der Stelle 20A verwendet werden, nicht aufnehmen. Zusätzlich besteht keine Garantie, dass jedwede Proben x in dem Stützbereich des digitalen Interpolationsfilters vorhanden sind, und folglich kann keine weitere Bildqualität gewonnen werden, wenn dies auftritt.
  • Ein ähnliches Verfahren zur Erzeugung eines Hochauflösungs-Standbilds aus Niedrigauflösungs-Bewegungsbildern ist in der US-A-5696848 offenbart. Dieses Verfahren schließt ein Erzeugen einer Abbildungstransformation für jedes Niedrigauflösungs-Bild ein, um Pixel in jedem Niedrigauflösungs-Bild in Stellen in dem Hochauflösungs-Bild abzubilden. Eine kombinierte Punktstreufunktion wird für jedes Pixel in jedem Niedrigauflösungs-Bild berechnet, indem die Abbildungstransformationen eingesetzt werden.
  • Dementsprechend verbleibt ein Bedarf zum Erzeugen von Hochauflösungs-Bildern unter Verwendung von Proben, die von anderen Bildern genommen werden, während die Qualität des Hochauflösungs-Bilds erhöht wird und die Komplexität des Prozesses, der verwendet wird, um das Hochauflösungs-Bild zu erzeugen, verringert wird.
  • Zusammenfassung der Erfindung
  • Ein Hochauflösungs-Bild wird aus mehrfachen Niedrigauflösungs-Bildern abgeleitet, die jeweils ein Feld von Niedrigauflösungs-Pixeln aufweisen. Die Niedrigauflösungs-Bilder stellen Niedrigauflösungs-Darstellungen einer Szene in unterschiedlichen Phasen bereit. Phasendifferenzen rühren von der nicht-ganzzahligen Pixelbewegung des Bildinhalts in der Zeit her. Eine Bewegung wird entweder durch den Bediener der Kamera absichtlich (Schwenken oder Zoomen) oder auf eine nicht kontrollierte Weise (freie Bewegung der Hand des Kamerabedieners) induziert. Eine Bewegung kann auch mechanisch in der optischen Vorrichtung der Kamera induziert werden. Bewegungsvektoren werden an jedem unbekannten Hochauflösungs-Gitterpunkt abgeleitet. Diese Bewegungsvektoren werden entweder von einem abgeschätzten Bewegungsvektorfeld oder von einem Bewegungsmodell abgeleitet, für welches die Parameter abgeschätzt worden sind oder auf irgendeine andere Weise verfügbar gemacht worden sind (siehe detaillierte Beschreibung der Erfindung). Folglich wird ein Bewegungsvektor an jedem der Hochauflösungs-Gitterstellen und für jedes der mehrfachen Niedrigauflösungs-Bilder erzeugt. Bewegungsvektoren gehen aus dem Referenzbild hervor und zeigen auf die Niedrigauflösungs-Bilder.
  • Die Bewegungsvektoren bilden die unbekannten Hochauflösungs-Abtastgitterpunkte auf Zwischenpixelpositionen auf den zugeordneten Niedrigauflösungs-Bildern ab. Für jedes Niedrigauflösungs-Bild werden Niedrigauflösungs-Pixel identifiziert, die den nächsten Abstand zu jeder Zwischenpixelposition aufweisen. Eines oder mehrere der identifizierten Niedrigauflösungs-Pixel, die einen kürzesten Abstand aufweisen, werden an jedem der Hochauflösungs-Gitterpunkte gewählt. Pixelintensitätswerte werden dann zurück auf die Hochauflösungs-Gitterpunkte gemäß der ausgewählten Niedrigauflösungs-Pixel abgebildet.
  • Ein Abbilden der Pixelintensitätswerte zurück auf die Hochauflösungs-Gitterpunkte in dem Referenzbild umfasst ein Interpolieren des Probenwerts an der Zwischenpixelposition von den ausgewählten Niedrigauflösungs-Pixeln, indem möglicherweise die zugeordneten Bewegungsvektoren oder Bewegungsparameter verwendet werden. Alternativ umfasst ein Abbilden der Pixelintensitätswerte ein direktes Abbilden der Werte der ausgewählten Niedrigauflösungs-Pixel zurück als den Pixelwert an den Hochauflösungs-Gitterstellen.
  • In einer anderen Ausführungsform der Erfindung wird ein Abstandsschwellenwert ausgewählt. Eine geschickte räumliche Interpolation oder eine kantenadaptive Interpolation wird verwendet, um Pixelwerte an den Hochauflösungs-Gitterstellen, die keine Pixel aufweisen, mit Abständen geringer als jenen des Abstandsschwellenwerts abzuleiten.
  • Die voranstehenden und anderen Aufgaben, Merkmale und Vorteile der Erfindung werden aus der folgenden detaillierten Beschreibung einer bevorzugten Ausführungsform der Erfindung auf einfache Weise offensichtlich werden, die unter Bezugnahme auf die zugehörigen Zeichnungen fortgesetzt wird.
  • Kurze Beschreibung der Zeichnungen
  • In den Zeichnungen zeigen:
  • 1 ein schematisches Diagramm nach dem Stand der Technik, das zeigt, wie Bewegungsvektoren, die anderen Bildern zugeordnet sind, zurück in ein Referenzbild abgebildet werden;
  • 2 ein schematisches Diagramm nach dem Stand der Technik einer nicht-gleichförmigen Interpolationstechnik, die zum Abbilden von Proben von den anderen Bildern auf das Referenzbild verwendet wird;
  • 3 ein schematisches Diagramm gemäß der Erfindung, das zeigt, wie Bewegungsvektoren, die Zwischenpixelstellen in dem Referenzbild entsprechen, verwendet werden, um auf Pixelstellen in den anderen Bildern zu zeigen;
  • 4 und 5 schematische Diagramme, die zeigen, wie Pixelintensitätswerte für Hochauflösungs-Gitterpunkte bestimmt werden;
  • 6 ein Flussdiagramm, das weiter zeigt, wie unbekannte Intensitätswerte bestimmt werden; und
  • 7 ein Blockdiagramm, das ein System zum Erzeugen von Hochauflösungs-Bildern zeigt.
  • Detaillierte Beschreibung
  • Unter Bezugnahme auf die 34 werden, anstelle eines Abbildens von Proben von jedem Bild 16 zurück auf das Referenzbild 12, Bewegungsvektoren 22, die jedem Hochauflösungs-Gitterpunkt 20 zugeordnet sind, verwendet, um den Hochauflösungs-Gitterpunkt 20 auf die anderen Niedrigauflösungs-Bilder 16 abzubilden. Die Niedrigauflösungs-Bildprobe, die am nächsten (gemäß einem bestimmten vordefinierten Abstandsmaß) zu der Zwischenpixelposition angeordnet ist, die durch die Bewegungsvektoren identifiziert ist, wird identifiziert und verwendet, um einen Bildintensitätswert an den Hochauflösungs-Gitterstellen 20 zu erzeugen. Es ist möglich, dass mehrere (im Gegensatz zu einer) "nächste" Niedrigauflösungs-Bildproben zum Zweck eines Berechnens der Bildintensität an jeder Hochauflö sungs-Gitterstelle 20 gehalten werden. Die Bewegungsvektoren 22 an den Hochauflösungs-Gitterpunkten 20 werden in dem Schritt 30 der 6 abgeschätzt. In einer Ausführungsform werden Bewegungsvektoren 22 von einem parametrischen Globalbewegungsmodell, wie etwa einem Verschiebungs-, einem affinen oder einem perspektivischen Modell, das zwei, sechs bzw. acht Parameter erfordert, unter Verwendung wohlbekannter Bewegungsmodellparameter-Abschätzungsverfahren in der Literatur, wie etwa jenes, das von S. Mann und R. W. Picard, "Video Orbits of The Projective Group: A New Perspective on Image Mosaicking", MIT Media Laboratory Technical Report Nr. 338, 1995, oder ihren Variationen gegeben ist, abgeleitet. Die Globalbewegungsparameter werden unter Verwendung des Niedrigauflösungs-Referenzbilds 12 und eines anderen Niedrigauflösungs-Bilds 16 abgeschätzt. Ein Bewegungsmodell wird zwischen dem Referenzbild 12 und jedem anderen Niedrigauflösungs-Bild 16 abgeschätzt. Alternativ können die Globalbewegungsparameter direkt von einer mechanischen/optischen Hilfsvorrichtung in der Kamera zugeführt werden. Sobald die Globalbewegungsparameter verfügbar sind, wird das Globalbewegungsmodell nachfolgend verwendet, um einen Pixelversatzvektor 22 an jeder Hochauflösungs-Probenstelle zu bestimmen.
  • Spezifischer weist jede Zwischenpixelposition 20 in dem Referenzbild 12 Versatzvektoren 22 auf, die auf beliebige Pixel- oder Zwischenpixelstellen in den Niedrigauflösungs-Bildern 16 zeigen. Wenn N Bilder 16 vorhanden sind, werden N-1 Vektoren 22 für jede Zwischenpixelposition 20 abgeschätzt. Die Erfindung bildet die entsprechenden Pixelintensitätswerte in den anderen Niedrigauflösungs-Bildern 16 in unbekannte Hochauflösungs-Gitterpunkte 20 in einem Hochauflösungs-Bild 19 ab.
  • Die neue Abbildungstechnik erzeugt neue Bildintensitätswerte an den unbekannten Hochauflösungs-Gitterstellen 20, während die Berechnungskomplexität, die erforderlich ist, um Werte von den anderen Bildern zurück auf das Hochauflösungs-Bild abzubilden und um nachfolgend eine nicht-gleichförmige Interpolation durchzuführen, verringert wird. Der Effekt des Abbildens besteht darin, ein eindeutiges (nicht-aliased) Bilddetail in der Nähe jeder neuen Hochauflösungs-Abtastgitterstelle 20 und Niedrigauflösungs-Probe 17 zu rekonstruieren. Es sei darauf hingewiesen, dass eine niedrige Zahl von Niedrigauflösungs-Bildern zu einem mehrfachen Verwenden der gleichen Niedrigauflösungs-Bildprobe führen kann.
  • In einer alternativen Ausführungsform werden Versatzvektoren 22 für jeden unbekannten Hochauflösungs-Gitterpunkt 20 unter Verwendung der Pixelbewegungsinformation 14 für die ursprünglichen Pixel 17 in dem Referenzbild 12 abgeschätzt, wo eine Pixelbewegungsinformation eine Bewegung zwischen dem Referenzrahmen 12 und anderen Niedrigauflösungs-Bildern 16 beschreibt. In diesem Fall kann die Pixelbewegungsinformation unter Verwendung wohlbekannter optischer Flusstechniken abgeschätzt werden, wie jener, die in J. L. Barron, D. J. Fleet und S. S. Beauchemin, "Performance of Optical Flow Techniques", International Journal of Computer Vision, Band 12, Nr. 1, 1994, S. 43–77, und in B. K. P. Horn und B. G. Schunck, "Determining Optical Flow", Artificial Intelligence, Band 17, 1981, S. 185–203, diskutiert sind. In diesem Fall werden die Bewegungsvektoren 22 von benachbarten Bewegungsvektoren, die aus den ursprünglichen Pixeln 17 abgeschätzt sind, unter Verwendung eines Mehrkanal-Interpolationsfilters abgeschätzt.
  • Ein Beispiel eines Mehrkanal-Interpolationsfilters zum Abschätzen von Bewegungsvektoren 22 aus einem Satz von benachbarten Bewegungsvektoren 17 ist der Vektormedianfilter. Der Vektormedianfilter ist von J. Astola, P. Haavisto, Y. Neuvo, "Vector Median Filters", Proceedings of the IEEE, Band 78, Nr. 4, April 1990, S. 678–689, definiert.
  • Ein Vektormedianfilter weist die Eigenschaften eines Identifizierens des repräsentativsten Vektors aus einem endlichen Satz von Eingangsvektoren auf. Die Identifikation eines derartigen Vektors wird durch ein Minimieren des Abstands von einem Vektor zu sämtlichen der anderen Vektoren in den Satz ausgeführt. Beispielsweise seien drei zweidimensionale Bewegungsvektoren angenommen, die die folgenden Werte annehmen: [1, 2], [3, 5] und [2, 10]. Unter Verwendung der Summe der absoluten Komponenten differenzen als eine Abstandsmetrik kann berechnet werden, dass der Abstand von dem ersten Vektor zu dem zweiten Vektor und dem dritten Vektor gleich 14 ist, der Abstand von dem zweiten zu dem ersten und dem dritten Vektor gleich 11 ist und der Abstand von dem dritten Vektor zu dem ersten und dem zweiten Vektor gleich 15 ist.
  • Der Ausgang des Vektormedianfilters ist in diesem Fall der Vektor [3, 5], weil er der nächste zu den anderen beiden Vektoren ist (11 ist der minimale Abstand unter 14, 11 und 15). Die Bewegungsschätzvektoren an den Niedrigauflösungs-Gitterpunkten 17 werden unter Verwendung eines bekannten optischen Flussfeld- oder einem Blockanpass-basierten Bewegungsschätzverfahren abgeschätzt, wie in M. Bierling, "Displacement Estimation by Hierarchical Block Matching", SPIE Band 1001, Visual Communications and Image Processing, 1988, S. 942–951 angegeben.
  • In noch einer anderen Ausführungsform kann ein Satz lokaler parametrischer Modelle aus den Bewegungsvektoren 14, die die Bewegung der Niedrigauflösungs-Pixel 17 in der Nähe des Hochauflösungs-Gitters beschreiben, abgeleitet werden. In diesem besonderen Fall können die Modellparameter von einem Hochauflösungs-Probenwert zu einem anderen variieren. Die Größe der Pixelnachbarschaft, die verwendet wird, um die Modellparameter abzuschätzen, hängt von der Ordnung des Modells ab. Beispielsweise wird, unter der Bedingung, dass die lokalen Bewegungsmodelle affine Bewegungsmodelle sind, eine endliche Zahl (zumindest sechs) von Niedrigauflösungs-Pixelentsprechungen in der Nähe jedes Hochauflösungs-Gitterpunkts 20 verwendet, um die Parameter jedes affinen Modells abzuschätzen. Das lokale Bewegungsmodell wird dann verwendet, um einen Versatzvektor bei dem Hochauflösungs-Gitter 20 abzuleiten. Diese oben beschriebenen Techniken sind Durchschnittsfachleuten wohlbekannt und werden deswegen im weiteren Detail nicht beschrieben. Sobald die Bewegungsvektoren 22, die den Hochauflösungs-Gitterstellen 20 zugeordnet sind, abgeschätzt sind, werden die Intensitätswerte von den anderen Bildern 16, die unter Verwendung der Bewegungsvektoren 22 erhalten werden, zurück auf die Hochauflösungs-Gitterpunkte 20 abgebildet.
  • Unter Bezugnahme auf die 5 und 6 sind N-1 Bewegungsvektoren 22(1)22(N-1) vorhanden, die jedem der Hochauflösungs-Gitterpunkte 20 in dem Referenzbild 12 zugeordnet sind. Jeder Bewegungsvektor 22 zeigt auf ein zugeordnetes der anderen N-1 Bilder 16 und wird in einem Schritt 30 abgeschätzt. Folglich sind N-1 Intensitätswert-Auswahlmöglichkeiten für jeden Hochauflösungs-Gitterpunkt 20 vorhanden. Unterschiedliche Auswahlkriterien werden verwendet, um die besten oder einen Satz der besten Intensitätswerte zum Abbilden in jeden Hochauflösungs-Gitterpunkt 20 auszuwählen.
  • Zwischenpixelpositionen 24 sind an jedem der Bilder 16 für jede N-1 Zwischenpixelposition 24 angeordnet, auf die die Vektoren 22 zeigen. Ein Abstand wird zu der nächsten ganzzahligen Pixelposition 26 (d.h. einer vorhandenen Niedrigauflösungs-Pixelprobe) in einem Schritt 32 bestimmt. Ein Paar (Ai, di) wird für jede der N-1 Zwischenpixelpositionen 24 für jeden Hochauflösungs-Gitterpunkt 20 abgeleitet. Der Wert Ai ist der Intensitätswert, der durch eine räumliche Interpolation an der Zwischenpixelposition 24 erhalten wird. Der Wert di ist der Abstand zwischen der nächsten Pixelposition 26 und der Zwischenpixelposition 24. Eine räumliche Interpolation ist Durchschnittsfachleuten wohlbekannt. Eine räumliche Nächste-Nachbar-Interpolation wird beispielsweise den Wert bei 26 an der Zwischenpixelposition 24 erzeugen. Eine bilineare räumliche Interpolation wird beispielsweise die vier nächsten Pixelwerte benutzen, die den Pixelwert bei 26 einschließen, um den Wert an der Zwischenpixelposition 24 zu interpolieren. Ein Wert Aj, der den kleinsten Abstand dj aufweist, wird in einem Schritt 34 bestimmt und wird nachfolgend in die Hochauflösungs-Pixelstelle 20 in einem Schritt 36 abgebildet. Es sei darauf hingewiesen, dass in dem Schritt 34 mehrere der nächsten Pixel (im Gegensatz zu nur dem nächsten) verwendet werden können. In diesem Fall verwendet der Interpolationsprozess die zugeordneten Abstandswerte, um den Probenwert an dem Hochauflösungs-Gitterpunkt 20 zu berechnen. Beispielsweise kann jeder Abstandswert verwendet werden, um einen Gewichtungsfaktor zu bestimmen, der den Beitrag des zugeordneten Probenwerts in dem endgültigen Bildprobenwert bei dem Gitterpunkt 20 spezifiziert. Beispielsweise weist in 5 der Bewegungsvektor 22(2), der auf das Bild 16 abgebildet ist, zu der Zeit t = t0 + 2 eine Zwischenpixelposition 24B auf, die am nächsten zu der existierenden Pixelposition 26B ist. Der Abstand di zwischen der Position 24B und 26B ist der kleinste Abstand für jedweden der Bewegungsvektoren 22 an einem Hochauflösungs-Punkt 20A. Der Pixelintensitätswert für die Gitterstelle 20A wird unter Verwendung einer räumlichen Interpolation abgeleitet.
  • Das in den 5 und 6 gezeigte Beispiel dient einer Auflösungsverbesserung von 2X, kann aber jedweder beliebige ganzzahlige oder rationale Wert sein. Wenn die Auflösungsverbesserung beispielsweise 4x ist, werden typischerweise zumindest sechzehn andere Bilder für die besten Ergebnisse verwendet. Wie oben beschrieben, können Bewegungsvektoren 22 durch ein parametrisches Bewegungsmodell erzeugt werden, dessen Parameter über eine optische Flussabschätzung oder über eine hierarchische Blockanpassung mit einer nicht-ganzzahligen Pixelverfeinerung abgeschätzt werden. Parametrische Bewegungsmodelle schließen affine und perspektivische Modelle ein und sind insbesondere nützlich, wenn eine Bildbewegung nur aufgrund einer Kamerabewegung vorhanden ist.
  • 7 ist ein Blockdiagramm, das das System zeigt, das zum Erzeugen des Hochauflösungs-Bilds 23 verwendet wird. Eine Kamera 38 nimmt mehrfache Niedrigauflösungs-Bilder 16 einer Szene auf. Eines der Bilder 16 wird als das Referenzbild 12 bezeichnet. Ein Prozessor 40 empfängt und speichert die mehrfachen Bilder 16 in einem Speicher 70. Der Prozessor 40 führt das Abbilden der Niedrigauflösungs-Proben in den Bildern 16 in das Referenzbild 12 durch, wie oben beschrieben, um das Hochauflösungs-Bild 19 zu erzeugen. Die Abbildungstechnik ist typischerweise in einer Software implementiert, die in den Prozessor 40 geladen ist, aber eine Hardware-Implementierung ist auch möglich, ohne von dem Umfang der Erfindung abzuweichen.
  • Andere Variationen dieser Technik sind möglich. Die Paare (Ai, di) und der kleinste Abstand dj sind identifiziert. Wenn dj größer als ein Schwellenwert T ist, dann wird eine zeitliche Verarbeitung (unter Verwendung von Bildern 16, die zu anderen Zeitpunkten aufgenommen sind) nicht für den bestimmten Hochauflösungs-Gitterpunkt 20 verwendet. Der Wert des Gitterpunkts 20 wird dann unter Verwendung einer geschickten räumlichen Interpolation bestimmt. Beispielsweise kann ein kantenadaptives Interpolationsverfahren, wie etwa das in S. D. Bayrakeri und R. M. Mersereau, "A New Method for Directional Image Interpolation", Proceedings of 1995 International Conference on Acoustics, Speech and Signal Processing, 1995, S. 2383–2386, vorgeschlagene verwendet werden.
  • In der oben beschriebenen Bewegungsvektorableitung kann ein zusätzliches Kriterium eingeführt werden, um die Genauigkeit der Bewegungsentsprechung zu testen. Obwohl der Bewegungsvektor 22 nahe an eine Pixelstelle 26 (5) zeigen kann, kann der Vektor aufgrund von Verdeckungen ungenau sein. Derartige Verdeckungen treten beispielsweise auf, wenn ein globaler Bewegungsparameter verwendet wird, um Bewegungsvektoren 22 abzuschätzen und ein Vordergrundobjekt über der Hintergrundszene vorhanden ist, das sich nicht gemäß dem globalen Bewegungsmodells bewegt. Um das Auftreten derartiger Fälle zu überwachen, wird ein lokaler Bewegungskompensationsfehler auf der Grundlage der Summe der Bildproben-Absolutdifferenz berechnet, die über einem Block benachbarter Bildpixel 17 in dem bezeichneten Bild 12 und der Nähe der Zielposition in dem (den) ausgewähltem(n) Niedrigauflösungs-Bild(ern) 16 berechnet wird. Dies kann als ein temporäres Hochpassfilter implementiert werden, das die Niedrigauflösungs-Pixelwerte, die den Hochauflösungs-Gitterpunkt umgeben, und die Niedrigauflösungs-Pixelwerte, die die Zielposition umgeben, einschließt. Ein höherer Fehlerwert zeigt an, dass die Bewegungsschätzung ungenau sein kann. In diesem Fall fällt der Algorithmus zurück zu einer geschickten räumlichen Interpolation. Es sind andere mögliche Wege eines Zuweisens dieses zusätzlichen Genauigkeitskriteriums vorhanden, das die Hochauflösungs-Abbildung, die oben beschrieben ist, beim Vorhandensein von Bewegungsschätzfehlern robust ausführt.
  • Anstelle eines Zurück-Abbildens des Werts Aj, der unter Verwendung der räumlichen Interpolation (z.B. bilinear) bestimmt ist, wird der Wert des nächsten Pixels direkt zurück auf die zugeordnete Hochauflösungs-Stelle 20 abgebildet (d.h. kopiert), d.h. indem eine räumliche Nächste-Nachbar-Interpolation implementiert wird.
  • Ein unverarbeiteter Ausgang einer ladungsgekoppelten Vorrichtung (Charged Couple Device, CCD) kann insbesondere verwendet werden, wenn die CCD ein Farbfilterfeld (CFA) einsetzt. Wenn dieses Muster bekannt ist, werden RGB-Werte (die als "unverarbeiteter CCD-Ausgang" bezeichnet werden) direkt (über einem spärlichen Satz von Gitterpunkten) verwendet, bevor diese Farbwerte gefiltert werden, um das Bild auf die volle RGB-Auflösung zu interpolieren. In einem derartigen Fall wird jeder Farbkanal unabhängig verarbeitet, wie oben beschrieben. Der Bewegungsschätzprozess kann jedoch nur auf einem der Farbfilter (typischerweise dem grünen Feld) durchgeführt werden. Eine Alternative besteht darin, eine Bewegungsschätzung in dem Luminanzkanal (d.h., einer linearen oder nicht-linearen Kombination der roten, grünen und blauen Kanäle) durchzuführen und sie dann beim Verarbeiten der RGB-Kanäle zu verwenden.
  • Eine wichtige Anwendung der Erfindung besteht darin, Hochauflösungs-Dokumentenbilder durch ein Bewegen einer Kamera zu erhalten, um mehrfache Bilder aufzunehmen und ihren Inhalt auf ein Bild einer höheren Auflösung nachfolgend abzubilden. Es ist möglich, die visuelle Qualität des Bilds einer verbesserten Auflösung durch eine Nachfilterung weiter zu erhöhen. Beispielsweise kann ein Wiener-Filter mit einer Gauß'schen Unschärfe-Punktstreufunktion angewandt werden, um eine Bildschärfe zu verbessern, wenn das Bild aufgrund einer Sensorintegration geringfügig unscharf ist.
  • Indem die Prinzipien der Erfindung in einer bevorzugten Ausführungsform davon beschrieben und veranschaulicht worden sind, sollte es offensichtlich sein, dass die Erfindung in Anordnung und Detail modifiziert werden kann, ohne von derartigen Prinzipien abzuweichen.

Claims (12)

  1. Verfahren zum Erzeugen eines Hochauflösungs-Bilds (19), das Proben über einem Feld von Hochauflösungs-Gitterpunkten (20) aufweist, die aus mehrfachen Niedrigauflösungs-Bildern (16) abgeleitet sind, die jeweils ein Feld von Niedrigauflösungs-Pixeln (17) aufweisen, umfassend: Ableitung von Bewegungsvektoren (22) der unbekannten Hochauflösungs-Gitterpunkte (20), wobei jeder der Bewegungsvektoren (22) einem der mehrfachen Niedrigauflösungs-Bilder (16) zugeordnet ist; Zuordnen der unbekannten Hochauflösungs-Gitterpunkte (20) zu Zwischenpixelpositionen (24) der zugeordneten Niedrigauflösungs-Bilder (16) unter Verwendung der Bewegungsvektoren (22); Identifizieren des Niedrigauflösungs-Pixels (17) in jedem der Niedrigauflösungs-Bilder (16), das den nächsten Abstand zu den Zwischenpixelpositionen aufweist; Auswählen eines oder mehrerer der identifizieren Niedrigauflösungs-Pixel (17) für jeden der Hochauflösungs-Gitterpunkte (20); und Abbilden von Pixelintensitätswerten in die Hochauflösungs-Gitterpunkte (20) gemäß der ausgewählten Niedrigauflösungs-Pixel.
  2. Verfahren nach Anspruch 1, wobei das Abbilden der Pixelintensitätswerte ein Interpolieren der Intensitätsprobenwerte an den abgebildeten Zwischenpixelpositionen (24) von den benachbarten Niedrigauflösungs-Pixeln umfasst.
  3. Verfahren nach Anspruch 1, wobei das Abbilden der Pixelintensitätswerte ein Abbilden der Intensitätswerte der Pixel, die am nächsten zu den abgebildeten Zwischenpixelpo sitionen (24) liegen, direkt als der Pixelwert an den Hochauflösungs-Gitterstellen (20A) umfasst.
  4. Verfahren nach Anspruch 1, wobei die Bewegungsvektoren (22) an den Hochauflösungs-Gitterpunkten (20) gemäß einem der folgenden Schritte abgeschätzt werden: a) Verwenden eines Median-Vektorwerts benachbarter Bewegungsvektoren für vorhandene Niedrigauflösungs-Pixel; b) Verwenden eines globalen oder lokalen parametrischen Bewegungsmodells, wie etwa eines translatorischen, eines affinen oder eines perspektivischen Modells, umfassend die Schritte: i) Anpassen des parametrischen Modells an eine Pixelbewegungsinformation, die zu den Niedrigauflösungs-Pixeln (17) gehört, die die Hochauflösungs-Gitterpunkte (20) umgeben; ii) Abschätzen der Bewegungsvektoren an den Hochauflösungs-Gitterpunkten (20) aus dem globalen parametrischen Bewegungsmodell.
  5. Verfahren nach Anspruch 4, einschließend ein Erzeugen eines Bewegungsvektors (22) an jeder der Hochauflösungs-Gitterstellen (20A) für jedes der mehrfachen Niedrigauflösungs-Bilder (16).
  6. Verfahren nach Anspruch 5, einschließend das Folgende: Auswählen eines Abstandsschwellenwerts; und Verwenden einer räumlichen und/oder zeitlichen kantenadaptiven Interpolation zum Ableiten von Pixelwerten an den Hochauflösungs-Gitterstellen (20A), wenn das Pixel, das den kürzesten Abstand zu der aufgezeichneten Zwischenpixelposition (24) aufweist, größer als der Abstandsschwellenwert ist.
  7. Verfahren nach Anspruch 5, einschließend ein Berechnen eines lokalen Bewegungskompensationsfehlers an jedem Hochauflösungs-Abtastgitterpunkt gemäß einer Summe von Probenintensitätsunterschieden von Pixelwerten in dem Niedrigauflösungs-Referenzbild (12) und in dem Niedrigauflösungs-Zielbild und Verwenden einer räumlichen und/oder zeitlichen kantenadaptiven Interpolation zum Ableiten von Pixelwerten an den Hochauflösungs-Gitterstellen (20A), wenn der Bewegungskompensationsfehler hoch ist.
  8. Verfahren nach Anspruch 5, einschließend das Folgende: Erzeugen mehrfacher Farbkanäle für jedes der mehrfachen Bilder (16); und Abbilden der Pixelintensitätswerte für die Hochauflösungs-Gitterstellen (20A) gemäß einem gemeinsamen Bewegungsabschätzungsmodell, das von einem oder mehreren Farbkanälen oder einer Luminanz abgeleitet ist.
  9. System zum Erzeugen eines Hochauflösungs-Bilds (19), umfassend: einen Prozessor (40) zum Aufnehmen mehrfacher Niedrigauflösungs-Bilder (16), die jeweils ein zugeordnetes Bewegungsinformationsfeld aufweisen, das eine relative Bewegung identifiziert, die auftritt, während die mehrfachen Niedrigauflösungs-Bilder erzeugt werden; und wobei der Prozessor (40) ein Hochauflösungs-Bild (19) aus Pixeln in den mehrfachen Niedrigauflösungs-Bildern (16) erzeugt, indem Bewegungsvektoren, die von den Hochauflösungs-Gitterpunkten (20) in dem Hochauflösungs-Bild herrühren, auf Zwischenpixelstellen in den Niedrigauflösungs-Bildern abgebildet werden und identifizieren, welche der Pixel in den mehrfachen Niedrigauflösungs-Bildern am nächsten zu den Zwischenpixelstellen angeordnet sind, und indem dann Bildintensitätswerte in die Hochauflösungs-Git terpunkte gemäß den identifizierten Pixeln in den Niedrigauflösungs-Bildern abgebildet werden.
  10. System nach Anspruch 9, wobei der Prozessor (40) einen Auflösungsfaktor des Hochauflösungsbilds (19) selektiv variiert, wobei der Prozessor (40) die Anzahl der Niedrigauflösungs-Bilder (16), die zum Erzeugen des Hochauflösungsbilds (19) verwendet werden, gemäß dem Auflösungsfaktor variiert.
  11. System nach Anspruch 9, einschließend ein Ableiten eines Median-Bewegungsvektors an jedem Hochauflösungs-Gitterpunkt (20) für jedes der Niedrigauflösungs-Bilder, indem ein Vektormedian von Bewegungsvektoren (22) an vorhandenen Niedrigauflösungs-Pixelstellen (26) in einer Referenz einer der mehrfachen Niedrigauflösungs-Bilder (16) genommen wird.
  12. System nach Anspruch 9, wobei der Prozessor das Pixel in jedem der Niedrigauflösungs-Bilder (16), das am nächsten zu den Zwischenpixelstellen angeordnet ist, anordnet und eines oder mehrere der angeordneten Pixel, die die kürzesten Abstände zu den Zwischenpixelstellen aufweisen, zum Erzeugen der Pixelwerte an den Hochauflösungs-Gitterpunkten auswählt.
DE69920638T 1998-12-21 1999-12-20 Auflösungsverbesserung aus Mehrfach-Bildern einer Szene, die eine Bewegung in nichtganzzahligen Pixelwerten enthält Expired - Lifetime DE69920638T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/217,150 US6285804B1 (en) 1998-12-21 1998-12-21 Resolution improvement from multiple images of a scene containing motion at fractional pixel values
US217150 1998-12-21

Publications (2)

Publication Number Publication Date
DE69920638D1 DE69920638D1 (de) 2004-11-04
DE69920638T2 true DE69920638T2 (de) 2005-11-24

Family

ID=22809858

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69920638T Expired - Lifetime DE69920638T2 (de) 1998-12-21 1999-12-20 Auflösungsverbesserung aus Mehrfach-Bildern einer Szene, die eine Bewegung in nichtganzzahligen Pixelwerten enthält

Country Status (4)

Country Link
US (1) US6285804B1 (de)
EP (1) EP1014305B1 (de)
JP (1) JP2000188680A (de)
DE (1) DE69920638T2 (de)

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100311482B1 (ko) 1999-10-21 2001-10-18 구자홍 보간 영상의 화질 개선을 위한 필터링 제어방법
US6650704B1 (en) * 1999-10-25 2003-11-18 Irvine Sensors Corporation Method of producing a high quality, high resolution image from a sequence of low quality, low resolution images that are undersampled and subject to jitter
KR100359115B1 (ko) * 2000-05-24 2002-11-04 삼성전자 주식회사 영상 코딩 방법
KR100396892B1 (ko) * 2000-10-05 2003-09-03 삼성전자주식회사 비디오 mp3 시스템, 축소 비디오데이터 생성장치와생성방법 및 축소 비디오데이터 복원장치 및 복원방법
WO2003001788A2 (en) * 2001-06-25 2003-01-03 Redhawk Vision Inc. Video event capture, storage and processing method and apparatus
US20080036886A1 (en) * 2001-06-29 2008-02-14 Hannigan Brett T Methods For Generating Enhanced Digital Images
US20030001862A1 (en) * 2001-06-29 2003-01-02 Chu Michael H. Method for the minimization of artifacts in full frame animations transferred to NTSC interlaced video
US7657123B2 (en) * 2001-10-03 2010-02-02 Microsoft Corporation Text document capture with jittered digital camera
US7123780B2 (en) * 2001-12-11 2006-10-17 Sony Corporation Resolution enhancement for images stored in a database
US7428019B2 (en) * 2001-12-26 2008-09-23 Yeda Research And Development Co. Ltd. System and method for increasing space or time resolution in video
DE10208287A1 (de) * 2002-02-26 2003-09-18 Koenig & Bauer Ag Verfahren zur Signalauswertung eines elektronischen Bildsensors und eine Anordnung zur Auswertung der Lage einer Körperkante eines Prüfkörpers
US7729563B2 (en) 2002-08-28 2010-06-01 Fujifilm Corporation Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
AU2003265075A1 (en) * 2002-10-22 2004-05-13 Koninklijke Philips Electronics N.V. Image processing unit with fall-back
US7596284B2 (en) * 2003-07-16 2009-09-29 Hewlett-Packard Development Company, L.P. High resolution image reconstruction
US7463816B2 (en) * 2003-09-18 2008-12-09 Cyberlink Corp. Method of encoding and decoding pictured data for enhancing image resolution
US7778493B2 (en) * 2003-10-09 2010-08-17 The Henry M. Jackson Foundation For The Advancement Of Military Medicine Inc. Pixelation reconstruction for image resolution and image data transmission
US7499494B2 (en) 2003-12-23 2009-03-03 Genesis Microchip Inc. Vector selection decision for pixel interpolation
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
US7457438B2 (en) 2003-12-23 2008-11-25 Genesis Microchip Inc. Robust camera pan vector estimation using iterative center of mass
US20050168589A1 (en) * 2004-01-30 2005-08-04 D. Amnon Silverstein Method and system for processing an image with an image-capturing device
JP4033198B2 (ja) * 2004-02-27 2008-01-16 カシオ計算機株式会社 画像処理装置、画像投影装置、画像処理方法及びプログラム
US7352919B2 (en) * 2004-04-28 2008-04-01 Seiko Epson Corporation Method and system of generating a high-resolution image from a set of low-resolution images
JP4184319B2 (ja) * 2004-06-10 2008-11-19 オリンパス株式会社 撮像装置
JP4367264B2 (ja) * 2004-07-12 2009-11-18 セイコーエプソン株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
CN1777287A (zh) * 2004-11-19 2006-05-24 株式会社Ntt都科摩 图像解码装置、程序、方法、及图像编码装置、程序、方法
US7773115B2 (en) * 2004-12-15 2010-08-10 Texas Instruments Incorporated Method and system for deblurring digital camera images using reference image and motion estimation
JP2006203463A (ja) * 2005-01-19 2006-08-03 Matsushita Electric Ind Co Ltd 画像表示方法、画像撮像方法、及び画像合成方法
US8577184B2 (en) * 2005-01-19 2013-11-05 The United States Of America As Represented By The Secretary Of The Army System and method for super-resolution imaging from a sequence of color filter array (CFA) low-resolution images
US7856154B2 (en) * 2005-01-19 2010-12-21 The United States Of America As Represented By The Secretary Of The Army System and method of super-resolution imaging from a sequence of translated and rotated low-resolution images
US7602997B2 (en) 2005-01-19 2009-10-13 The United States Of America As Represented By The Secretary Of The Army Method of super-resolving images
US8666196B2 (en) * 2005-01-19 2014-03-04 The United States Of America As Represented By The Secretary Of The Army System and method for super-resolution imaging from a sequence of color filter array (CFA) low-resolution images
CN2804798Y (zh) * 2005-06-21 2006-08-09 吴东明 一种带磁性装置的水平尺
JP5041141B2 (ja) * 2006-05-08 2012-10-03 富士ゼロックス株式会社 画像処理装置、画像拡大装置、画像符号化装置、画像復号化装置、画像処理システム及びプログラム
US8913833B2 (en) * 2006-05-08 2014-12-16 Fuji Xerox Co., Ltd. Image processing apparatus, image enlarging apparatus, image coding apparatus, image decoding apparatus, image processing system and medium storing program
JP4116649B2 (ja) * 2006-05-22 2008-07-09 株式会社東芝 高解像度化装置および方法
KR100808610B1 (ko) * 2006-06-13 2008-02-28 중앙대학교 산학협력단 영상융합 기술을 이용한 다중초점 디지털 영상복원 방법 및장치
JP4818053B2 (ja) 2006-10-10 2011-11-16 株式会社東芝 高解像度化装置および方法
JP4670058B2 (ja) * 2006-10-25 2011-04-13 国立大学法人東京工業大学 高解像度画像生成方法
US7714892B2 (en) * 2006-11-08 2010-05-11 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Systems, devices and methods for digital camera image stabilization
US20080212895A1 (en) * 2007-01-09 2008-09-04 Lockheed Martin Corporation Image data processing techniques for highly undersampled images
US8279341B1 (en) 2007-02-26 2012-10-02 MotionDSP, Inc. Enhancing the resolution and quality of sequential digital images
JP4826915B2 (ja) * 2007-02-28 2011-11-30 富士ゼロックス株式会社 画像処理装置、画像形成装置、及びプログラム
JP4872715B2 (ja) * 2007-03-02 2012-02-08 富士ゼロックス株式会社 画像処理装置及びプログラム
US8494234B1 (en) 2007-03-07 2013-07-23 MotionDSP, Inc. Video hashing system and method
JP4886583B2 (ja) * 2007-04-26 2012-02-29 株式会社東芝 画像拡大装置および方法
JP4490987B2 (ja) 2007-04-26 2010-06-30 株式会社東芝 高解像度化装置および方法
JP4826546B2 (ja) 2007-06-18 2011-11-30 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP4877090B2 (ja) * 2007-06-18 2012-02-15 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP2009037460A (ja) * 2007-08-02 2009-02-19 Sanyo Electric Co Ltd 画像処理方法、画像処理装置、及びこの画像処理装置を備えた電子機器
KR101341096B1 (ko) * 2007-09-12 2013-12-13 삼성전기주식회사 영상 복원 장치 및 방법
JP4874904B2 (ja) * 2007-09-13 2012-02-15 株式会社東芝 画像処理装置及びその方法
US8189105B2 (en) * 2007-10-17 2012-05-29 Entropic Communications, Inc. Systems and methods of motion and edge adaptive processing including motion compensation features
US20090110285A1 (en) * 2007-10-26 2009-04-30 Technion Research And Development Foundation Ltd Apparatus and method for improving image resolution using fuzzy motion estimation
JP4364272B2 (ja) * 2007-12-25 2009-11-11 株式会社東芝 画像処理装置および画像処理方法
US7961224B2 (en) * 2008-01-25 2011-06-14 Peter N. Cheimets Photon counting imaging system
US7941004B2 (en) * 2008-04-30 2011-05-10 Nec Laboratories America, Inc. Super resolution using gaussian regression
US20090295789A1 (en) * 2008-06-03 2009-12-03 Amlogic, Inc. Methods for Dynamically Displaying Digital Images on Digital Display Devices
JP4384242B1 (ja) 2008-06-30 2009-12-16 株式会社東芝 情報処理装置および画像処理方法
US8581906B2 (en) 2008-08-04 2013-11-12 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP2010041336A (ja) 2008-08-04 2010-02-18 Toshiba Corp 画像処理装置、および画像処理方法
JP4444354B2 (ja) 2008-08-04 2010-03-31 株式会社東芝 画像処理装置、および画像処理方法
US8270773B2 (en) 2008-08-04 2012-09-18 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP4427592B2 (ja) 2008-08-04 2010-03-10 株式会社東芝 画像処理装置、および画像処理方法
JP4435251B2 (ja) * 2008-08-29 2010-03-17 株式会社東芝 映像表示装置、映像再生装置、映像表示方法および映像再生方法
US8098262B2 (en) * 2008-09-05 2012-01-17 Apple Inc. Arbitrary fractional pixel movement
JP4504449B2 (ja) 2008-11-28 2010-07-14 株式会社東芝 情報処理装置およびプログラム
WO2010095460A1 (ja) 2009-02-19 2010-08-26 日本電気株式会社 画像処理システム、画像処理方法および画像処理プログラム
CA2760633A1 (en) * 2009-05-01 2010-11-04 Koninklijke Philips Electronics N.V. Systems and apparatus for image-based lighting control and security control
US20110102915A1 (en) * 2009-10-30 2011-05-05 Michael Pham Device to create high definition photos
CN102714726B (zh) 2010-01-15 2015-03-25 杜比实验室特许公司 使用元数据的用于时间缩放的边缘增强
WO2012050832A1 (en) 2010-09-28 2012-04-19 Google Inc. Systems and methods utilizing efficient video compression techniques for providing static image data
JP5653184B2 (ja) * 2010-11-11 2015-01-14 三菱電機株式会社 画像処理装置及び方法
US9615062B2 (en) 2010-12-30 2017-04-04 Pelco, Inc. Multi-resolution image display
JP5853372B2 (ja) * 2011-01-26 2016-02-09 富士通株式会社 画像処理装置および画像処理方法
US8750647B2 (en) 2011-02-03 2014-06-10 Massachusetts Institute Of Technology Kinetic super-resolution imaging
JP2012169765A (ja) * 2011-02-10 2012-09-06 Canon Inc 符号化装置
JP5778522B2 (ja) * 2011-08-23 2015-09-16 国立大学法人名古屋大学 画像処理装置、および画像処理プログラム
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
EP2727077A1 (de) * 2011-12-12 2014-05-07 Aselsan Elektronik Sanayi ve Ticaret Anonim Sirketi System und verfahren zur auflösungsverbesserung
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
US9544587B2 (en) 2012-05-14 2017-01-10 Google Technology Holdings LLC Scalable video coding with enhanced base layer
WO2014028068A1 (en) 2012-08-17 2014-02-20 Flextronics Ap, Llc Media center
EP2677733A3 (de) * 2012-06-18 2015-12-09 Sony Mobile Communications AB Arraykamera-Abbildungssystem und Verfahren
US9781447B1 (en) 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
US8913141B2 (en) 2012-06-28 2014-12-16 Gopro, Inc. Edge-based electronic image stabilization
KR101994295B1 (ko) * 2012-08-08 2019-06-28 삼성전자주식회사 단말기 및 상기 단말기에서 라이브이미지 생성방법
US9167268B1 (en) 2012-08-09 2015-10-20 Google Inc. Second-order orthogonal spatial intra prediction
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9344742B2 (en) 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction
US11368760B2 (en) 2012-08-17 2022-06-21 Flextronics Ap, Llc Applications generating statistics for user behavior
US9369732B2 (en) 2012-10-08 2016-06-14 Google Inc. Lossless intra-prediction video coding
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
US9009361B2 (en) 2013-06-25 2015-04-14 Kabushiki Kaisha Toshiba Video processing system, video output apparatus, video display apparatus and video processing method
CN104835440B (zh) * 2015-05-22 2017-08-29 京东方科技集团股份有限公司 图像的显示方法、显示装置
US10346956B2 (en) * 2015-07-22 2019-07-09 Panasonic Intellectual Property Management Co., Ltd. Image processing device
US10448010B2 (en) * 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4127873A (en) 1977-05-20 1978-11-28 Rca Corporation Image resolution enhancement method and apparatus
US4517599A (en) 1983-01-27 1985-05-14 Hughes Aircraft Company Resolution enhancement and zoom by degradation estimates
US4532548A (en) 1983-01-27 1985-07-30 Hughes Aircraft Company Resolution enhancement and zoom
EP0249113B1 (de) 1986-06-13 1991-01-09 Polaroid Corporation Elektronische Stehbildkamera mit erhöhter Auflösung
US5374963A (en) 1990-06-01 1994-12-20 Thomson Consumer Electronics, Inc. Picture resolution enhancement with dithering and dedithering
JP3131996B2 (ja) 1990-11-20 2001-02-05 株式会社リコー 画像の解像度変換方法
DE69226103T2 (de) 1991-02-22 1998-11-19 Canon Kk System zur Bildbearbeitung
KR940004433B1 (ko) 1991-02-26 1994-05-25 삼성전자 주식회사 샘플 엔드 홀드기법을 이용한 공간화소 이동방법과 그 장치
US5231502A (en) 1991-05-13 1993-07-27 Recon/Optical, Inc. Image information processing techniques for improving the resolution of scanned imaging systems
EP0525408A3 (en) 1991-07-01 1993-12-22 Eastman Kodak Co Method for multiframe wiener restoration of noisy and blurred image sequences
US5657402A (en) 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
US5251037A (en) 1992-02-18 1993-10-05 Hughes Training, Inc. Method and apparatus for generating high resolution CCD camera images
JP2989364B2 (ja) 1992-03-12 1999-12-13 シャープ株式会社 画像処理装置及び画像処理方法
US5579451A (en) 1992-05-30 1996-11-26 Kyocera Corporation Image output device and image control method for smoothing image or increasing image resolution by use of same
US5341174A (en) * 1992-08-17 1994-08-23 Wright State University Motion compensated resolution conversion system
US5442718A (en) 1992-09-07 1995-08-15 Sony Corporation Apparatus and method for storing and reproducing digital image data yielding high resolution and high quality video image data
US5579445A (en) 1993-12-17 1996-11-26 Xerox Corporation Image resolution conversion method that employs statistically generated multiple morphological filters
US5767987A (en) 1994-09-26 1998-06-16 Ricoh Corporation Method and apparatus for combining multiple image scans for enhanced resolution
US5696848A (en) 1995-03-09 1997-12-09 Eastman Kodak Company System for creating a high resolution image from a sequence of lower resolution motion images
US5579054A (en) 1995-04-21 1996-11-26 Eastman Kodak Company System and method for creating high-quality stills from interlaced video
WO1999033024A1 (en) 1997-12-22 1999-07-01 Koninklijke Philips Electronics N.V. Method and arrangement for creating a high-resolution still picture

Also Published As

Publication number Publication date
JP2000188680A (ja) 2000-07-04
DE69920638D1 (de) 2004-11-04
EP1014305B1 (de) 2004-09-29
EP1014305A1 (de) 2000-06-28
US6285804B1 (en) 2001-09-04

Similar Documents

Publication Publication Date Title
DE69920638T2 (de) Auflösungsverbesserung aus Mehrfach-Bildern einer Szene, die eine Bewegung in nichtganzzahligen Pixelwerten enthält
DE3850709T2 (de) Reduzierung der Bewegungsvektoren in Fernsehbildern.
DE602004009702T2 (de) Verfahren und System zur automatischen Reduzierung von Aliasing-Artefakten
DE60221757T2 (de) Verfahren und Vorrichtung zur gleichzeitigen Entfernung des Mosaikeffekts und Grössenänderung von Rohbilddaten
DE69218656T2 (de) Verfahren zur zeitlichen adaptiven Filterung von verrauschten Bildsequenzen
DE69332552T2 (de) Bestimmung der Position und der Bewegung einer Studiokamera unter Benutzung des Kamerabildes
DE69733882T2 (de) Kamera mit einem einzigen bildaufnehmer
DE69506856T2 (de) Verbessertes chromakey-system
DE69333846T2 (de) Verfahren zur mischung von bildern und vorrichtung hierzu.
EP0731600B1 (de) Erzeugung eines Bildes hoher Auflösung aus einer Sequenz von Bewegtbildern niedriger Auflösung
DE3854337T2 (de) Bewegungskompensierte Interpolation von digitalen Fernsehbildern.
DE69027479T2 (de) Bewegungsabhängige Videosignalverarbeitung
DE69019877T2 (de) Räumliche Interpolation von digitalen Videobildern.
DE3854171T2 (de) Bewertung von Bewegungsvektoren in Fernsehbildern.
DE3851786T2 (de) Auswahl eines Bewegungsvektors in Fernsehbildern.
DE69909635T2 (de) Gerät und verfahren zur elektronischen bildverbesserung
DE69028651T2 (de) Bewegungsabhängige Videosignalverarbeitung
DE69021431T2 (de) Bewegungsabhängige Videosignalverarbeitung.
DE112011102647T5 (de) Verfahren zur Herstellung von super-auflösenden Bildern und nicht-linearer Filter zu dessen Implementierung
DE69028792T2 (de) Bewegungsabhängige Videosignalverarbeitung
EP2791896B1 (de) Verfahren zur erzeugung von superaufgelösten bildern mit verbesserter bildauflösung und messvorrichtung
DE102016112968B4 (de) Bestimmung von Farbwerten für Pixel an Zwischenpositionen
DE102006038646A1 (de) Bildverarbeitungsvorrichtung für Farb-Bilddaten und Verfahren zur Bildverarbeitung von Farb-Bilddaten
US5191416A (en) Video signal processing system
DE69028239T2 (de) Bewegungsabhängige Videosignalverarbeitung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition