DE102013021989B4 - Vorhersageverbesserung für einen Teil von Videodaten, die auf einer Anzeigeeinheit erzeugt sind, die mit einer Datenverarbeitungseinrichtung verbunden ist - Google Patents

Vorhersageverbesserung für einen Teil von Videodaten, die auf einer Anzeigeeinheit erzeugt sind, die mit einer Datenverarbeitungseinrichtung verbunden ist Download PDF

Info

Publication number
DE102013021989B4
DE102013021989B4 DE102013021989.2A DE102013021989A DE102013021989B4 DE 102013021989 B4 DE102013021989 B4 DE 102013021989B4 DE 102013021989 A DE102013021989 A DE 102013021989A DE 102013021989 B4 DE102013021989 B4 DE 102013021989B4
Authority
DE
Germany
Prior art keywords
processing device
data processing
video
video block
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013021989.2A
Other languages
English (en)
Other versions
DE102013021989A1 (de
Inventor
Nilesh More
Anup Rathi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nvidia Corp
Original Assignee
Nvidia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nvidia Corp filed Critical Nvidia Corp
Publication of DE102013021989A1 publication Critical patent/DE102013021989A1/de
Application granted granted Critical
Publication of DE102013021989B4 publication Critical patent/DE102013021989B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/12Frame memory handling

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

Verfahren mit:Erkennen eines Batteriebetriebsmodus einer Datenverarbeitungseinrichtung (100);als Reaktion auf das Erkennen des Batteriebetriebsmodus:(a) Vorhersagen, durch einen Prozessor (102) der Datenverarbeitungseinrichtung (100), der kommunizierend mit einem Speicher (104) verbunden ist, eines Teils eines Videoblocks, auf den sich ein Anwender der Datenverarbeitungseinrichtung (100) wahrscheinlich während der Bilderzeugung des Teils auf einer Anzeigeeinheit (112), die mit der Datenverarbeitungseinrichtung (100) verbunden ist, konzentrieren wird, wobei der Videoblock ein Teil von dekodierten Videodaten ist; und(b) Erzeugen des Teils des Videoblocks als Bild auf der Anzeigeeinheit (112) mit einem erhöhten Pegel im Vergleich zu anderen Teilen davon durch den Prozessor (102) nach der Vorhersage des Teils des Videoblocks;wobei der Teils des Videoblocks vorhergesagt wird durch:Analysieren von Bewegungsvektoren, die zu dem Videoblock gehören, um eine Aktivität über einem Schwellwert zu ermitteln, durch den Prozessor (102); und/oderAnalysieren eines Audio-Inhalts, der zu dem Videoblock gehört, durch den Prozessor (102).

Description

  • TECHNISCHES GEBIET
  • Diese Offenbarung betrifft generell die Video-Nachverarbeitung und insbesondere ein Verfahren, eine Einrichtung und/oder ein System zur Vorhersageverbesserung für einen Teil von Videodaten, die auf einer Anzeigeeinheit erzeugt sind, die mit einer Datenverarbeitungseinrichtung verbunden ist.
  • HINTERGRUND
  • Eine Datenverarbeitungseinrichtung (beispielsweise ein Tischrechner, ein tragbarer Rechner, ein Klapp-Rechner, ein Netz-Rechner, ein Mobilgerät, etwa ein Mobiltelefon) kann Videodaten auf einer Anzeigeeinheit erzeugen (beispielsweise einer Flüssigkristallanzeige (LCD)), die damit verbunden ist. Um das Anwendererleben während der Betrachtung der Videodaten zu verbessern, kann die Datenverarbeitungseinrichtung eine oder mehrere Nachverarbeitungsalgorithmen ausführen, um die Videoqualität geeignet einzustellen. Die Ausführung des einen oder mehrere Nachverarbeitungsalgorithmen kann rechentechnisch aufwändig sein, woraus sich ein Verlust von Videoblöcken ergibt. Dieser Verlust von Videoblöcken kann das Anwendererleben beeinträchtigen trotz des einen oder der mehreren Nachverarbeitungsalgorithmen, die zur Verbesserung des Anwendererleben ausgeführt werden.
  • Die US 2010/0052575 A1 betrifft Systeme und Verfahren zum Erzeugen, Modifizieren und Anwenden von Hintergrundbeleuchtungsarray-Ansteuerungswerten. Teilweise werden Farbverhältnisse verwendet, um Hintergrundbeleuchtungsarray-Ansteuerungswerte zu bestimmen, die die Farbverschiebung bei Seitenansichtswinkeln reduzieren. Dabei können ebenso Hintergrundbeleuchtungsfarbwerte angepasst werden, um auch die Farbverschiebungen bei Blickwinkeln von der Seite zu reduzieren.
  • Die DE 60 2004 003 845 T2 betrifft eine Bildverarbeitungsvorrichtung zum Reduzieren von Rauschen in einem Originalbild enthaltend digitale Bilddaten, die entweder durch einen Röntgen-CT Scanner oder eine Diagnoseultraschallvorrichtung erfasst werden. Die bekannte Bildverarbeitungsvorrichtung umfasst einen Informationsrechner, der konfiguriert ist zum Berechnen von Informationen bezüglich einer Pixelwertänderung, die eine räumliche Änderung in Pixelwerten in jedem von vorbestimmten Bereichen auf dem Originalbild darstellt. Weiter weist die bekannte Bildverarbeitungsvorrichtung einen geglättetes-Bild-Erzeuger auf, der konfiguriert ist zum Erzeugen eines geglätteten Bildes durch Glätten des Originalbildes. Ferner umfasst die bekannte Bildverarbeitungsvorrichtung einen Gewichtungsfaktorrechner, der konfiguriert ist zum Berechnen eines Gewichtungsfaktors in Abhängigkeit von der berechneten Information bezüglich der Pixelwertänderung. Darüber hinaus weist die bekannte Bildverarbeitungsvorrichtung einen Verbesserer auf, der konfiguriert ist zum Verbessern von Hochfrequenzkomponenten von Pixeln des Originalbildes, um ein hochfrequenzkomponentenverbessertes Bild zu erzeugen. Schließlich umfasst die bekannte Bildverarbeitungsvorrichtung einen Gewichtsaddierer, der konfiguriert ist zum wechselseitigen Durchführen einer Gewichtungsaddition mit dem hochfrequenzkomponenten-verbesserten Bild und dem erzeugten geglätteten Bild unter Verwendung des Gewichtungsfaktors.
  • In der US 2011/0032430 A1 wird ein Videoanpassungssystem zum Verarbeiten von Videoinformation vorgeschlagen, das einen Bewegungsanalysator und ein Anpassungsmodul umfasst. Der Bewegungsanalysator bestimmt eine Bewegungspegelmetrik der Videoinformation basierend auf mindestens einem Bewegungsparameter. Die Anpassung passt einen anfänglichen dynamischen Lichtskalierungsfaktor an, um einen angepassten dynamischen Lichtskalierungsfaktor basierend auf dem Bewegungspegel bereitzustellen. Der dynamische Lichtskalierungsfaktor kann für die Luminanzkompensation und die Skalierung der Hintergrundbeleuchtung verwendet werden. Der Bewegungspegel kann auf jeder Art von Bewegungsinformation basieren, wie beispielsweise Bewegungsvektorinformation oder Information, die eine Szenenänderung anzeigt. Ein Verzerrungsmodul kann eine Verzerrungsbewertung der Videoinformation zum Berechnen des anfänglichen Skalierungsfaktors durchführen. Alternativ kann das Verzerrungsmodul einen Speicher aufweisen, der vorbestimmte Skalierungsfaktoren basierend auf einer statistischen Charakterisierung des Verzerrungspegels speichert.
  • Die US 2007/0242748 A1 betrifft Techniken zur selektiven Aufwärtskonvertierung der Videoframerate (FRUC) in einem Videodecodierer. Ein Videodecoder aktiviert oder deaktiviert FRUC selektiv basierend auf einem oder mehreren adaptiven Kriterien. Die adaptiven Kriterien können ausgewählt werden, um anzuzeigen, ob FRUC wahrscheinlich räumliche Artefakte einführt. Adaptive Kriterien können eine Bewegungsaktivitätsschwelle, eine Modusentscheidungsschwelle oder beides umfassen. Die Kriterien sind eher adaptiv als fest. Wenn die Kriterien anzeigen .dass ein Frame übermäßige Bewegung oder neuen Inhalt enthält, deaktiviert der Decoder FRUC.
  • Mehr und mehr werden dieselben Datenverarbeitungseinrichtungen sowohl stationär als auch mobil betrieben. Ausgehend von dem voranstehenden Stand der Technik besteht daher die Aufgabe, ein Verfahren zum Anzeigen von Videodaten bereitzustellen, dass den Besonderheiten eines sowohl stationären als auch mobilen Betriebs Rechnung trägt.
  • Diese Aufgabe wird durch den Gegenstand des Hauptanspruchs und der Nebenansprüche gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen beschrieben.
  • ÜBERBLICK
  • Es sind ein Verfahren, eine Einrichtung und/oder ein System zur Vorhersageverbesserung für einen Teil von Videodaten, die auf einer Anzeigeeinheit erzeugt sind, die mit einer Datenverarbeitungseinrichtung verbunden ist, offenbart.
  • In einem Aspekt umfasst ein Verfahren die Vorhersage, durch einen Prozessor einer Datenverarbeitungseinrichtung, der kommunizierend mit einem Speicher verbunden ist, eines Teils eines Videoblocks, auf den sich ein Anwender der Datenverarbeitungseinrichtung mit hoher Wahrscheinlichkeit während deren Bilderzeugung auf einer Anzeigeeinheit konzentrieren wird, die mit der Datenverarbeitungseinrichtung verbunden ist. Der Videoblock ist ein Teil von dekodierten Videodaten. Das Verfahren umfasst ferner die Bilderzeugung, durch den Prozessor, des Teils des Videoblocks auf der Anzeigeeinheit mit einem erhöhten Pegel im Vergleich zu anderen Bereichen davon, nach der Vorhersage des Teils des Videoblocks.
  • In einem weiteren Aspekt ist ein nicht-flüchtiges Medium offenbart, das für eine Datenverarbeitungseinrichtung lesbar ist und Befehle enthält, die darin ausgebildet sind, die durch die Datenverarbeitungseinrichtung ausführbar sind. Das nicht-flüchtige Medium umfasst Befehle, um durch einen Prozessor der Datenverarbeitungseinrichtung, der kommunizierend mit einem Speicher verbunden ist, einen Teil eines Videoblocks vorherzusagen, auf den sich ein Anwender der Datenverarbeitungseinrichtung wahrscheinlich während der Bilderzeugung des Blocks auf der Anzeigeeinheit konzentrieren wird, die mit der Datenverarbeitungseinrichtung verbunden ist. Der Videoblock ist Teil von dekodierten Videodaten. Das nicht-flüchtige Medium umfasst ferner Befehle, um durch den Prozessor den Teil des Videoblocks auf der Anzeigeeinheit mit einem erhöhten Pegel als Bild zu erzeugen im Vergleich zu anderen Bereichen davon, nach der Vorhersage des Teils des Videoblocks.
  • In einem noch weiteren Aspekt umfasst eine Datenverarbeitungseinrichtung einen Speicher mit dekodierten Videodaten darin, eine Anzeigeeinheit und einen Prozessor, der kommunizierend mit dem Speicher verbunden ist. Der Prozessor ist ausgebildet, Befehle auszuführen, um: einen Teil eines Videoblocks der dekodierten Videodaten, auf den sich ein Anwender der Datenverarbeitungseinrichtung wahrscheinlich während deren Bilderzeugung auf der Anzeigeeinheit konzentrieren wird, vorherzusagen, und um den Teil des Videoblocks auf der Anzeigeeinheit mit einem erhöhten Pegel im Vergleich zu anderen Teilen davon nach der Vorhersage des Teils des Videoblocks zu erzeugen.
  • Die hierin offenbarten Verfahren und Systeme können in beliebigen Einrichtungen zum Erreichen diverser Aspekte realisiert werden und können in Form eines nicht-flüchtigen maschinenlesbaren Mediums ausgeführt werden, das eine Gruppe von Befehlen enthält, die, wenn sie von einer Maschine ausgeführt werden, die Maschine veranlassen, jegliche hierin offenbarten Operationen auszuführen.
  • Weitere Merkmale gehen aus den begleitenden Zeichnungen und aus der folgenden detaillierten Beschreibung hervor.
  • Figurenliste
  • Die Ausführungsformen dieser Erfindung sind beispielhaft und nicht beschränkend in den Figuren der begleitenden Zeichnungen dargestellt, in denen gleiche Bezugszeichen ähnliche Elemente angeben, und in denen:
    • 1 eine schematische Ansicht einer Datenverarbeitungseinrichtung gemäß einer oder mehreren Ausführungsformen ist.
    • 2 eine schematische Ansicht eines Teils von Videodaten ist, die auf einer Anzeigeeinheit der Datenverarbeitungseinrichtung aus 1 als Bild erzeugt werden, auf den sich ein Anwender mit hoher Wahrscheinlichkeit konzentrieren wird, gemäß einer oder mehreren Ausführungsformen.
    • 3 eine schematische Ansicht ist einer Wechselwirkung zwischen einer Treiberkomponente und einem Prozessor und/oder der Anzeigeeinheit der Datenverarbeitungseinrichtung aus 1 gemäß einer oder mehreren Ausführungsformen.
    • 4 ein Prozessflussdiagramm ist, das Operationen detailliert angibt, die bei einer Vorhersageverbesserung für einen Teil von Videodaten beteiligt sind, die auf einer Anzeige als Bild erzeugt werden, die mit der Datenverarbeitungseinrichtung aus 1 gemäß einer oder mehreren Ausführungsformen verbunden ist.
  • Andere Merkmale der vorliegenden Ausführungsformen gehen aus den begleitenden Zeichnungen und aus der folgenden detaillierten Beschreibung ersichtlich.
  • DETAILLIERTE BESCHREIBUNG
  • Anschauliche Ausführungsformen, wie sie nachfolgend beschrieben sind, können eingesetzt werden, um ein Verfahren, eine Einrichtung und/oder ein System für eine Vorhersageverbesserung für einen Teil von Videodaten bereitzustellen, die auf einer Anzeigeeinheit als Bild erzeugt werden, die mit einer Datenverarbeitungseinrichtung verbunden ist. Obwohl die vorliegenden Ausführungsformen mit Bezug zu speziellen beispielhaften Ausführungsformen beschrieben sind, ist ersichtlich, dass diverse Modifizierungen und Änderungen an diesen Ausführungsformen vorgenommen werden können, ohne von dem breiteren Grundgedanken und dem Schutzbereich der diversen Ausführungsformen abzuweichen.
  • 1 zeigt eine Datenverarbeitungseinrichtung 100 gemäß einer oder mehreren Ausführungsformen. In einer oder mehreren Ausführungsformen kann die Datenverarbeitungseinrichtung 100 ein tragbarer Rechner, ein Tischrechner, ein Klapp-Rechner, ein Netz-Rechner, ein Tablett-Rechner oder ein Mobilgerät, etwa ein Mobiltelefon, sein. Andere Formen der Datenverarbeitungseinrichtung 100 sind ebenfalls im Schutzbereich der hierin erläuterten anschaulichen Ausführungsformen. In einer oder mehreren Ausführungsformen umfasst die Datenverarbeitungseinrichtung 100 einen Prozessor 102 (beispielsweise eine zentrale Recheneinheit (CPU), eine grafische Verarbeitungseinheit (GPU)), der kommunizierend mit einem Speicher 104 (beispielsweise ein flüchtiger Speicher und/oder ein nicht-flüchtige Speicher) verbunden ist; der Speicher 104 kann Speicherplätze enthalten, die so ausgebildet sind, dass sie durch den Prozessor 102 adressierbar sind.
  • In einer oder mehreren Ausführungsformen kann der Speicher 104 der Datenverarbeitungseinrichtung 100 Videodaten 116 enthalten (beispielsweise können die Videodaten 116 geladen und lokal in dem Speicher 104 gespeichert werden; die Videodaten 116 (beispielsweise ein Videostrom, eine Datei) können aus einer Datenquelle gesendet werden). In einer oder mehreren Ausführungsformen kann der Prozessor 102 eine geeignete Verarbeitung (beispielsweise Datenumwandlung) an den Videodaten 116 ausführen, um deren Bilderzeugung auf einer Anzeigeeinheit 112 zu ermöglichen, die mit der Datenverarbeitungseinrichtung 100 verbunden ist; 1 zeigt die Anzeigeeinheit 112 so, dass diese mit dem Prozessor 102 verbunden ist. In einer oder mehreren Ausführungsformen kann der Prozessor 102 eine Dekodierer-Einheit 120 (beispielsweise eine Gruppe von Befehlen) ausführen, um die Videodaten 116 vor deren Bilderzeugung zu dekodieren. In einer oder mehreren Ausführungsformen kann eine Nachverarbeitungseinheit 130 ebenfalls in dem Prozessor 102 ausgeführt werden; die Nachverarbeitungseinheit 130 kann ausgebildet sein, eine Ausgabe der Dekodierer-Einheit 120 zu empfangen und eine geeignete Verarbeitung daran auszuführen, bevor deren Erzeugung als Bild auf der Anzeigeeinheit 112 erfolgt, um den Leistungsverbrauch durch die Datenverarbeitungseinrichtung 100 zu reduzieren, wie nachfolgend beschrieben ist.
  • Ein Anwender 150 der Datenverarbeitungseinrichtung 100 wird seine Aufmerksamkeit gegebenenfalls hauptsächlich auf einen kleinen Teil seines Betrachtungsfeldes auf der Anzeigeeinheit 112 richten. Bei der Betrachtung durch den Anwender kann eine Netzhautgrube seines Auges verwendet werden, um auf den kleinen Teil des Betrachtungsfeldes zu fokussieren. Der verbleibende Teil des Betrachtungsfeldes kann von der peripheren Betrachtung eingenommen werden; die periphere Betrachtung ist hauptsächlich für die Erkennung der Bewegung verantwortlich ist nicht sehr empfindlich für Details in dem Betrachtungsfeld. Anders ausgedrückt, der Anwender 150 ist nicht sehr aufmerksam für feine Details (beispielsweise Farbdetails, Kanten, die einen Übergang des Intensitätspegels zwischen Pixel eines Videoblocks bezeichnen) eines großen Teils des Gesichtsfeldes, der der peripheren Betrachtung unterliegt. In einer oder mehreren Ausführungsformen können die genannten Eigenschaften der menschlichen Sehweise (oder der Sehweise des Anwenders) während der Nachverarbeitung der dekodierten Videodaten 116 ausgenutzt werden, um eine Leistungseinsparung zu erreichen.
  • In einer oder mehreren alternativen Ausführungsformen kann die Nachverarbeitungseinheit 130 ein Teil der Dekodierer-Einheit 120 sein; 1 zeigt die Nachverarbeitungseinheit 130 und die Dekodierer-Einheit 120 lediglich zum Zwecke einer beispielhaften Darstellung in getrennter Weise. 1 zeigt ferner Parameter (beispielsweise Video-Parameter 140), die mit den Videoblöcken 1221-N (beispielsweise als Teil der Videodaten 116 gezeigt) verknüpft sind, die in dem Speicher 104 gespeichert sind. Anschauliche Ausführungsformen, die hierin erläutert sind, können die Videoparameter 140 innerhalb des kleinen Teils des Betrachtungsfeldes verstärken, um eine Leistungseinsparung zu erreichen.
  • 2 zeigt einen Teil 202 der Videodaten 116, die auf der Anzeigeeinheit 112 als Bild zu erzeugen sind, auf den sich ein Anwender 150 wahrscheinlich gemäß einer oder mehreren Ausführungsformen konzentrieren wird. In einer oder mehreren Ausführungsformen werden zur Bestimmung des Teils 202 eines Videoblocks 1221-N der Videodaten 116 Bewegungsvektoren 190, die zu dem Videoblock 1221-N gehören, durch den Prozessor 102 analysiert. In einer oder mehreren Ausführungsformen können die Bewegungsvektoren 190 Makro-Blöcke des Videoblocks 1221-N auf der Grundlage einer oder mehrerer ihrer Positionen auf einem oder mehreren Referenz-Videoblöcken 1221-N repräsentieren. In einer oder mehreren Ausführungsformen kann der Prozessor 102 die Bewegungsvektoren 190 analysieren, um den Teil (beispielsweise den Teil 202) des Videoblocks 1221-N zu erfassen/abzuschätzen, der mit hoher Aktivität (beispielsweise eine Aktivität über einem Schwellwert) verknüpft ist. Da sich der Anwender 150 mit hoher Wahrscheinlichkeit auf „Bildschirm interne“ Bereiche der Anzeigeeinheit 112 konzentriert, die eine hohe Aktivität besitzen, kann der Teil 202 auf Grundlage eines hohen Betrags der Bewegungsvektoren 190 und/oder einer hohen Dichte davon bestimmt werden.
  • Es sollte beachtet werden, dass die zuvor genannte Bestimmung bzw. Ermittlung des Teils 202 nicht auf die Analyse der Bewegungsvektoren 190 beschränkt ist. In einem beispielhaften Szenario, wenn die Videodaten 116 ein Film sind, konzentriert sich der Anwender 150 mit hoher Wahrscheinlichkeit auf einen Sprecher (beispielsweise eine Hauptperson in dem Film). Daher kann der Teil 202 (beispielsweise durch den Prozessor 102) durch die Analyse des Audio-Inhalts des Videoblocks 1221-N ermittelt werden. In einer oder mehreren Ausführungsformen kann die Genauigkeit der Ermittlung des Teils 202 weiter verbessert werden auf der Grundlage von Daten, die aus vorhergehenden Ausführungen/Verarbeitungen gesammelt wurden.
  • In einer oder mehreren Ausführungsformen ist vor der Bilderzeugung des dekodierten Videoblocks 1221-N der Prozessor 102 ausgebildet, einen Nachverarbeitungsalgorithmus 198 (oder eine Gruppe aus Nachverarbeitungsalgorithmen 198; der Nachverarbeitungsalgorithmus ist als ein Teil der Nachverarbeitungseinheit 130 gezeigt) daran auszuführen, um die Videoqualität, die mit dem Teil 202 verknüpft ist, zu verbessern. In einer oder mehreren Ausführungsformen kann der Nachverarbeitungsalgorithmus 198 Elemente enthalten, etwa Reduzierung des Rauschens, Kantenverstärkung, dynamische Farb/Kontrasteinstellung, Einstellung des Verstärkers durch Softwareverarbeitung (Proc-Amp) und Entschachtelung und/oder Verstärkung/Skalierung der Videoparameter 140 (beispielsweise Auflösung). Es liegen auch andere Elemente für den Nachverarbeitungsalgorithmus 198 innerhalb des Schutzbereichs der hierin erläuterten anschaulichen Ausführungsformen.
  • In einer oder mehreren Ausführungsformen können die Abschätzung/Erfassung des Teils 202 und/oder die Bilderzeugung des Teils 202 mit erhöhtem Pegel durch die Treiberkomponente (beispielsweise eine Gruppe von Befehlen; wie dies später zu erläutern ist) in Gang gesetzt werden, die zu dem Prozessor 102 und/oder der Anzeigeeinheit 112 gehört. In einer oder mehreren Ausführungsformen muss der Nachverarbeitungsalgorithmus 198 nicht auf den vollständigen Videoblock 1221-N angewendet werden; es kann eine bloße Anwendung auf den Teil 202 ausreichend sein, da der Anwender 150 den Unterschied zwischen dem verstärkten Teil 202 des Videoblocks 1221-N und den nicht verstärkten Bereichen des Videoblocks 1221-N gegebenenfalls nicht wahrnimmt. In einer oder mehreren Ausführungsformen kann die Größe der Fläche der Anzeigeeinheit 112, auf die sich der Anwender 150 mit hoher Wahrscheinlichkeit konzentriert, von der Größe der Anzeigeeinheit 112 abhängen. Für Handgeräte, etwa Tablett-Rechner und intelligente Telefone, kann die zuvor genannte Fläche, auf die die Ansicht konzentriert wird, vergleichbar sein zu der Größe des Betrachtungsfeldes des Anwenders 150; daher kann die Wirksamkeit der Prozesse, die zuvor erläutert sind, mit zunehmender Größe der Anzeigeeinheit 112 zunehmen.
  • Es sollte beachtet werden, dass die Ausführung komplexer Nachverarbeitungsalgorithmen 198 auf gesamte Videoblöcke 1221-N durch Faktoren beschränkt sein kann, etwa die Verarbeitungsleistung, woraus sich ein Verlust von Blöcken ergibt. Anschauliche Ausführungsformen stellen Mittel bereit, um die komplexen Nachverarbeitungsalgorithmen 198 ohne das zuvor genannte Problem auszuführen, da die Komplexität auf den Teil 202 örtlich begrenzt ist. Alternativ kann ein komplexer Nachverarbeitungsalgorithmus 198 auf den Teil 202 angewendet werden und ein weniger komplexer Nachverarbeitungsalgorithmus 198 kann auf andere Teile des Videoblocks 1221-N angewendet werden.
  • Es sollte auch beachtet werden, dass die Verbesserung der Videoqualität, wie sie zuvor erläutert ist, nicht auf den als Bild erzeugtem Teil 202 mit einem erhöhtem Pegel beschränkt ist. In einer anschaulichen Ausführungsform wird der Teil 202 mit einem normalen Betriebsmodus als Bild erzeugt und andere Teile des Videoblocks 1221-N werden mit einem reduziertem Pegel als Bild erzeugt. Derartige Variationen liegen innerhalb des Schutzbereichs der hierin erläuterten anschaulichen Ausführungsformen. Ferner umfasst die Bilderzeugung des Teils 202 mit erhöhtem Pegel die Verarbeitung, die mit der Erhöhung des Intensitätspegels einer Hintergrundbeleuchtung 164 der Anzeigeeinheit 112 für den entsprechenden Bereich/Teil auf dem „Bildschirm“ davon einhergeht. 1 zeigt eine Hintergrundbeleuchtungstreiberschaltung 162 der Hintergrundbeleuchtung 164, die mit dem Prozessor 102 verbunden ist. Bei Erfassung/Abschätzung des Teils 202 ist der Prozessor 102 ausgebildet, ein Steuersignal an die Hintergrundbeleuchtungstreiberschaltung 162 zu senden, um den Intensitätspegel der Hintergrundbeleuchtung 164 für den Teil „auf dem Bildschirm“ zu erhöhen, der dem Teil 202 entspricht. Alternativ kann die Hintergrundbeleuchtungstreiberschaltung 162 den Intensitätspegel der Hintergrundbeleuchtung 164 für den Teil „auf dem Bildschirm“, der dem Teil 202 entspricht, beibehalten und kann die Intensität für andere Bereiche reduzieren.
  • 3 zeigt die Wechselwirkung zwischen einer Treiberkomponente 302 und dem Prozessor 102 und/oder der Anzeigeeinheit 112 gemäß einer oder mehreren Ausführungsformen. In einer oder mehreren Ausführungsformen ist die Treiberkomponente 302 ausgebildet, die Erfassung/Abschätzung des Teils 202 und/oder die Bilderzeugung des Teils 202 mit einem erhöhten Pegel in der Anzeigeeinheit 112 zu initiieren. Ein beispielhaftes Szenario zur Auslösung der zuvor genannten Prozesse kann beinhalten, dass der Anwender 150 die Datenverarbeitungseinrichtung 100 vom Modus mit Betrieb mit Wechselspannung auf einen Betriebsmodus mit Batterie umschaltet. Die zuvor genannte Umschaltung kann von dem Prozessor 102 in Verbindung mit der Treiberkomponente 302 erkannt werden. Alternativ ist der Prozessor 102 ausgebildet, eine Batterie der Datenverarbeitungseinrichtung 100 im Hinblick auf ihren Modus abzufragen (oder der Prozessor 102 kann den Betriebsmodus über ein Betriebssystem 188, das in der Datenverarbeitungseinrichtung 100 ausgeführt wird, erhalten). Sobald der Batteriemodus durch die Treiberkomponente 302 in Verbindung mit dem Prozessor 102 erfasst wird, können die zuvor erläuterten Prozesse initiiert werden.
  • Ferner kann der Anwender 150 die zuvor genannten Prozesse durch einen physischen Knopf, der auf der Datenverarbeitungseinrichtung 100 bereitgestellt ist, und/oder durch eine Anwenderschnittstelle einer Anwendung (beispielsweise Multimedia-Anwendung 196, die als Teil des Speichers 104 gezeigt ist), die auf der Datenverarbeitungseinrichtung ausgeführt wird, in Gang gesetzt werden. In einer oder mehreren Ausführungsformen kann die Treiberkomponente 302 mit dem Betriebssystem 188 (beispielsweise wiederum als Teil des Speichers 104 gezeigt) kombiniert sein, die in der Datenverarbeitungseinrichtung 100 und/oder der Multimedia-Anwendung 196 ausgeführt wird. Ferner können Befehle, die zu der Treiberkomponente 302 und/oder dem Nachverarbeitungsalgorithmus 198 gehören, in einem nicht-flüchtigen Medium (beispielsweise eine Kompaktdiskette (CD), eine digitale Videodiskette (DVD), eine Blu-ray-Diskette, eine Festplatte; geeignete Befehle können auf die Festplatte geladen werden) enthalten und ansprechbar sein, das von der Datenverarbeitungseinrichtung 100 gelesen werden kann.
  • 4 zeigt ein Prozessflussdiagramm, das die Operationen detailliert darstellt, die bei der Vorhersageverbesserung eines Teils 202 der Videodaten 116 beteiligt sind, die auf der Anzeigeeinheit 112 als Bild erzeugt werden, die mit der Daten Verarbeitungseinrichtung 100 verbunden ist, gemäß einer oder mehreren Ausführungsformen. In einer oder mehreren Ausführungsformen beinhaltet die Operation 402 die Vorhersage, durch den Prozessor 102, des Teils 202 der Videodaten 1221-N , auf den sich der Anwender 150 wahrscheinlich während der Bilderzeugung der Daten auf der Anzeigeeinheit 112 konzentrieren wird. In einer oder mehreren Ausführungsformen kann der Videoblock 1221-N ein Teil von den dekodierten Videodaten 116 sein. In einer oder mehreren Ausführungsformen kann dann die Operation 404 die Bilderzeugung des Teils 202 des Videoblocks 1221-N auf der Anzeigeeinheit 112 durch den Prozessor 102 mit einem erhöhten Pegel im Vergleich zu anderen Teilen davon gemäß der Vorhersage des Teils 202 des Videoblocks 1221-N beinhalten.
  • Obwohl die vorliegenden Ausführungsformen mit Bezug zu speziellen beispielhaften Ausführungsformen beschrieben sind, ist ersichtlich, dass diverse Modifizierungen und Änderungen an diesen Ausführungsformen vorgenommen werden können, ohne von dem breiteren Grundgedanken und Schutzbereich der diversen Ausführungsformen abzuweichen. Beispielsweise können die diversen Einrichtungen und Module, die hierin beschrieben sind, unter Anwendung von Hardware-Schaltungen (beispielsweise CMOS-basierte Logikschaltung), durch Firmware, durch Software oder durch eine Kombination aus Hardware, Firmware und Software (beispielsweise in einem nicht-flüchtigen maschinenlesbaren Mediums implementiert) aktiviert und betrieben werden. Beispielsweise können die diversen elektrischen Strukturen und Verfahren unter Anwendung von Transistoren, Logikgattern und elektrischen Schaltungen (beispielsweise anwendungsspezifische integrierte (ASIC) Schaltung und/oder eine digitale Signalprozessor-(DSP) Schaltung) eingerichtet werden.
  • Ferner ist zu beachten, dass die diversen Operationen, Prozesse und Verfahren, wie sie hierin offenbart sind, in einem nicht-flüchtigen maschinenlesbaren Medium und/oder einem Medium, auf das eine Maschine zugreifen kann, und das mit einem Datenverarbeitungssystem kompatibel ist (beispielsweise der Datenverarbeitungseinrichtung 100) eingerichtet sein können. Daher sind die Beschreibung und die Zeichnungen nur in einem anschaulichen und nicht in einem beschränkenden Sinne zu betrachten.

Claims (7)

  1. Verfahren mit: Erkennen eines Batteriebetriebsmodus einer Datenverarbeitungseinrichtung (100); als Reaktion auf das Erkennen des Batteriebetriebsmodus: (a) Vorhersagen, durch einen Prozessor (102) der Datenverarbeitungseinrichtung (100), der kommunizierend mit einem Speicher (104) verbunden ist, eines Teils eines Videoblocks, auf den sich ein Anwender der Datenverarbeitungseinrichtung (100) wahrscheinlich während der Bilderzeugung des Teils auf einer Anzeigeeinheit (112), die mit der Datenverarbeitungseinrichtung (100) verbunden ist, konzentrieren wird, wobei der Videoblock ein Teil von dekodierten Videodaten ist; und (b) Erzeugen des Teils des Videoblocks als Bild auf der Anzeigeeinheit (112) mit einem erhöhten Pegel im Vergleich zu anderen Teilen davon durch den Prozessor (102) nach der Vorhersage des Teils des Videoblocks; wobei der Teils des Videoblocks vorhergesagt wird durch: Analysieren von Bewegungsvektoren, die zu dem Videoblock gehören, um eine Aktivität über einem Schwellwert zu ermitteln, durch den Prozessor (102); und/oder Analysieren eines Audio-Inhalts, der zu dem Videoblock gehört, durch den Prozessor (102).
  2. Verfahren nach Anspruch 1, wobei die Bilderzeugung des Teils des Videoblocks mit einem erhöhten Pegel umfasst: Erhöhen einer Videoqualität, die mit dem Teil verknüpft ist, durch: Reduzierung des Rauschens und/oder Kantenverstärkung und/oder dynamische Farbeinstellung und/oder dynamische Kontrasteinstellung und/oder Einstellung eines Software-Verarbeitungsverstärkers und/oder Entschachtelung und/oder Skalierung mindestens eines Videoparameters, der mit dem Teil verknüpft ist; und/oder Senden eines Steuersignals an eine Hintergrundbeleuchtungstreiberschaltung einer Hintergrundbeleuchtung der Anzeigeeinheit (112), um einen Intensitätspegel der Hintergrundbeleuchtung einzustellen entsprechend dem Teil des Videoblocks und/oder den anderen Teilen davon; und/oder Beibehalten der Videoqualität, die mit dem Teil des Videoblocks verknüpft ist, und Reduzierung der Videoqualität, die mit den anderen Teilen des Videoblocks verknüpft ist.
  3. Verfahren nach einem der Ansprüche 1 oder 2, das ferner umfasst: Initiieren der Vorhersage des Teils und/oder dessen Bilderzeugung mit einem erhöhten Pegel durch eine Treiberkomponente, die zu dem Prozessor (102) und/oder der Anzeigeeinheit (112) gehört.
  4. Verfahren nach Anspruch 3, das umfasst: Bereitstellen der Treiberkomponente durch: Kombinieren der Treiberkomponente mit einem Betriebssystem, das in der Datenverarbeitungseinrichtung (100) ausgeführt wird, und/oder Kombinieren mit einer Anwendung, die in der Datenverarbeitungseinrichtung (100) ausgeführt wird.
  5. Verfahren nach Anspruch 3, das ferner umfasst: Auslösen der Initiierung der Vorhersage und/oder der Bilderzeugung durch: Erfassung der Betätigung eines physischen Knopfes auf der Datenverarbeitungseinrichtung (100) durch den Anwender und/oder einer Initiierung des Anwenders durch eine Anwenderschnittstelle einer Multimedia-Anwendung, die in der Datenverarbeitungseinrichtung (100) ausgeführt wird.
  6. Ein nicht-flüchtiges Medium, das von einer Datenverarbeitungseinrichtung (100) lesbar ist und Befehle enthält, die darin ausgebildet sind, die von der Datenverarbeitungseinrichtung (100) ausführbar sind, mit Befehlen zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 5.
  7. Eine Datenverarbeitungseinrichtung mit: einem Speicher (104), der darin dekodierte Videodaten enthält; einer Anzeigeeinheit (112); und einem Prozessor (102), der mit dem Speicher (104) kommunizierend verbunden ist, wobei der Prozessor (102) ausgebildet ist, Befehle auszuführen, um das Verfahren nach einem der Ansprüche 1 bis 5 auszuführen.
DE102013021989.2A 2013-06-07 2013-12-28 Vorhersageverbesserung für einen Teil von Videodaten, die auf einer Anzeigeeinheit erzeugt sind, die mit einer Datenverarbeitungseinrichtung verbunden ist Active DE102013021989B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/912,221 2013-06-07
US13/912,221 US9300933B2 (en) 2013-06-07 2013-06-07 Predictive enhancement of a portion of video data rendered on a display unit associated with a data processing device

Publications (2)

Publication Number Publication Date
DE102013021989A1 DE102013021989A1 (de) 2014-12-11
DE102013021989B4 true DE102013021989B4 (de) 2019-10-10

Family

ID=52005201

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013021989.2A Active DE102013021989B4 (de) 2013-06-07 2013-12-28 Vorhersageverbesserung für einen Teil von Videodaten, die auf einer Anzeigeeinheit erzeugt sind, die mit einer Datenverarbeitungseinrichtung verbunden ist

Country Status (4)

Country Link
US (1) US9300933B2 (de)
CN (1) CN104244013B (de)
DE (1) DE102013021989B4 (de)
TW (1) TW201447809A (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10163183B2 (en) * 2016-01-13 2018-12-25 Rockwell Collins, Inc. Rendering performance using dynamically controlled samples
KR102644126B1 (ko) * 2018-11-16 2024-03-07 삼성전자주식회사 영상 처리 장치 및 그 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602004003845T2 (de) 2003-02-13 2007-08-30 Kabushiki Kaisha Toshiba Bildverarbeitungsvorrichtung zur Reduktion von Pixelrauschen
US20070242748A1 (en) 2006-04-13 2007-10-18 Vijay Mahadevan Selective video frame rate upconversion
US20100052575A1 (en) 2008-08-30 2010-03-04 Feng Xiao-Fan Methods and Systems for Reducing View-Angle-Induced Color Shift
US20110032430A1 (en) 2009-08-06 2011-02-10 Freescale Semiconductor, Inc. Dynamic compensation of display backlight by adaptively adjusting a scaling factor based on motion

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5481275A (en) 1992-11-02 1996-01-02 The 3Do Company Resolution enhancement for video display using multi-line interpolation
US6078349A (en) 1995-06-07 2000-06-20 Compaq Computer Corporation Process and system for increasing the display resolution of a point-to-point video transmission relative to the actual amount of video data sent
JP3087826B2 (ja) * 1996-07-15 2000-09-11 日本電気株式会社 Mpeg符号化画像データ復号装置
US6466624B1 (en) 1998-10-28 2002-10-15 Pixonics, Llc Video decoder with bit stream based enhancements
US6940905B2 (en) * 2000-09-22 2005-09-06 Koninklijke Philips Electronics N.V. Double-loop motion-compensation fine granular scalability
JP4153202B2 (ja) * 2001-12-25 2008-09-24 松下電器産業株式会社 映像符号化装置
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US8345756B2 (en) 2006-08-31 2013-01-01 Ati Technologies, Inc. Method and system for parallel intra-prediction decoding of video data
WO2008028334A1 (en) * 2006-09-01 2008-03-13 Thomson Licensing Method and device for adaptive video presentation
KR101408698B1 (ko) * 2007-07-31 2014-06-18 삼성전자주식회사 가중치 예측을 이용한 영상 부호화, 복호화 방법 및 장치
EP2191458A4 (de) * 2007-08-19 2012-02-15 Ringbow Ltd Am finger getragene einrichtungen und diesbezügliche verfahren in der verwendung
US20110210931A1 (en) * 2007-08-19 2011-09-01 Ringbow Ltd. Finger-worn device and interaction methods and communication methods
US7952596B2 (en) * 2008-02-11 2011-05-31 Sony Ericsson Mobile Communications Ab Electronic devices that pan/zoom displayed sub-area within video frames in response to movement therein
US8130257B2 (en) * 2008-06-27 2012-03-06 Microsoft Corporation Speaker and person backlighting for improved AEC and AGC
US8136944B2 (en) 2008-08-15 2012-03-20 iMotions - Eye Tracking A/S System and method for identifying the existence and position of text in visual media content and for determining a subjects interactions with the text
US8723915B2 (en) 2010-04-30 2014-05-13 International Business Machines Corporation Multi-participant audio/video communication system with participant role indicator
KR20110131897A (ko) * 2010-06-01 2011-12-07 삼성전자주식회사 데이터 처리 방법 및 이를 수행하는 표시 장치
JP4994525B1 (ja) * 2011-01-26 2012-08-08 パナソニック株式会社 関節領域表示装置、関節領域検出装置、関節領域帰属度算出装置、関節状領域帰属度算出装置および関節領域表示方法
JP5782787B2 (ja) 2011-04-01 2015-09-24 ソニー株式会社 表示装置および表示方法
US20130009980A1 (en) * 2011-07-07 2013-01-10 Ati Technologies Ulc Viewing-focus oriented image processing
US8990843B2 (en) * 2012-10-26 2015-03-24 Mobitv, Inc. Eye tracking based defocusing
US9047042B2 (en) * 2013-04-19 2015-06-02 Qualcomm Incorporated Modifying one or more session parameters for a coordinated display session between a plurality of proximate client devices based upon eye movements of a viewing population

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602004003845T2 (de) 2003-02-13 2007-08-30 Kabushiki Kaisha Toshiba Bildverarbeitungsvorrichtung zur Reduktion von Pixelrauschen
US20070242748A1 (en) 2006-04-13 2007-10-18 Vijay Mahadevan Selective video frame rate upconversion
US20100052575A1 (en) 2008-08-30 2010-03-04 Feng Xiao-Fan Methods and Systems for Reducing View-Angle-Induced Color Shift
US20110032430A1 (en) 2009-08-06 2011-02-10 Freescale Semiconductor, Inc. Dynamic compensation of display backlight by adaptively adjusting a scaling factor based on motion

Also Published As

Publication number Publication date
CN104244013B (zh) 2018-02-02
DE102013021989A1 (de) 2014-12-11
US9300933B2 (en) 2016-03-29
CN104244013A (zh) 2014-12-24
US20140362296A1 (en) 2014-12-11
TW201447809A (zh) 2014-12-16

Similar Documents

Publication Publication Date Title
DE102013021991B4 (de) Adaptiver Filtermechanismus zur Entfernung von Kodierbildfehlern in Videodaten
DE102012006493B4 (de) Kameraimplementierung des Wählens und Stitchens von Einzelbildern für Panoramaaufnahmen
DE60307942T2 (de) Digitale Rauschverminderungstechniken
DE112016001040T5 (de) Verfahren und System zur Echtzeit-Rauschbeseitung und -Bildverbesserung von Bildern mit hohem Dynamikumfang
ATE488096T1 (de) Bildkomprimierung und dekomprimierung
DE112016005482T5 (de) Objektdetektion mit adaptiven Kanalmerkmalen
DE102017107664A1 (de) Bildanzeigevorrichtung zur Anzeige eines Bildes, Bildanzeigeverfahren zur Anzeige eines Bildes und Speichermedium
JP4731100B2 (ja) 鮮鋭度向上方法及び鮮鋭度向上装置
DE102017102952A1 (de) Eine Vorrichtung zum Erzeugen eines dreidimensionalen Farbbildes und ein Verfahren zum Produzieren eines dreidimensionalen Farbbildes
DE60306118T2 (de) Verfahren und system zum erhalten der besten bildqualität in einer einrichtung mit rarer energie
DE102013213047A1 (de) System, Verfahren und Computerprogrammprodukt zum Testen von Vorrichtungsparametern
DE112013000202T5 (de) Anzeigeverfahren und elektronische Vorrichtung
CN102598687A (zh) 计算视频图像中的模糊的方法和装置
DE112005003695T5 (de) Fehlerverteilung zum Stromsparen bei Anzeige-Bildspeichern
DE112015006587T5 (de) Adaptive Batch-Codierung für Slow-Motion-Videoaufzeichnung
CN107333027A (zh) 一种视频图像增强的方法和装置
DE102013021989B4 (de) Vorhersageverbesserung für einen Teil von Videodaten, die auf einer Anzeigeeinheit erzeugt sind, die mit einer Datenverarbeitungseinrichtung verbunden ist
DE112009002346T5 (de) Verarbeitung von Videodaten in Geräten mit eingeschränkten Ressourcen
DE112016002055T5 (de) Vorabrufcodierung für anwendungs-streaming
TW201242345A (en) Filter for video stream
DE102014113704A1 (de) Informationsverarbeitungseinrichtung und Informationsverarbeitungsverfahren
Banić et al. Puma: A high-quality retinex-based tone mapping operator
DE102020128902A1 (de) Bewegungsadaptive video-codierung
JP2009025862A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置
DE102011081541A1 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programmspeicherträger

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: KRAUS & WEISERT PATENTANWAELTE PARTGMBB, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final