DE112018006952T5 - Anzeigevorrichtung und Verfahren zur Bildverarbeitung dafür - Google Patents

Anzeigevorrichtung und Verfahren zur Bildverarbeitung dafür Download PDF

Info

Publication number
DE112018006952T5
DE112018006952T5 DE112018006952.4T DE112018006952T DE112018006952T5 DE 112018006952 T5 DE112018006952 T5 DE 112018006952T5 DE 112018006952 T DE112018006952 T DE 112018006952T DE 112018006952 T5 DE112018006952 T5 DE 112018006952T5
Authority
DE
Germany
Prior art keywords
image
display panel
screen
display
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018006952.4T
Other languages
English (en)
Inventor
Sungmin Hong
Changhyun LEE
Kwangyeon RHEE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of DE112018006952T5 publication Critical patent/DE112018006952T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/02Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes by tracing or scanning a light beam on a screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G3/2096Details of the interface to the display terminal specific for a flat panel
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/007Use of pixel shift techniques, e.g. by mechanical shift of the physical pixels or by optical shift of the perceived pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0233Improving the luminance or brightness uniformity across the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0257Reduction of after-image effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/043Preventing or counteracting the effects of ageing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/043Preventing or counteracting the effects of ageing
    • G09G2320/046Dealing with screen burn-in prevention or compensation of the effects thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0421Horizontal resolution change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0428Gradation resolution change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0442Handling or displaying different aspect ratios, or changing the aspect ratio
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

Die vorliegende Erfindung bezieht sich auf eine Anzeigevorrichtung und ein Verfahren zu deren Bildverarbeitung, bei der ein Eingabebild vergrößert und ein Teil des vergrößerten Bildes als ein Bild ausgewählt wird, das auf dem Bildschirm eines Anzeigefelds angezeigt werden soll, und es dadurch möglich ist, das Einbrennen des Bildschirms zu verhindern und ein Phänomen zu verhindern, bei dem Pixeldaten nicht vorhanden sind und somit ein Pixel schwarz erscheint, wenn ein Bild auf dem Bildschirm bewegt wird.

Description

  • [Technisches Gebiet]
  • Die vorliegende Offenbarung bezieht sich auf eine Anzeigevorrichtung und ein Bildverarbeitungsverfahren dafür, das in der Lage ist, ein Einbrennen aufgrund eines festen Musters zu verhindern, das auf einem Bildschirm eines Anzeigenfelds angezeigt wird.
  • [Stand der Technik]
  • Beispiele für Flachbildschirme sind eine Flüssigkristallanzeige (LCD), ein Plasmabildschirm (PDP), eine Anzeige mit organischen Leuchtdioden (OLED) und ähnliches.
  • Wenn bei diesen Anzeigegeräten Datenwerte bestimmter Pixel über einen langen Zeitraum beibehalten werden, kann es zu einer Bildkonservierung kommen. Insbesondere wenn die Pixelwerte bestimmter Pixel in der OLED-Anzeige über einen langen Zeitraum beibehalten werden, werden die Pixel degradiert, was zu einem Einbrennen führt. Das Einbrennphänomen weist auf eine nicht wiederherstellende Bildkonservierung hin, bei der OLEDs von Pixeln, die für lange Zeit ein festes Muster (z.B. Text, Bild usw.) in der OLED-Anzeige anzeigen, degradiert werden und das vorherige feste Muster sichtbar wird, selbst wenn ein anderes Bild auf den Pixeln angezeigt wird. Durch das Einbrennen wird also die Bildkonservierung auch in einem normalen Bild über den gesamten Bildschirm sichtbar.
  • [Offenbarung]
  • [Technisches Problem]
  • Eine Anzeige mit organischen Leuchtdioden (OLED) kann einen Orbitalgorithmus zum Verhindern von Bildkonservierung implementieren, das aus einem Einbrennphänomen resultiert. Der Orbitalgorithmus ist so konfiguriert, dass sich ein Bild mit einem festen Muster auf dem Bildschirm eines Anzeigefeld jedes Mal, z.B. alle paar Minuten, nach links und rechts und nach oben und unten bewegt. Der Orbitalgorithmus zerstreut die Verschlechterung der Pixel und mildert die Bildkonservierung durch periodisches Bewegen einer Stelle des festen Musters. Diese Methode hat jedoch den Nebeneffekt, dass Randpixel schwarz aussehen und somit eine Blende anscheinend größer wird, weil sich ein Bild mit der gleichen Größe wie die Bildschirmgröße des Anzeigefeldes bewegt. Das liegt daran, dass an einem Bildschirmrand außerhalb eines Bilds keine Pixeldaten in Pixeln vorhanden sind, wenn sich das Bild auf dem Bildschirm des Anzeigefelds bewegt. Auf Pixel, die keine Pixeldaten aufweisen, werden Daten einer vorbestimmten Schwarzgraustufe angewendet. Wenn sich ein Bild entlang einer vorbestimmten Richtung auf dem Bildschirm bewegt, ist also im bekannten Orbitalgorithmus ein Teil, der auf einer schwarzen Graustufe verarbeitet wird, weil keine Pixeldaten vorhanden sind, in der entgegengesetzten Richtung einer Bewegungsrichtung des Bilds sichtbar.
  • Die vorliegende Offenbarung stellt eine Anzeigevorrichtung und ein Bildverarbeitungsverfahren dafür bereit, die in der Lage sind, ein Einbrennen zu verhindern und ein Phänomen zu verhindern, bei dem ein dunkler Bereich an einem Bildschirmrand vergrößert wird.
  • [Technische Lösung]
  • In einem Aspekt ist eine Anzeigevorrichtung vorgesehen, die eine Bildverarbeitungseinheit umfasst, die dazu eingerichtet ist, ein zweites Bild durch Vergrößern eines ersten Bilds zu erzeugen und ein drittes Bild durch Auswählen eines Teils des zweiten Bilds zu erzeugen; und ein Anzeigefeld, das dazu eingerichtet ist, das von der Bildverarbeitungseinheit empfangene dritte Bild anzuzeigen.
  • In einem anderen Aspekt ist ein Bildverarbeitungsverfahren einer Anzeigevorrichtung bereitgestellt, das die folgenden Schritte umfasst: Vergrößern eines ersten Bilds, um ein zweites Bild zu erzeugen; Auswählen eines Teils des zweiten Bilds, um ein drittes Bild zu erzeugen; und Anzeigen des Bildes auf einem Bildschirm eines Anzeigefelds.
  • [Vorteilhafte Effekte]
  • Die vorliegende Offenbarung bewegt eine Position eines festen Musters, das auf einem Bildschirm eines Anzeigefeldes angezeigt wird, indem ein Eingabebild vergrößert wird, ein Ausschnittbereich im vergrößerten Bild als Bild ausgewählt wird, das auf dem Bildschirm des Anzeigefeldes angezeigt werden soll, und eine Position des Ausschnittbereichs bei Ablauf einer vorbestimmten Zeit verändert wird. Auf diese Weise kann die vorliegende Offenbarung ein Einbrennen aufgrund des auf dem Bildschirm angezeigten festen Musters verhindern und ein Phänomen verhindern, bei dem ein Teil, der schwarz erscheint, weil keine Pixeldaten vorhanden sind, sichtbar wird, wenn sich ein Bild auf dem Bildschirm bewegt.
  • Figurenliste
    • 1 zeit schematisch einen Bildverarbeitungsprozess gemäß einem Ausführungsbeispiel der vorliegenden Offenbarung.
    • 2 zeigt ein zweites Bild mit einem überscannten Bereich und ein drittes Bild, das in einem Ausschnittprozess ausgewählt wurde.
    • 3 zeigt ein Beispiel eines Variierens der Position eines dritten Bereichs, der auf einem Anzeigefeld angezeigt wird, in einem zweiten Bild durch Variieren der Position eines Ausschnittbereichs.
    • 4 ist ein Blockdiagramm, das eine Bildverarbeitungseinheit gemäß einem ersten Ausführungsbeispiel der vorliegenden Offenbarung zeigt.
    • 5 ist ein Blockdiagramm, das ein Anzeigegerät gemäß einem zweiten Ausführungsbeispiel der vorliegenden Offenbarung zeigt.
    • 6 und 7 sind Flussdiagramme, die ein Bildverarbeitungsverfahren gemäß einem Ausführungsbeispiel der vorliegenden Offenbarung zeigen.
    • 8 zeigt verschiedene Beispiele eines Anzeigegeräts.
    • 9 ist ein Blockdiagramm, das ein Beispiel für ein mobiles Endgerät schematisch zeigt.
    • 10 und 11 sind Blockdiagramme, die ein Beispiel für ein stationäres Anzeigegerät zeigen.
  • [Bester Modus)
  • [Modus der Erfindung]
  • Es wird nun im Einzelnen auf Ausführungsbeispiele der Offenbarung Bezug genommen, die in den beigefügten Figuren beispielhaft dargestellt sind. Wo immer möglich, werden in allen Figuren die gleichen Referenznummern verwendet, um auf gleiche oder ähnliche Teile zu verweisen. Im Allgemeinen kann ein Suffix wie „Modul“ und „Einheit“ verwendet werden, um auf Elemente oder Komponenten zu verweisen. Die Verwendung eines solchen Suffixes dient hier lediglich dazu, die Beschreibung der vorliegenden Offenbarung zu erleichtern, und das Suffix selbst soll keine besondere Bedeutung oder Funktion verleihen. Es wird darauf hingewiesen, dass auf eine detaillierte Beschreibung bekannter Techniken verzichtet wird, wenn festgestellt wird, dass die detaillierte Beschreibung der bekannten Techniken die Ausführungsbeispiele der Offenbarung unklar machen kann. Die begleitenden Figuren dienen dazu, verschiedene technische Merkmale leicht verständlich zu machen, und es sollte verstanden werden, dass die hier vorgestellten Ausführungsbeispiele nicht durch die begleitenden Figuren eingeschränkt sind. Als solche sollte die vorliegende Offenbarung so ausgelegt werden, dass sie sich auf alle Änderungen, Äquivalente und Ersatzstücke erstreckt, die zusätzlich zu den in den begleitenden Figuren speziell dargelegten Änderungen, Äquivalenten und Substituten vorgenommen werden.
  • Die Begriffe, die eine Ordnungszahl wie erste, zweite usw. enthalten, können zur Beschreibung verschiedener Komponenten verwendet werden, aber die Komponenten werden durch solche Begriffe nicht eingeschränkt. Die Begriffe werden nur zum Zweck der Unterscheidung einer Komponente von anderen Komponenten verwendet.
  • Wenn eine beliebige Komponente als mit einer anderen Komponente „verbunden“ oder „gekoppelt“ beschrieben wird, sollte dies so verstanden werden, dass noch eine weitere Komponente zwischen ihnen existieren kann, obwohl die beliebige Komponente direkt mit der anderen Komponente verbunden oder gekoppelt sein kann. Wenn dagegen eine Komponente als „direkt verbunden“ oder „direkt gekoppelt“ mit einer anderen Komponente beschrieben wird, sollte dies so verstanden werden, dass keine Komponente zwischen ihnen existiert.
  • Ein singulärer Ausdruck kann einen pluralen Ausdruck einschließen, solange er im Kontext keine scheinbar unterschiedliche Bedeutung aufweist.
  • In der vorliegenden Offenbarung sind die Begriffe „beinhalten“ und „aufweisen“ so zu verstehen, dass sie beabsichtigen, das Vorhandensein gezeigter Merkmale, Zahlen, Schritte, Operationen, Komponenten, Teile oder Kombinationen davon zu bezeichnen und nicht die Existenz eines oder mehrerer verschiedener Merkmale, Zahlen, Schritte, Operationen, Komponenten, Teile oder Kombinationen davon oder die Möglichkeit der Hinzufügung davon auszuschließen.
  • Ein Anzeigegerät, das in der vorliegenden Offenbarung beschrieben wird, kann als Anzeigegerät implementiert werden, wie z.B. TV, Smart-TV, Netzwerk-TV, Hybrid-Breitbandfernsehen (HBBTV), Internet-TV, Web-TV, Internet-Protokoll-Fernsehen (IPTV), Digital Signage, Desktop-Computer, Mobiltelefon, Smartphone, Laptop-Computer, digitales SendeEndgerät, persönlicher digitaler Assistent (PDA), tragbarer Multimedia-Player (PMP), Navigation, Slate PC, Tablet PC, Ultrabook und tragbares Gerät. Das tragbare Gerät umfasst eine intelligente Uhr, ein intelligentes Glas, ein Head Mounted Display (HMD) und Ähnliches. Das Anzeigegerät kann als PDP, LCD, OLED-Display, Quantenpunkt-Display (QD-Display), QD-LED-Display und ähnliches implementiert werden.
  • Die vorliegende Offenbarung vergrößert die Größe eines Eingabebilds und schneidet das vergrößerte Bild aus, um ein auf einem Bildschirm eines Anzeigefelds anzuzeigendes Bild auszuwählen. Die vorliegende Offenbarung zeigt das ausgeschnittene Bild auf dem Bildschirm an und variiert die Position eines Ausschnittbereichs jedes Mal zu einer vorbestimmten Zeit. Auf diese Weise kann die vorliegende Offenbarung ein Einbrennen verhindern und einen dunklen Teil, der sich am Rand des Bildschirms befindet und keine Pixeldaten enthält, minimieren, indem sie die Position eines festen Musters, das auf dem Bildschirm angezeigt wird, jedes Mal zu einem vorbestimmten Zeitpunkt bewegt.
  • Im Folgenden wird ein Eingabebild als „erstes Bild“, ein vergrößertes Bild als „zweites Bild“ und ein durch den Ausschnittprozess ausgewähltes Bild als „drittes Bild“ bezeichnet. Das dritte Bild ist ein Teil des zweiten Bilds. Daher wird das dritte Bild beim Ausschnittprozess mit der kleineren Größe als das zweite Bild ausgewählt.
  • Unter Bezugnahme auf 1 und 2 vergrößert ein Bildverarbeitungsverfahren gemäß der vorliegenden Offenbarung ein erstes Bild 10 auf eine Größe, die größer als die Bildschirmgröße eines Anzeigefelds ist, um ein zweites Bild 20 zu erzeugen. Das erste Bild 10 enthält ein festes Muster (z.B. Text, Bild usw.) 201, das das Einbrennen verursachen kann, und weist eine vorbestimmte Auflösung auf. Ein typisches Beispiel für ein festes Muster ist das Logo. Ein Anzeigegerät gemäß der vorliegenden Offenbarung verhindert das Einbrennen, indem es das erste Bild 10 mit dem festen Muster 201 auf dem Bildschirm des Anzeigefeldes bewegt.
  • Die Auflösung des ersten Bildes kann Win * Hin sein. Wenn eine Bildschirmauflösung des Anzeigefeldes B x H ist, wobei B und H eine natürliche Zahl sind, kann die vorliegende Offenbarung das erste Bild überscannen, um das erste Bild auf eine Größe vergrößern, die gleich oder größer als der Bildschirm des Anzeigefelds ist. Ein Beispiel für das Überscanverfahren beinhaltet ein Hochskalierungsverfahren zum Erhöhen der Auflösung des ersten Bilds. Als Ergebnis des Überscannens kann sich die Auflösung des zweiten Bildes auf (W+a) * (H+ß) erhöhen, wobei a eine natürliche Zahl ist, die größer als Null und kleiner als W ist, und ß eine natürliche Zahl ist, die größer als Null und kleiner als H ist.
  • Das Bildverarbeitungsverfahren gemäß der vorliegenden Offenbarung schneidet einen Teil des zweiten Bilds aus, das auf dem Bildschirm des Anzeigefelds angezeigt werden soll, um ein drittes Bild 30 zu erzeugen. Die Auflösung des zweiten Bilds 20 ist größer als eine Auflösung des Bildschirms des Anzeigefelds, und eine Auflösung des dritten Bildes 30 ist kleiner als die Auflösung des Bildschirms des Anzeigefelds. Da das dritte Bild 30 und der Bildschirm des Anzeigefelds eine sehr ähnliche Auflösung aufweisen, ist die Größe des dritten Bildes 30 der Bildschirmgröße des Anzeigefeldes sehr ähnlich. Die Auflösung des zweiten Bilds 20 erhöht sich durch die Hochskalierung weiter als die Auflösung des dritten Bilds 30, das auf dem Bildschirm des Anzeigefelds angezeigt wird.
  • Da das zweite Bild 20 weiter vergrößert ist als der Bildschirm des Anzeigefelds, ist im zweiten Bild 20 ein Überscan-Bild 21 vorhanden, das beim Ausschnittprozess nicht ausgewählt wird. Der Überscan-Bereich 21 ist ein Teil des zweiten Bilds 20, der nicht auf dem Bildschirm angezeigt wird.
  • Das Bildverarbeitungsverfahren gemäß der vorliegenden Offenbarung ändert eine Position des festen Musters 201 auf dem Bildschirm des Anzeigefelds, indem es die Position eines Ausschnittbereichs im zweiten Bild jedes Mal im Voraus ändert. Wenn sich die Position des Ausschnittbereichs ändert, ändern sich die Positionen des dritten Bilds 30 und des Überscan-Bereichs 21, die auf dem Bildschirm im zweiten Bild angezeigt werden. Das dritte Bild 30 ist ein ausgeschnittenes Bild, das beim Ausschnittprozess ausgewählt wurde.
  • Wie in 2 dargestellt, entfernt das Ausschnittverfahren Pixeldaten so weit wie der Überscan-Bereich 21, der an einer Kante des zweiten Bildes entlang einer X-Achsen-Richtung positioniert ist, und entfernt Pixeldaten so weit wie der Überscan-Bereich 21, der an einer Kante des zweiten Bildes entlang einer Y-Achsen-Richtung positioniert ist. Die Länge des Überscan-Bereichs 21 in Richtung der X-Achse ist „a“, und die Länge des Überscan-Bereichs 21 in Richtung der Y-Achse ist β. Als Ergebnis des Ausschneidens ist die Größe des dritten Bilds 30 genau gleich der Bildschirmgröße des Anzeigefelds. Da das dritte Bild 30 im zweiten Bild 20 ausgeschnitten wird, ist der schwarze Teil ohne Pixeldaten auf dem Bildschirm nicht sichtbar, selbst wenn sich das dritte Bild 30 auf dem Bildschirm bewegt.
  • Der Überscan-Bereich im zweiten Bild 20 variiert je nach einer Stelle, die beim Ausschneiden gelöscht wurde. In 2 ist x ein Versatz, der in Richtung der X-Achse entfernt wurde, und y ein Versatz, der in Richtung der Y-Achse entfernt wurde. x ist zwischen Null und a gewählt, und y ist zwischen Null und ß gewählt. Die oberen, unteren, linken und rechten Überscan-Breiten des zweiten Bildes 20 werden in Abhängigkeit von den Überscan-Verschiebungen x und y bestimmt. In der vorliegenden Offenbarung variiert das Ausschneidungsverfahren die Überscan-Verschiebungen x und y jedes Mal, so dass sich das auf dem Bildschirm angezeigte feste Muster bewegt.
  • 3 zeigt ein Beispiel für das Variieren der Position eines dritten Bereichs, der auf einem Anzeigefeld angezeigt wird, in einem zweiten Bild durch Variieren der Position eines Ausschnittbereichs.
  • Unter Bezugnahme auf 3 variiert ein Bildverarbeitungsverfahren gemäß der vorliegenden Offenbarung die Position eines dritten Bilds 30 in einem zweiten Bild 20, indem es die Position eines Ausschnittbereichs im zweiten Bild 20 jedes Mal zu einer vorbestimmten Zeit ändert.
  • In 3 zeigt ein Punkt, der am obersten Ende und an der äußersten linken Seite des dritten Bildes positioniert ist, eine erste Pixeldatenposition an, die auf einem ersten Pixel, das am obersten Ende und an der äußersten linken Seite auf dem Bildschirm des Anzeigefeldes positioniert ist, angezeigt wird.
  • Die Position des Ausschnittbereichs wird in Abhängigkeit von den Überscan-Verschiebungen x und y bestimmt. In (A) von 3 sind die Überscan-Verschiebungen x und y x = 0 und y = 0. In (A) wird das dritte Bild 30 als ein Bild gewählt, das von der Mitte des zweiten Bilds 20 um β nach oben und von der Mitte des zweiten Bilds 20 um ‚a‘ nach links verschoben ist. In (A) ist die erste Pixeldatenposition des dritten Bilds 30 (x=0, y=0) und ist die gleiche Position wie die ersten Pixeldaten des zweiten Bilds 20.
  • In (B) von 3 sind die Überscan-Offsets x und y x = a und y = 0. In (B) wird das dritte Bild 30 als ein Bild gewählt, das von der Mitte des zweiten Bilds 20 um β nach oben und von der Mitte des zweiten Bilds 20 um ‚a‘ nach rechts verschoben ist. In (B) ist die erste Pixeldatenposition des dritten Bilds 30 (x=a, y=0). Die erste Pixeldatenposition (x=0, y=0) des zweiten Bilds 20 wird nicht verändert und existiert im Überscan-Bereich.
  • In (C) von 3 sind die Überscan-Offsets x und y x = 0 und y = β. In (C) wird das dritte Bild 30 als ein Bild gewählt, das von der Mitte des zweiten Bilds 20 um β nach unten und von der Mitte des zweiten Bilds 20 um ‚a‘ nach links verschoben ist. In (C) ist die erste Pixeldatenposition des dritten Bilds 30 (x=0, y=ß). Die erste Pixeldatenposition (x=0, y=0) des zweiten Bilds 20 wird nicht verändert und existiert im Überscan-Bereich.
  • In (D) von 3 sind die Überscan-Offsets x und y x = a und y = β. In (D) wird das dritte Bild 30 als ein Bild gewählt, das von der Mitte des zweiten Bilds 20 um β nach unten und von der Mitte des zweiten Bilds 20 um ‚a‘ nach rechts verschoben ist. In (D) ist die erste Pixeldatenposition des dritten Bilds 30 (x=a, y=ß). Die erste Pixeldatenposition (x=0, y=0) des zweiten Bilds 20 wird nicht verändert und existiert im Überscan-Bereich.
  • Das Bildverarbeitungsverfahren gemäß der vorliegenden Offenbarung variiert die Position des Ausschnittbereichs jedes Mal nach Ablauf einer vorbestimmten Zeit, so dass sich das feste Muster 201 auf dem Bildschirm des Anzeigefeldes bewegt. Zum Beispiel kann sich das dritte Bild 30 in der Reihenfolge (A), (B), (C) und (D) von 3 um einen Pixel bewegen, so dass sich das dritte Bild 30 im zweiten Bild 20 alle 3 Minuten im Uhrzeigersinn bewegt. Ausführungsbeispiel sind jedoch nicht darauf beschränkt. Beispielsweise können der Ausschnittort und die Ausschnittreihenfolge des dritten Bilds 30 im zweiten Bild 20 in verschiedenen Verfahren gewählt werden.
  • Das Bildverarbeitungsverfahren gemäß der vorliegenden Offenbarung kann das feste Muster 201 bewegen und gleichzeitig die Leuchtdichte des festen Musters 201 so steuern, dass sie geringer ist als die Leuchtdichte eines festen Musters in einem Eingangsbild, d.h. dem ersten Bild, wobei die oben beschriebene Verfahren zur Veränderung der Lage des Ausschnittbereichs verwendet werden, um den Effekt der Unterdrückung des Einbrennphänomens zu verstärken.
  • 4 ist ein Blockdiagramm, das ein Anzeigegerät gemäß eines ersten Ausführungsbeispiels der vorliegenden Offenbarung zeigt.
  • Unter Bezugnahme auf 4 umfasst ein Anzeigegerät gemäß der vorliegenden Offenbarung eine Bildverarbeitungseinheit 100 und eine Anzeige 200. Die Bildverarbeitungseinheit 100 umfasst eine Bildanalyseeinheit 101, einen Überscan-Generator 102 und eine Ausschnittverarbeitungseinheit 103.
  • Die Bildanalyseeinheit 101 analysiert die Pixeldaten eines ersten Bilds 10 und ermittelt ein festes Muster 201, das das Einbrennphänomen verursachen kann. Die Bildanalyseeinheit 101 kann das erste Bild 10 mit einem Bildvergleichsverfahren analysieren und ein festes Muster ermitteln, das keine Bewegung im ersten Bild aufweist.
  • Der Überscan-Generator 102 erzeugt Pixeldaten eines zweiten Bildes 20, dessen Auflösung durch Hochskalieren des ersten Bilds 10 so erhöht wird, dass sie größer ist als die Bildschirmauflösung des Anzeigefelds. Der Überscan-Generator 102 erzeugt das zweite Bild 20, wenn das erste Bild 10 mit dem festen Muster 201 unter der Steuerung der Bildanalyseeinheit 101 eingegeben wird, und wandelt eine Auflösung des ersten Bilds 10 in eine Auflösung des Anzeigefelds um, wenn das erste Bild 10 ohne das feste Muster 201 eingegeben wird.
  • Die Ausschnittverarbeitungseinheit 103 schneidet das zweite Bild 20, das vom Überscan-Generator 102 eingegeben wird, aus, wählt ein drittes Bild 30 aus, das auf dem Bildschirm des Anzeigefelds im zweiten Bild 20 angezeigt wird, und überträgt die Pixeldaten des dritten Bilds 30 an die Anzeige 200. Die Ausschnittverarbeitungseinheit 103 überträgt keine Pixeldaten des Überscan-Bereichs 21, der als Überscan-Versatz x und y definiert ist, an die Anzeige 200.
  • Wenn im ersten Bild 10 kein festes Muster 201 vorhanden ist, kann der Überscan-Generator 102 die Auflösung des ersten Bilds 10 so konvertieren und ausgeben, dass sie der Auflösung des Anzeigefelds 100 entspricht. In diesem Fall kann die Ausschnittverarbeitungseinheit 103 die Pixeldaten des ersten Bilds 10 vom Überscan-Generator 102 zu der Anzeige 200 ohne die Ausschnittverarbeitung umgehen, da es sich um Pixeldaten des ersten Bilds 10 handelt.
  • 5 ist ein Blockdiagramm, das ein Anzeigegerät gemäß eines zweiten Ausführungsbeispiels der vorliegenden Offenbarung zeigt. In 5 werden Komponenten, die im Wesentlichen mit den in 4 dargestellten Komponenten identisch sind, mit den gleichen Bezugszeichen bezeichnet, und ihre Beschreibung wird weggelassen.
  • Gemäß 5 umfasst die Bildverarbeitungseinheit 100 eine Bildanalyseeinheit 101, eine Leuchtdichteeinstelleinheit 104, einen Überscan-Generator 102 und eine Ausschnittverarbeitungseinheit 103.
  • Die Leuchtdichteeinstelleinheit 104 reduziert eine von der Bildanalyseeinheit 101 erkannte Leuchtdichte eines festen Musters 201 um einen vorgegebenen Leuchtdichte-Reduzierungsbetrag, um eine Spannung von Pixeln, auf die Pixeldaten des festen Musters angewendet werden, abzubauen.
  • Der Überscann-Generator 102 vergrößert ein erstes Bild 10, in dem die Leuchtdichte des festen Musters reduziert wird, und erzeugt Pixeldaten eines zweiten Bilds 20. Wenn im ersten Bild 10 kein festes Muster 201 vorhanden ist, wandelt der Überscan-Generator 102 eine Auflösung des ersten Bilds 10 in eine Auflösung des Anzeigefelds um.
  • Die Ausschnittverarbeitungseinheit 103 schneidet das zweite Bild 20, das vom Überscan-Generator 102 eingegeben wird, aus, wählt ein drittes Bild 30 aus, das auf dem Bildschirm des Anzeigefelds im zweiten Bild 20 angezeigt wird, und überträgt die Pixeldaten des dritten Bilds 30 an die Anzeige 200. Die Ausschnittverarbeitungseinheit 103 überträgt keine Pixeldaten des Überscan-Bereichs 21, der als Überscan-Versatz x und y definiert ist, an die Anzeige 200. Wenn das erste Bild, dessen Auflösung in eine Auflösung umgewandelt wird, die einer Auflösung des Anzeigefelds entspricht, vom Überscan-Generator 102 ausgegeben wird, kann die Ausschnittverarbeitungseinheit 103 die Pixeldaten des ersten Bilds 10 vom Überscan-Generator 102 an die Anzeige 200 ohne die Ausschnittverarbeitung überbrücken, da es sich um Pixeldaten des ersten Bildes 10 handelt.
  • Die Bildverarbeitungseinheit 100 kann das zweite Bild einschließlich eines Überscan-Bereichs 21 für alle Bilder mit oder ohne das feste Muster erzeugen und das dritte Bild erzeugen, dessen Auflösung in die Auflösung des Anzeigefelds umgerechnet wird. In diesem Fall kann die Bildanalyseeinheit 101 in 4 und 5 weggelassen werden.
  • Die Anzeige 200 zeigt Pixeldaten eines von der Ausschnittverarbeitungseinheit 103 empfangenen Bilds auf dem Bildschirm an. Die Anzeige 200 kann ein Anzeigefeld und einen Anzeigefeldtreiber beinhalten. Die Pixeldaten eines von der Bildverarbeitungseinheit 100 ausgegebenen Bilds werden an den Treiber für das Anzeigefeld übertragen.
  • Der Bildschirm des Anzeigefelds enthält eine Pixelmatrix, die ein Eingabebild anzeigt. Die Pixelmatrix beinhaltet eine Vielzahl von Datenleitungen, eine Vielzahl von Gateleitungen (oder Abtastleitungen), die die Datenleitungen kreuzen, und Pixel, die in einer Matrixform angeordnet sind. Jedes Pixel kann zur Farbdarstellung in ein rotes Subpixel, ein grünes Subpixel und ein blaues Subpixel unterteilt werden. Jedes Pixel kann außerdem ein weißes Subpixel beinhalten.
  • Berührungssensoren können auf dem Anzeigefeld angeordnet sein. Die Berührungseingabe kann über separate Berührungssensoren oder über die Pixel erfasst werden. Die Berührungssensoren können als zellenförmige Berührungssensoren oder als zusätzliche Berührungssensoren ausgeführt sein, die auf dem Bildschirm des Anzeigefelds angeordnet sind, oder als zellenförmige Berührungssensoren, die in das Pixel-Array eingebettet sind.
  • Der Anzeigefeldtreiber wendet Pixeldaten eines von der Bildverarbeitungseinheit 100 empfangenen Eingabebilds auf die Pixel des Anzeigefelds an und zeigt das Eingabebild auf dem Bildschirm des Anzeigefelds an. Der Treiber für das Anzeigefeld umfasst einen Datentreiber, einen Gate-Treiber (oder Scan-Treiber) und eine Zeit-Steuerung (TCON). Der Treiber für das Anzeigefeld kann ferner einen Berührungssensortreiber zur Ansteuerung der Berührungssensoren beinhalten. In einem mobilen Gerät können eine Zeit-Steuerung, ein Datentreiber und eine Leistungsschaltung in einem Treiber-IC-Chip integriert sein.
  • Der Datentreiber wandelt die von der Zeit-Steuerung empfangenen digitalen Daten eines Eingangsbilds mit Hilfe eines Digital-Analog-Wandlers (DAC) in jeder Bildperiode in analoge Gammakompensationsspannungen um, um Ausgangsdatenspannungen zu erzeugen. Der Gate-Treiber kann Gate-Signale (oder Abtastsignale), die mit den Datenspannungen synchronisiert sind, mit Hilfe eines Schieberegisters unter der Steuerung der Zeit-Steuerung sequentiell an die Gateleitungen liefern.
  • Die Zeit-Steuerung empfängt Pixeldaten (digitale Daten) eines Bilds und Timing-Signale, die mit den Pixeldaten von der Bildverarbeitungseinheit 100 synchronisiert sind. Die Zeit-Steuerung überträgt die Pixeldaten an den Datentreiber und steuert das Betriebs-Timing des Datentreibers und des Gate-Treibers.
  • 6 und 7 sind Flussdiagramme, die ein Bildverarbeitungsverfahren gemäß einem Ausführungsbeispiel der vorliegenden Offenbarung zeigen.
  • Wie in 6 gezeigt, ermittelt die Bildverarbeitungseinheit 100 ein festes Muster aus einem ersten Bild in S1 und S2. Die Bildverarbeitungseinheit 100 vergrößert das erste Bild, um ein zweites Bild einschließlich eines Überscan-Bereichs 21 zu erzeugen, und wählt dann aus dem zweiten Bild durch einen Ausschnittprozess einen ausgeschnittenen Bereich ohne den Überscan-Bereich 21 aus, um ein drittes Bild zu erzeugen S3 und S4. Das dritte Bild weist eine Auflösung auf, die der Auflösung eines Bildschirms auf einem Anzeigefeld sehr ähnlich ist.
  • Die Bildverarbeitungseinheit 100 überträgt die Pixeldaten des dritten Bilds an die Anzeige 200. Die Anzeige 200 wendet die Pixeldaten des dritten Bildes auf die Pixel des Anzeigefelds an und zeigt das dritte Bild auf dem Bildschirm des Anzeigefelds in S5 an. Die Bildverarbeitungseinheit 100 ändert nach Ablauf einer vorbestimmten Zeit die Position eines Ausschnittbereichs und verschiebt das dritte Bild im zweiten Bild in S6 und S7. Infolgedessen wird das feste Muster 201 um einen Bewegungsbetrag der Position des Ausschnittbereichs auf dem Bildschirm des Anzeigefeldes verschoben.
  • Wenn im ersten Bild kein festes Muster 201 vorhanden ist, kann die Bildverarbeitungseinheit 100 eine Auflösung des ersten Bildes in eine Bildschirmauflösung des Anzeigefeldes umwandeln und das erste Bild an die Anzeige 200 in S8 und S9 übertragen.
  • Wie in 7 dargestellt, kann die Bildverarbeitungseinheit 100, um den Effekt der Unterdrückung des Einbrenneffekts zu verstärken, eine Leuchtdichte des festen Musters 201 um einen vorbestimmten Leuchtdichtereduzierungsbetrag reduzieren, wenn das feste Muster 201 im ersten Bild 10 in S10 ermittelt wird.
  • Wie in 8 dargestellt, kann das Anzeigegerät gemäß der vorliegenden Offenbarung auf verschiedene Anzeigegeräte angewandt werden, darunter ein stationäres Anzeigegerät (siehe (A)), ein Anzeigegerät eines mobilen Endgeräts (siehe (B)) usw. Ein typisches Beispiel für ein stationäres Anzeigegerät kann ein Fernsehgerät, ein Computermonitor usw. sein. Ein Beispiel für ein mobiles Endgerät kann ein Mobiltelefon, ein Smartphone, ein tragbares Gerät usw. sein. Das Anzeigegerät gemäß der vorliegenden Offenbarung kann die oben beschriebene Bildverarbeitungseinheit 100 und die Anzeige 200 umfassen.
  • 9 ist ein Blockdiagramm, das ein mobiles Endgerät schematisch darstellt.
  • Unter Bezugnahme auf 9 kann ein mobiles Endgerät eine drahtlose Kommunikationseinheit 110, eine Eingabeeinheit 120, eine Abtasteinheit 140, eine Ausgabeeinheit 150, eine Schnittstelleneinheit 160, einen Speicher 170, eine Steuerung 180, ein Netzgerät 190 und ähnliches umfassen. Es wird davon ausgegangen, dass die Implementierung aller in 16 dargestellten Komponenten keine Voraussetzung für das mobile Endgerät ist und dass alternativ mehr oder weniger Komponenten implementiert werden können.
  • Die drahtlose Kommunikationseinheit 110 kann ein oder mehrere Module beinhalten, die eine drahtlose Kommunikation zwischen einem mobilen Endgerät und einem drahtlosen Kommunikationssystem, zwischen einem mobilen Endgerät und einem anderen mobilen Endgerät oder zwischen einem mobilen Endgerät und einem externen Server ermöglichen. Ferner kann die drahtlose Kommunikationseinheit 110 ein oder mehrere Module beinhalten, die das mobile Endgerät mit einem oder mehreren Netzwerken verbinden.
  • Die drahtlose Kommunikationseinheit 110 kann mindestens ein Rundfunkempfangsmodul 111, ein Mobilkommunikationsmodul 112, ein drahtloses Internetmodul 113, ein Nahbereichskommunikationsmodul 114 oder ein Standortinformationsmodul 115 beinhalten.
  • Die Eingabeeinheit 120 kann eine Kamera 121 beinhalten, die eine Art Bildeingabeeinheit zur Eingabe eines Bildsignals ist, ein Mikrofon 122, das eine Art Audioeingabeeinheit zur Eingabe eines Audiosignals ist, und eine Benutzereingabeeinheit 123 (z. B. Berührungsschalter, Drucktaste, mechanische Taste usw.), um einem Benutzer die Eingabe von Informationen zu ermöglichen. Die von der Eingabeeinheit 120 erhaltenen Audio- oder Bilddaten können analysiert und durch Benutzer-Steuerbefehle verarbeitet werden.
  • Die Erfassungseinheit 140 kann einen oder mehrere Sensoren zur Erfassung mindestens einer der folgenden Informationen beinhalten: interne Informationen des mobilen Endgeräts, Informationen über die Umgebung des mobilen Endgeräts und Benutzerinformationen. Zum Beispiel kann die Erfassungseinheit 140 mindestens einen Näherungssensor 141, einen Beleuchtungssensor 142, einen Berührungssensor, einen Beschleunigungssensor, einen Magnetsensor, einen G-Sensor, einen Gyroskopsensor, einen Bewegungssensor, einen RGB-Sensor, einen Infrarot (IR)-Sensor, einen Fingerabdrucksensor, einen Ultraschallsensor, einen optischen Sensor (z.B. Kamera 121), das Mikrofon 122, ein Batteriemessgerät, einen Umgebungssensor (z.B. ein Barometer, ein Hygrometer, ein Thermometer, ein Strahlungserfassungssensor, ein Wärmesensor, ein Gassensor usw.), und einen chemischen Sensor (z.B. eine elektronische Nase, einen Sensor für das Gesundheitswesen, einen biometrischer Sensor usw.) beinhalten. Das mobile Endgerät kann Informationen von zwei oder mehr Sensoren der Sensoreinheit 140 kombinieren und nutzen.
  • Die Ausgabeeinheit 150 kann dazu eingerichtet sein, dass sie verschiedene Arten von Informationen im Zusammenhang mit Audio, Video, taktiler Ausgabe und ähnlichem ausgibt. Die Ausgabeeinheit 150 kann mindestens eine Anzeige 200, eine Audioausgabeeinheit 152, ein Haptikmodul 153 oder eine optische Ausgabeeinheit 154 beinhalten. Die Anzeige 200 kann eine Zwischenschichtstruktur oder eine integrierte Struktur mit einem Berührungssensor zur Implementierung eines Berührungsbildschirms aufweisen. Der Berührungsbildschirm kann eine Ausgabeschnittstelle zwischen dem mobilen Endgerät und dem Benutzer bieten und als Benutzereingabeeinheit 123 fungieren, die eine Eingabeschnittstelle zwischen dem mobilen Endgerät und dem Benutzer bereitstellt.
  • Die Schnittstelleneinheit 160 dient als Schnittstelle zu verschiedenen Arten von externen Geräten, die an das mobile Endgerät gekoppelt sind. Die Schnittstelleneinheit 160 kann mindestens einen der folgenden Anschlüsse enthalten: kabelgebundene/kabellose Headset-Anschlüsse, Anschlüsse für externe Ladegeräte, kabelgebundene/kabellose Datenanschlüsse, Speicherkartenanschlüsse, Anschlüsse für den Anschluss eines Geräts mit einem Identifikationsmodul, Audio-Eingangs-/Ausgangsanschlüsse (E/A), Video-E/A-Anschlüsse oder Kopfhöreranschlüsse. Das mobile Endgerät 100 kann verschiedene Steuerfunktionen in Bezug auf ein angeschlossenes externes Gerät als Reaktion auf den Anschluss des externen Geräts an die Schnittstelleneinheit 160 ausführen.
  • Der Speicher 170 speichert Daten, die verschiedene Funktionen des mobilen Endgeräts unterstützen. Zum Beispiel kann der Speicher 170 mehrere Anwendungsprogramme oder Anwendungen, die im mobilen Endgerät 100 ausgeführt werden, Daten oder Anweisungen für den Betrieb des mobilen Endgeräts 100 und ähnliches speichern. Zumindest einige dieser Anwendungsprogramme können über drahtlose Kommunikation von einem externen Server heruntergeladen werden. Andere Anwendungsprogramme können innerhalb des mobilen Endgeräts 100 zum Zeitpunkt der Herstellung oder des Versands installiert werden, was typischerweise bei Grundfunktionen (z.B. einen Anruf empfangen, einen Anruf tätigen, eine Nachricht empfangen, eine Nachricht senden und dergleichen) des mobilen Endgeräts 100 der Fall ist. Es ist üblich, dass Anwendungsprogramme im Speicher 170 gespeichert, im mobilen Endgerät installiert und von der Steuerung 180 ausgeführt werden, um eine Anwendung (oder Funktion) für das mobile Endgerät auszuführen.
  • Die Steuerung 180 weist Funktionen zur Steuerung des Gesamtbetriebs des mobilen Endgeräts auf. Die Steuerung 180 kann für den Benutzer geeignete Informationen oder Funktionen bereitstellen oder verarbeiten, indem er Signale, Daten, Informationen und dergleichen verarbeitet, die von den oben genannten Komponenten ein- oder ausgegeben werden, oder indem sie im Speicher 170 gespeicherte Anwendungsprogramme aktiviert. Die Steuerung 180 kann mindestens einige der in 2 dargestellten Komponenten entsprechend der Ausführung eines Anwendungsprogramms, das im Speicher 170 gespeichert ist, steuern. Darüber hinaus kann die Steuerung 180 mindestens zwei der im mobilen Endgerät enthaltenen Komponenten für die Ausführung des Anwendungsprogramms kombinieren und betreiben. Die oben beschriebene Bildverarbeitungseinheit 100 kann in der Steuerung 180 untergebracht werden.
  • Das Netzgerät 190 empfängt externe und interne Energie und versorgt unter der Steuerung der Steuerung 180 die jeweiligen im mobilen Endgerät enthaltenen Komponenten mit Strom. Das Netzgerät 190 kann eine Batterie beinhalten, und die Batterie kann dazu eingerichtet sein, dass sie in das Gerätegehäuse eingebettet oder dazu eingerichtet sein, dass sie vom Gerätegehäuse abnehmbar ist.
  • Zumindest einige der jeweiligen Komponenten können miteinander kombiniert werden und arbeiten, um den Betrieb, die Steuerung oder das Steuerungsverfahren des mobilen Endgerätes nach verschiedenen unten beschriebenen Ausführungsbeispielen zu realisieren. Ferner kann der Betrieb, die Steuerung oder das Steuerungsverfahren des mobilen Endgerätes nach verschiedenen Ausführungsbeispielen auf dem mobilen Endgerät durch die Ausführung mindestens eines im Speicher 170 gespeicherten Anwendungsprogramms implementiert werden.
  • Vor der Beschreibung verschiedener Ausführungsbeispiele, die durch das mobile Endgerät implementiert werden, werden die oben genannten Komponenten im Folgenden ausführlich beschrieben.
  • Was die drahtlose Kommunikationseinheit 110 betrifft, so empfängt das Rundfunkempfangsmodul 111 über einen Rundfunkkanal Rundfunksignale und/oder rundfunkbezogene Informationen von einem externen Rundfunkverwaltungsserver. Der Rundfunkkanal kann einen Satellitenkanal und einen terrestrischen Kanal umfassen. Dem mobilen Endgerät können zwei oder mehr Rundfunkempfangsmodule 111 bereitgestellt sein, um den gleichzeitigen Empfang von mindestens zwei Rundfunkkanälen zu ermöglichen oder um das Umschalten zwischen den Rundfunkkanälen zu unterstützen. Der Rundfunkverwaltungsserver kann einen Server angeben, der dazu eingerichtet ist, dass er ein Rundfunksignal und/oder rundfunkbezogene Informationen erzeugt und überträgt, oder einen Server, der dazu eingerichtet ist, dass er ein vorgeneriertes Rundfunksignal und/oder rundfunkbezogene Informationen empfängt und an ein Endgerät überträgt. Das Sendesignal kann ein Fernsehsendesignal, ein Rundfunksendesignal und ein Datensendesignal umfassen und ferner ein Sendesignal in Form einer Kombination aus einem Fernsehsendesignal oder einem Rundfunksendesignal und einem Datensendesignal umfassen. Das Rundfunksignal kann nach mindestens einer der technischen Normen (oder Rundfunkmethoden, z.B. ISO, IEC, DVB, ATSC usw.) für die Übertragung und den Empfang digitaler Rundfunksignale kodiert sein, und das Rundfunkempfangsmodul 111 kann ein digitales Rundfunksignal nach einem Verfahren empfangen, das für die durch die technischen Normen festgelegte technische Norm geeignet ist. Die rundfunkbezogenen Informationen können Informationen in Bezug auf einen Rundfunkkanal, ein Rundfunkprogramm oder einen Rundfunkdienstanbieter angeben. Die rundfunkbezogenen Informationen können auch über ein mobiles Kommunikationsnetz bereitgestellt sein. In diesem Fall kann sie über das Mobilekommunikationsmodul 112 empfangen werden.
  • Zum Beispiel können die sendebezogenen Informationen in verschiedenen Arten vorliegen, einschließlich eines elektronischen Programmführers (EPG) des digitalen Multimedia-Rundfunks (DMB) oder eines elektronischen Dienstführers (ESG) des digitalen Video-Handheldfunks (DVB-H) usw. Das Rundfunksignal und/oder die über das Rundfunkempfangsmodul 111 empfangene rundfunkbezogene Information kann im Speicher 160 gespeichert werden.
  • Das Mobilkommunikationsmodul 112 sendet und empfängt drahtlose Signale zu und von mindestens einer Basisstation, einem externen Benutzergerät und einem Server in einem Mobilkommunikationsnetz, das nach technischen Standards oder Kommunikationsverfahren für die mobile Kommunikation aufgebaut ist (z.B, Global System for Mobilecommunication (GSM), Code Division MultiAccess (CDMA), Code Division MultiAccess2000 (CDMA2000), Enhanced Voice-Data Optimized oder Enhanced Voice-Data Only (EVDO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), usw.). Beispiele für die drahtlosen Signale können Audio- oder Videoanrufsignale oder verschiedene Datenformate zur Unterstützung der Kommunikation von Text-/Multimedia-Nachrichten sein.
  • Das drahtlose Internet-Modul 113 ist dazu eingerichtet, dass es den drahtlosen Internetzugang erleichtert. Dieses Modul kann intern oder extern mit dem mobilen Endgerät gekoppelt werden. Das drahtlose Internet-Modul 113 ist dazu eingerichtet, dass es drahtlose Signale über Kommunikationsnetzwerke entsprechend den drahtlosen Internet-Technologien sendet und empfängt. Beispiele für die drahtlosen Internet-Technologien sind Wireless LAN (WLAN), Wireless Fidelity (Wi-Fi), Digital Living Network Alliance (DLNA), Wireless Broadband (WiBro), World Interoperability for Microwave Access (WiMAX), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), usw. Das drahtlose Internet-Modul 113 kann Daten gemäß mindestens einer drahtlosen Internet-Technologie innerhalb der Reichweite senden/empfangen, einschließlich bis zu Internet-Technologien, die oben nicht beschrieben sind. Wenn der drahtlose Internetzugang z.B. nach WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A usw. als Teil eines mobilen Kommunikationsnetzes implementiert ist, kann das drahtlose Internetmodul 113, das den drahtlosen Internetzugang über das mobile Kommunikationsnetz durchführt, als eine Art des mobilen Kommunikationsmoduls 112 verstanden werden.
  • Das Nahbereichskommunikationsmodul 114 ist dazu eingerichtet, dass es die Kommunikation über kurze Entfernungen erleichtert. Das Nahbereichskommunikationsmodul 114 kann die Kommunikation über kurze Entfernungen unter Verwendung von mindestens einer der Technologien BluetoothTM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, Wireless Universal Serial Bus (USB) unterstützen.
  • Das Nahbereichskommunikationsmodul 114 kann die drahtlose Kommunikation zwischen dem mobilen Endgerät und einem drahtlosen Kommunikationssystem, zwischen dem mobilen Endgerät und einem anderen mobilen Endgerät oder zwischen dem mobilen Endgerät und einem Netz, in dem sich ein anderes mobiles Endgerät 100 (oder ein externer Server) befindet, über drahtlose Nahbereichsnetze unterstützen. Die drahtlosen Nahbereichsnetzwerke sind drahtlose Nahbereichsnetzwerke für den persönlichen Gebrauch. In einigen Ausführungsbeispielen kann ein anderes mobiles Endgerät ein tragbares Gerät sein, das in der Lage ist, Daten mit dem mobilen Endgerät gemäß der vorliegenden Offenbarung auszutauschen (oder zu kooperieren), z.B. eine intelligente Uhr, ein intelligentes Glas oder ein Head Mounted Display (HMD). Das Nahbereichskommunikationsmodul 114 kann das tragbare Gerät, das sich in der Nähe des mobilen Endgeräts befindet und in der Lage ist, mit dem mobilen Endgerät zu kommunizieren, erfassen (oder ermitteln). Wenn es sich bei dem erfassten tragbaren Gerät um ein Gerät handelt, das für die Kommunikation mit dem mobilen Endgerät gemäß der vorliegenden Offenbarung authentifiziert ist, kann die Steuerung 180 zusätzlich zumindest einen Teil der im mobilen Endgerät verarbeiteten Daten über das Nahbereichs-Kommunikationsmodul 114 an das tragbare Gerät übertragen. Somit kann ein Benutzer des tragbaren Geräts Daten, die im mobilen Endgerät verarbeitet wurden, auf dem tragbaren Gerät verwenden. Wenn z.B. ein Anruf im mobilen Endgerät empfangen wird, kann der Benutzer den Anruf mit dem tragbaren Gerät beantworten. Auch wenn eine Nachricht im mobilen Endgerät empfangen wird, kann der Benutzer die empfangene Nachricht mit dem tragbaren Gerät überprüfen.
  • Das Standortinformationsmodul 115 ist dazu eingerichtet, dass es einen Standort (oder einen aktuellen Standort) des mobilen Endgeräts ermittelt. Als typisches Beispiel enthält das Standortinformationsmodul 115 ein GPS-Modul (Global Positioning System) oder ein Wi-Fi-Modul. Wenn das mobile Endgerät beispielsweise ein GPS-Modul verwendet, kann der Standort des mobilen Endgeräts mit Hilfe eines von einem GPS-Satelliten gesendeten Signals ermittelt werden. Ein weiteres Beispiel: Wenn das mobile Endgerät das Wi-Fi-Modul verwendet, kann der Standort des mobilen Endgeräts auf der Grundlage von Informationen zu einem drahtlosen Zugangspunkt (AP) ermittelt werden, der ein drahtloses Signal an das Wi-Fi-Modul sendet oder von diesem empfängt. Falls erforderlich oder gewünscht, kann das Standortinformationsmodul 115 alternativ oder zusätzlich jede Funktion anderer Module der drahtlosen Kommunikationseinheit 110 ausführen, um Daten in Bezug auf den Standort des mobilen Endgerätes zu erhalten. Das StandortInformationsmodul 115 ist ein Modul, das verwendet wird, um den Standort (oder den aktuellen Standort) des mobilen Endgeräts zu erhalten, und ist nicht auf ein Modul beschränkt, das dazu eingerichtet ist, um den Standort des mobilen Endgeräts direkt zu berechnen oder zu erhalten.
  • Die Eingabeeinheit 120 ist für die Eingabe von Bildinformationen (oder Bildsignalen), Audioinformationen (oder Audiosignalen), Daten oder vom Benutzer eingegebenen Informationen eingerichtet. Die Eingabeeinheit 120 kann eine Kamera oder mehrere Kameras 121 für die Eingabe von Bildinformationen beinhalten. Die Kamera 121 kann Standbild- oder Videobilder verarbeiten, die von Bildsensoren in einem Videoanrufmodus oder einem Videoaufnahmemodus erhalten wurden. Die verarbeiteten Bildframes können auf dem Bildschirm 200 angezeigt oder im Speicher 170 gespeichert werden. Die Vielzahl der im mobilen Endgerät enthaltenen Kameras 121 kann in einem Matrixformat angeordnet werden und ermöglicht die Eingabe mehrerer Bildinformationen mit verschiedenen Winkeln oder Brennpunkten in das mobile Endgerät. Darüber hinaus kann die Mehrzahl der Kameras 121 in einer stereoskopischen Anordnung angeordnet werden, um linke und rechte Bilder zur Implementierung eines stereoskopischen Bilds zu erfassen.
  • Das Mikrofon 122 verarbeitet ein externes Audiosignal in elektrische Sprachdaten. Die verarbeiteten Sprachdaten können unterschiedlich genutzt werden, je nachdem, welche Funktionen (oder welches Anwendungsprogramm gerade ausgeführt wird) im mobilen Endgerät ausgeführt werden. Das Mikrofon 122 kann verschiedene Algorithmen zur Rauschunterdrückung implementieren, um ein Rauschen zu entfernen, das während des Empfangs des externen Audiosignals entsteht.
  • Die Benutzereingabeeinheit 123 ist dazu eingerichtet, dass sie Informationen vom Benutzer empfängt. Wenn Informationen über die Benutzereingabeeinheit 123 eingegeben werden, kann die Steuerung 180 als Reaktion auf die eingegebenen Informationen den Betrieb des mobilen Endgeräts steuern. Die Benutzereingabeeinheit 123 kann eine oder mehrere mechanische Eingabeeinrichtungen (oder eine mechanische Taste, z. B. eine Taste, einen Domeschalter, ein Jog-Rad, einen Jog-Schalter usw., die sich auf der Vorder- und Rückseite oder auf einer Seitenfläche des mobilen Endgeräts befinden) sowie eine Berührungseingabeeinrichtung umfassen. Die Berührungseingabeeinrichtung kann beispielsweise eine virtuelle Taste, einen Softkey oder eine visuelle Taste umfassen, die durch Softwareverarbeitung auf einem Berührungsbildschirm angezeigt wird, oder eine Berührungseingabetaste, die sich auf dem mobilen Endgerät an einer anderen Stelle als dem Berührungsbildschirm befindet. Die virtuelle Taste oder die visuelle Taste kann auf dem Berührungsbildschirm in verschiedenen Formen angezeigt werden, z.B. als Grafik, Text, Symbol, Video oder in einer Kombination davon.
  • Die Erfassungseinheit 140 ist dazu eingerichtet, dass sie mindestens eine der internen Informationen des mobilen Endgeräts, Informationen über die Umgebung des mobilen Endgeräts und Benutzerinformationen erfasst und Erfassungssignale erzeugt, die diesen Informationen entsprechen. Auf der Grundlage der Erfassungssignale kann die Steuereinheit 180 die Ausführung oder den Betrieb des mobilen Endgeräts steuern oder eine Datenverarbeitung, eine Funktion oder einen Vorgang im Zusammenhang mit einem im mobilen Endgerät installierten Anwendungsprogramm durchführen. Typische Sensoren der verschiedenen Sensoren, die in der Abtasteinheit 140 enthalten sein können, werden ausführlicher beschrieben.
  • Der Näherungssensor 141 bezieht sich auf einen Sensor, der die An- oder Abwesenheit eines Objekts, das sich einer vorgegebenen Erfassungsfläche nähert, oder eines Objekts, das sich in der Nähe einer vorgegebenen Erfassungsfläche befindet, mit Hilfe eines elektromagnetischen Feldes oder Infrarotstrahlen usw. ohne mechanischen Kontakt erfasst. Der Näherungssensor 141 kann an einem inneren Bereich des mobilen Endgeräts, der durch den oben beschriebenen Berührungsbildschirm abgedeckt ist, oder in der Nähe des Berührungsbildschirms angeordnet werden.
  • Beispiele für den Näherungssensor 141 können ein transmissiver photoelektrischer Sensor, ein direkt reflektierender photoelektrischer Sensor, ein spiegelreflektierender photoelektrischer Sensor, ein Hochfrequenz-Oszillations-Näherungssensor, ein kapazitiver Näherungssensor, ein magnetischer Näherungssensor, ein Infrarot-Strahlen-Näherungssensor und ähnliches sein. Wenn der Berührungsbildschirm als kapazitiver Typ ausgeführt ist, kann der Näherungssensor 141 dazu eingerichtet sein, dass er eine Annäherung eines leitfähigen Objekts durch Änderungen eines elektromagnetischen Feldes erkennt, das auf die Annäherung des leitfähigen Objekts reagiert. In diesem Fall kann der Berührungsbildschirm (Berührungssensor) selbst als Näherungssensor kategorisiert werden.
  • Der Einfachheit halber wird der Begriff „Nahberührung“ auf ein Verhalten bezogen, das so erkannt wird, dass ein Objekt auf dem Berührungsbildschirm so positioniert wird, dass es sich in der Nähe des Berührungsbildschirms befindet, ohne den Berührungsbildschirm zu berühren, und der Begriff „Kontaktberührung“ bezieht sich auf ein Verhalten, bei dem ein Objekt den Berührungsbildschirm tatsächlich berührt. Für die Position, die der Annäherungsberührung des Objekts relativ zum Berührungsbildschirm entspricht, entspricht die Position einer Position, in der sich das Objekt senkrecht zum Berührungsbildschirm befindet. Der Näherungssensor 141 kann eine Annäherungsberührung und ein Annäherungsberührungsmuster erfassen (z. B. Annäherungsberührungsabstand, Annäherungsberührungsrichtung, Annäherungsberührungsgeschwindigkeit, Annäherungsberührungszeit, Annäherungsberührungsposition, Annäherungsberührungs-Bewegungszustand usw.). Die Steuerung 180 kann Daten (oder Informationen) verarbeiten, die einem Näherungsberührungsvorgang und dem vom Näherungssensor 141 erfassten Näherungsberührungsmuster entsprechen, und kann auch visuelle Informationen ausgeben, die den verarbeiteten Daten auf dem Berührungsbildschirm entsprechen. Darüber hinaus kann die Steuerung 180 das mobile Endgerät so steuern, dass es unterschiedliche Anwendungen ausführt oder unterschiedliche Daten (oder Informationen) verarbeitet, je nachdem, ob es sich bei einer Berührung in Bezug auf dieselbe Stelle auf dem Berührungsbildschirm um eine Annäherungsberührung oder um eine Kontaktberührung handelt.
  • Der Berührungssensor erfasst eine Berührung (oder eine Berührungseingabe), die auf den Berührungsbildschirm (oder der Anzeige 200) aufgebracht wird, unter Verwendung mindestens einer der verschiedenen Berührungsverfahren, einschließlich eines widerstandsbasierten, eines kapazitiven, eines Infrarot-, eines Ultraschall-, eines Magnetfeld-Verfahrens usw. Der Berührungssensor kann dazu eingerichtet sein, dass Änderungen eines auf einen bestimmten Teil des Berührungsbildschirms ausgeübten Drucks oder einer an dem bestimmten Teil auftretenden Kapazität in elektrische Eingangssignale umgewandelt werden. Der Berührungssensor kann dazu eingerichtet sein, dass ein berührendes Objekt, das eine Berührungseingabe auf den Berührungsbildschirm ausübt, eine berührte Position und einen berührten Bereich auf dem Berührungssensor, einen Berührungsdruck, eine Berührungskapazität usw. erkennen kann. Das Berührungsobjekt wird verwendet, um eine Berührungseingabe auf den Berührungssensor anzuwenden. Beispiele für die Berührungsobjekte können ein Finger, ein Berührungsstift, ein Stylus-Stift, ein Zeiger usw. sein.
  • Wenn eine Berührungseingabe von einem Berührungssensor erfasst wird, können Signale, die der Berührungseingabe entsprechen, an eine Berührungssteuerung gesendet werden. Die Berührungssteuerung verarbeitet die Signale und sendet dann die entsprechenden Daten an die Steuerung 180. Daher kann die Steuerung 180 erkennen, welcher Bereich der Anzeige 200 berührt wurde. Die Berührungssteuerung kann eine von der Steuerung 180 getrennte Komponente sein, die in der Steuerung 180 eingebettet werden kann.
  • Die Steuerung 180 kann je nach Art des berührungsempfindlichen Objekts, das den Berührungsbildschirm (oder eine zusätzlich zu dem Berührungsbildschirm bereitgestellte Taste) berührt, die gleiche Steuerung oder verschiedene Steuerungen ausführen. Ob die gleiche Steuerung oder unterschiedliche Steuerungen je nach Art des Berührungsobjekts ausgeführt werden, kann auf der Grundlage eines aktuellen Betriebszustands des mobilen Endgeräts oder eines aktuell ausgeführten Anwendungsprogramms entschieden werden.
  • Der Berührungssensor und der Näherungssensor können einzeln oder in Kombination eingesetzt werden, um verschiedene Arten von Berührungen zu erfassen, einschließlich einer kurzen (oder tippenden) Berührung, einer langen Berührung, einer Mehrfachberührung, einer ziehenden Berührung, einer schnippenden Berührung, einer Einklemmberührung, einer Ausklemmberührung, einer Streichberührung, einer schwebenden Berührung und ähnlichem.
  • Ein Ultraschallsensor kann mit Hilfe von Ultraschallwellen Ortsinformationen eines berührten Objekts erkennen. Die Steuerung 180 kann die Position einer Wellenerzeugungsquelle auf der Grundlage von Informationen berechnen, die von einem optischen Sensor und einer Vielzahl von Ultraschallsensoren erfasst werden. Die Position der Wellenerzeugungsquelle kann unter Verwendung der Eigenschaft berechnet werden, dass Licht viel schneller als Ultraschallwellen ist, d.h. die Zeit, die das Licht benötigt, um den optischen Sensor zu erreichen, ist viel kürzer als die Zeit, die die Ultraschallwellen benötigen, um den Ultraschallsensor zu erreichen. Genauer gesagt kann der Ort der Wellenerzeugungsquelle anhand der Differenz zwischen der Zeit, die das Licht benötigt, um den optischen Sensor zu erreichen, und der Zeit, die die Ultraschallwellen benötigen, um den Ultraschallsensor zu erreichen, berechnet werden.
  • Die Kamera 121 umfasst mindestens einen Kamerasensor (z. B. CCD, CMOS usw.), einen Fotosensor (oder Bildsensor) und einen Lasersensor. Die Kamera 121 und ein Lasersensor können miteinander kombiniert werden, um eine Berührung eines Abtastobjekts für ein dreidimensionales (3D) stereoskopisches Bild zu erfassen. Der Fotosensor kann auf das Anzeigegerät laminiert werden, und der laminierte Fotosensor kann so konfiguriert werden, dass er eine Bewegung des abgetasteten Objekts neben dem Berührungsbildschirm abtastet. Genauer gesagt kann der Fotosensor Fotodioden und -transistoren (TRs) auf Zeilen und Spalten enthalten, um Inhalte, die auf dem Fotosensor platziert sind, mit Hilfe eines elektrischen Signals abzutasten, das je nach der auf die Fotodioden einfallenden Lichtmenge variiert. Der Fotosensor kann nämlich die Koordinaten des abtastenden Objekts in Abhängigkeit von Änderungen der Lichtmenge berechnen, um Positionsinformationen des abtastenden Objekts zu erhalten.
  • Die Anzeige 200 ist für die Anzeige (Ausgabe) von im mobilen Endgerät verarbeiteten Informationen eingerichtet. Die Anzeige 200 kann Ausführungsbildschirminformationen eines im mobilen Endgerät ausgeführten Anwendungsprogramms oder Informationen zur Benutzeroberfläche (UI) und zur grafischen Benutzungsoberfläche (GUI) als Reaktion auf die Ausführungsbildschirminformationen anzeigen.
  • Die Bildverarbeitungseinheit 100 vergrößert ein erstes Bild, das von einer Bildeingabeeinheit empfangen wurde, um ein Überscan-Bild, d.h. ein zweites Bild, zu erzeugen, führt eines Ausschnittprozess an einer vorbestimmten Stelle durch, um ein drittes Bild auszuwählen, das auf dem Bildschirm des Anzeigefelds im zweiten Bild angezeigt werden soll, und überträgt es an die Anzeige 200. Die Bildverarbeitungseinheit 100 bewegt eine Position eines festen Musters 201 auf dem Bildschirm des Anzeigefeldes, indem sie jedes Mal bei Ablauf einer vorbestimmten Zeit die Position eines Ausschnittbereichs ändert, wodurch das Einbrennen verhindert wird. Da sich die Position des Ausschnittbereichs im vergrößerten zweiten Bild ändert, ist ein Teil, der als schwarz (oder leer) verarbeitet wird, da keine Pixeldaten vorhanden sind, auf dem Bildschirm nicht sichtbar, selbst wenn sich ein Bild auf dem Bildschirm des Anzeigefeldes bewegt.
  • Die Anzeige 200 kann als 3D-Anzeige zur Anzeige eines 3D-Bilds implementiert werden. Die 3D-Anzeige kann ein 3D-Darstellungsschema wie ein stereoskopisches Schema (Glasschema), ein autostereoskopisches Schema (glasloses Schema) und ein Projektionsschema (holografisches Schema) verwenden.
  • Das 3D-Bild kann aus einem linken Bild (oder Bild für das linke Auge) und einem rechten Bild (oder Bild für das rechte Auge) bestehen. Beispiele für ein Verfahren zur Kombination des linken Bilds und des rechten Bilds im 3D-Bild können ein Top-Down-Verfahren, bei dem das linke Bild und das rechte Bild oben und unten in einem Rahmen angeordnet werden, ein Links-nach-Rechts-Verfahren (L-nach-R) (oder nebeneinander), bei dem das linke Bild und das rechte Bild links und rechts in einem Rahmen angeordnet werden, ein Schachbrettmusterverfahren, bei dem Teile des linken Bilds und des rechten Bilds in einer Kachelform angeordnet sind, ein Zeilensprungverfahren, bei dem die linken Bilder und die rechten Bilder abwechselnd auf einer Pro-Zeilen-Basis oder auf einer Pro-Spalten-Basis angeordnet sind, und ein zeitsequentielles (oder Bild für Bild) Verfahren sein, bei dem die linken Bilder und die rechten Bilder abwechselnd auf einer Pro-Zeit-Basis angezeigt werden.
  • Ein 3D-Miniaturbild kann als ein Bild erzeugt werden, indem aus einem linken Bild und einem rechten Bild eines Originalbildrahmens ein linkes und ein rechtes Bild-Miniaturbild erzeugt und kombiniert werden. Die Miniaturansicht bezieht sich im Allgemeinen auf ein verkleinertes Video oder ein verkleinertes Standbild. Das so erzeugte linke und das rechte Miniaturbild werden auf dem Bildschirm mit einem Links-Rechts-Abstandsunterschied bis zu einer Tiefe angezeigt, die einer Parallaxe zwischen dem linken und dem rechten Bild entspricht, und können so ein dreidimensionales Raumgefühl zeigen.
  • Das linke Bild und das rechte Bild, die für die Implementierung des 3D-Bildes erforderlich sind, können von einer 3D-Verarbeitungseinheit auf einer 3D-Anzeige angezeigt werden. Die 3D-Verarbeitungseinheit ist dazu eingerichtet, dass sie ein 3D-Bild empfängt (ein Bild zu einer Referenzzeit und ein Bild zu einer verlängerten Zeit) und aus dem 3D-Bild ein linkes und ein rechtes Bild setzt oder ein 2D-Bild empfängt und das 2D-Bild in ein linkes und ein rechtes Bild umschaltet.
  • Die Audio-Ausgabeeinheit 152 kann dazu eingerichtet sein, dass sie Audiodaten ausgibt, die von der drahtlosen Kommunikationseinheit 110 empfangen oder im Speicher 170 gespeichert werden, in einem Rufsignalempfangsmodus, einem Rufmodus, einem Aufzeichnungsmodus, einem Spracherkennungsmodus, einem Rundfunkempfangsmodus usw. Die Audio-Ausgabeeinheit 152 kann Audiosignale ausgeben, die sich auf eine vom mobilen Endgerät ausgeführte Funktion beziehen (z.B. ein Anrufsignal-Empfangsgeräusch, ein Nachrichten-Empfangsgeräusch usw.). Die Audioausgabeeinheit 152 kann einen Empfänger, einen Lautsprecher, einen Summer oder ähnliches beinhalten.
  • Das Haptikmodul 153 ist dazu eingerichtet, dass es verschiedene haptische Effekte erzeugt, die ein Benutzer fühlen, wahrnehmen oder erleben kann. Ein typisches Beispiel für den durch das Haptikmodul 153 erzeugten taktilen Effekt kann die Vibration sein. Eine Stärke, ein Muster usw. der durch das Haptikmodul 153 erzeugten Vibration kann durch die Auswahl oder Einstellung des Reglers durch den Benutzer gesteuert werden. Das Haptikmodul 153 kann verschiedene Vibrationen kombinieren, um die Vibration auszugeben, oder kann nacheinander verschiedene Vibrationen ausgeben. Zusätzlich zu den Vibrationen kann das Haptikmodul 153 verschiedene taktile Effekte erzeugen, einschließlich eines Effekts durch Stimulation, wie z.B. eine Stiftanordnung, die sich vertikal zu einer Kontaktoberfläche der Haut bewegt, eine Sprühkraft oder eine Saugkraft von Luft durch eine Düsenöffnung oder eine Saugöffnung, eine Berührung der Hautoberfläche, eine Berührung einer Elektrode und elektrostatische Kraft, ein Effekt durch die Reproduktion des Kälte- und Wärmeempfindens unter Verwendung eines Elements, das Wärme absorbieren oder erzeugen kann, und ähnliches.
  • Das Haptikmodul 153 kann auch so implementiert werden, dass der Benutzer einen Tastatureffekt durch eine Muskelempfindung wie Finger oder Arm des Benutzers erfühlen kann, sowie die Übertragung des Tastatureffekts durch direkten Kontakt. Je nach Konfiguration des mobilen Endgeräts können zwei oder mehr Haptikmodule 153 bereitgestellt sein.
  • Die optische Ausgabeeinheit 154 gibt ein Signal zur Information über die Erzeugung eines Ereignisses unter Verwendung von Licht einer Lichtquelle des mobilen Endgerätes aus. Beispiele für Ereignisse, die im mobilen Endgerät erzeugt werden, können Nachrichtenempfang, Rufsignalempfang, ein verpasster Anruf, ein Alarm, eine Benachrichtigung über einen Zeitplan, E-Mail-Empfang, Informationsempfang durch eine Anwendung und ähnliches sein.
  • Ein von dem optischen Ausgangsmodul 154 ausgegebenes Signal kann so realisiert werden, dass das mobile Endgerät monochromatisches Licht oder Licht mit mehreren Farben nach vorne oder hinten abstrahlt. Das Ausgangssignal des optischen Ausgangsmoduls 154 kann beendet werden, wenn das mobile Endgerät ermittelt, dass ein Benutzer das erzeugte Ereignis überprüft hat.
  • Die Schnittstelleneinheit 160 dient als Schnittstelle für alle externen Geräte, die an das mobile Endgerät angeschlossen werden sollen. Die Schnittstelleneinheit 160 kann Daten von einem externen Gerät empfangen, Strom zur Übertragung des Stroms an die entsprechenden Komponenten innerhalb des mobilen Endgeräts empfangen oder interne Daten des mobilen Endgeräts an das externe Gerät übertragen. Zum Beispiel kann die Schnittstelleneinheit 160 drahtgebundene/drahtlose Headset-Anschlüsse, Anschlüsse für externe Ladegeräte, drahtgebundene/drahtlose Datenanschlüsse, Speicherkartenanschlüsse, Anschlüsse für den Anschluss eines Geräts mit einem Identifizierungsmodul, Audio-Eingangs-/Ausgangs-(E/A)-Anschlüsse, Video-E/A-Anschlüsse, Kopfhöreranschlüsse und dergleichen beinhalten.
  • Bei dem Identifizierungsmodul kann es sich um einen Chip handeln, der verschiedene Informationen zur Authentifizierung der Nutzungsberechtigung des mobilen Endgeräts speichert und ein Benutzeridentitätsmodul (UIM), ein Teilnehmeridentitätsmodul (SIM), ein universelles Teilnehmeridentitätsmodul (USIM) und ähnliches umfassen kann. Darüber hinaus kann das Gerät mit dem Identifizierungsmodul (nachstehend als „Identifizierungsgerät“ bezeichnet) die Form einer Chipkarte aufweisen. So kann das Identifizierungsgerät über die Schnittstelleneinheit 160 an das mobile Endgerät 100 angeschlossen werden.
  • Wenn das mobile Endgerät an ein externe Halterung angeschlossen ist, kann die Schnittstelleneinheit 160 als Durchgang dienen, damit das mobile Endgerät mit Strom aus der Halterung versorgt werden kann, oder als Durchgang, damit verschiedene vom Benutzer aus der Halterung eingegebene Befehlssignale an das mobile Endgerät übertragen werden können. Die verschiedenen Befehlssignale oder die Stromeinspeisung aus der Halterung können als Signale zur Erkennung, dass das mobile Endgerät korrekt in der Halterung montiert ist, dienen.
  • Der Speicher 170 kann Programme für den Betrieb der Steuerung 180 speichern und Ein-/Ausgabedaten (z.B. Telefonbuch, Nachrichten, Standbilder, Videos usw.) zwischenspeichern. Der Speicher 170 kann Daten in Bezug auf verschiedene Vibrations- und Audiomuster speichern, die bei der Berührungseingabe auf dem Berührungsbildschirm ausgegeben werden.
  • Der Speicher 170 kann mindestens eine Art von Speichermedium unter einem Flash-Speicher, einer Festplatte, einer Solid State Disk (SSD), einem Silicon Disk Drive (SDD), einem Multimedia Card Micro, einem Kartenspeicher (z.B, SD- oder XD-Speicher, usw.), ein Speicher mit wahlfreiem Zugriff (RAM), ein statischer Speicher mit wahlfreiem Zugriff (SRAM), ein Nur-Lese-Speicher (ROM), ein elektrisch löschbarer programmierbarer Nur-Lese-Speicher (EEPROM), ein programmierbarer Nur-Lese-Speicher (PROM), ein Magnetspeicher, eine Magnetplatte und eine optische Platte. Das mobile Endgerät kann auch in Verbindung mit einem Webspeicher arbeiten, der die Speicherfunktion des Speichers 170 über das Internet ausführt.
  • Wie oben beschrieben, kann die Steuerung 180 typischerweise die allgemeinen Anwendungen des mobilen Endgeräts und eine Anwendung im Zusammenhang mit einem Anwendungsprogramm steuern. Beispielsweise kann die Steuerung 180 einen gesperrten Zustand zur Beschränkung der Eingabe eines Steuerbefehls des Benutzers für Anwendungen ausführen oder freigeben, wenn ein Zustand des mobilen Endgeräts eine voreingestellte Bedingung erfüllt.
  • Die Steuerung 180 kann die Steuerung und Verarbeitung im Zusammenhang mit Sprachanrufen, Datenkommunikation, Videoanrufen usw. durchführen. oder eine Mustererkennungsverarbeitung durchführen, um eine handschriftliche Eingabe oder die Eingabe einer Bildzeichnung, die auf dem Touchscreen ausgeführt wird, als Texte und Bilder zu erkennen. Darüber hinaus kann die Steuerung 180 eine oder eine Kombination der oben beschriebenen Komponenten steuern, um verschiedene unten beschriebene Ausführungsformen auf dem mobilen Endgerät entsprechend der vorliegenden Offenbarung zu implementieren.
  • Das Netzteil 190 erhält externe und interne Stromversorgung und liefert die für den Betrieb der jeweiligen Komponenten des mobilen Endgeräts erforderliche Energie unter der Kontrolle des Controllers 180. Das Netzgerät 190 kann eine Batterie enthalten, wobei die Batterie eine wiederaufladbare eingebaute Batterie sein kann und zum Aufladen abnehmbar mit dem Endgerätkörper verbunden werden kann.
  • Das Netzgerät 190 kann einen Anschlussport beinhalten. Der Anschlussport kann als ein Beispiel für die Schnittstelleneinheit 160 dazu eingerichtet sein, an die ein externes Ladegerät für die Stromversorgung zum Aufladen der Batterie elektrisch angeschlossen ist. Als weiteres Beispiel kann das Netzgerät 190 dazu eingerichtet sein, dass die Batterie drahtlos ohne Verwendung des Verbindungsanschlusses aufgeladen wird. In diesem Fall kann das Netzgerät 190 Strom von einem externen drahtlosen Stromsender empfangen, wobei mindestens eines der Verfahren induktive Kopplung auf der Grundlage eines magnetischen Induktionsphänomens oder magnetische Resonanzkopplung auf der Grundlage eines elektromagnetischen Resonanzphänomens verwendet wird.
  • 10 und 11 sind Blockdiagramme, die ein Beispiel für ein stationäres Anzeigegerät zeigen.
  • Unter Bezugnahme auf 10 und 11 kann ein Anzeigegerät einen Empfänger 310, eine externe Geräteschnittstelleneinheit 320, eine Anzeige 200, eine Audioausgabeeinheit 350, ein Netzgerät 360, eine Steuerung 370, eine Benutzerschnittstelleneinheit 380 und ähnliches umfassen.
  • Der Empfänger 310 kann einen Tuner 311, einen Demodulator 312 und eine Netzschnittstelleneinheit 313 beinhalten. Falls erforderlich oder gewünscht, kann der Empfänger 310 den Tuner 311 und den Demodulator 312, nicht aber die Netzschnittstelleneinheit 313 beinhalten und umgekehrt. Obwohl nicht abgebildet, kann der Empfänger 310 einen Multiplexer beinhalten, um ein Signal, das vom Demodulator 312 über den Tuner 311 demoduliert wird, und ein Signal, das über die Netzschnittstelleneinheit 313 empfangen wird, zu multiplexen. Darüber hinaus kann der Empfänger 310, obwohl nicht abgebildet, einen Demultiplexer beinhalten, um das gemultiplexte Signal zu demultiplexen oder das demodulierte Signal oder das über die Netzschnittstelleneinheit 313 empfangene Signal zu demultiplexen.
  • Der Tuner 311 empfängt ein Funkfrequenz-Rundfunksignal (RF), indem er einen von einem Benutzer ausgewählten Kanal oder alle vorgespeicherten Kanäle unter den über eine Antenne empfangenen RF-Rundfunksignalen abstimmt. Der Tuner 311 wandelt das empfangene RF-Rundfunksignal in ein Zwischenfrequenzsignal (IF-Signal) oder ein Basisbandsignal um. Wenn das empfangene RF-Rundfunksignal ein digitales Rundfunksignal ist, wandelt der Tuner 311 es in ein digitales IF-Signal DIF um. Wenn es sich bei dem empfangenen RF-Rundfunksignal um ein analoges Rundfunksignal handelt, wandelt der Tuner 311 es in ein analoges Basisband-Video- oder Audiosignal CVBS/SIF um. Das heißt, der Tuner 311 kann sowohl das digitale Rundfunksignal als auch das analoge Rundfunksignal verarbeiten. Das vom Tuner 311 ausgegebene analoge Basisband-Video- oder Audiosignal CVBS/SIF kann direkt in der Steuerung 370 eingegeben werden.
  • Der Tuner 311 kann ein RF-Rundfunksignal eines einzelnen Trägers oder mehrerer Träger empfangen. Der Tuner 311 kann RF-Rundfunksignale aller Rundfunkkanäle, die über eine Kanalspeicherfunktion unter den über eine Antenne empfangenen RF-Rundfunksignalen gespeichert sind, sequentiell abstimmen und empfangen und sie in ein digitales Zwischenfrequenzsignal oder ein Basisbandsignal umwandeln.
  • Der Demodulator 312 kann das vom Tuner 5610 gewandelte digitale IF-Signal DIF empfangen und demodulieren und eine Kanaldecodierung durchführen. Zu diesem Zweck kann der Demodulator 312 einen Trellis-Decoder, einen De-Interleaver, einen Reed-Solomon-Decoder usw. beinhalten, oder er kann einen Faltungsdecoder, einen De-Interleaver, einen Reed-Solomon-Decoder usw. beinhalten.
  • Der Demodulator 312 kann die Demodulation und die Kanaldecodierung durchführen und dann ein Stromsignal TS ausgeben. Das Stromsignal kann ein Signal sein, in dem ein Videosignal, ein Audiosignal oder ein Datensignal gemultiplext ist. Zum Beispiel kann das Stromsignal ein MPEG-2-Transportstrom (TS) sein, in dem ein MPEG-2-Standard-Videosignal, ein Dolby AC-3-Standard-Audiosignal usw. gemultiplext sind.
  • Das vom Demodulator 312 ausgegebene Stromsignal kann in die Steuerung 370 eingegeben werden. Die Steuerung 370 kann das Demultiplexen, die Video-/Audiosignalverarbeitung und ähnliches steuern und eine Bildausgabe über die Anzeige 370 und eine Audioausgabe über die Audioausgabeeinheit 350 steuern.
  • Die Schnittstelleneinheit 320 für externe Geräte bietet eine Schnittstellenumgebung zwischen einem Anzeigegerät und verschiedenen externen Geräten. Zu diesem Zweck kann die Schnittstelleneinheit 320 für externe Geräte eine A/V-Ein-/Ausgabeeinheit (nicht abgebildet) oder eine drahtlose Kommunikationseinheit (nicht abgebildet) enthalten.
  • Die Schnittstelleneinheit 320 für externe Geräte kann kabelgebunden/kabellos an ein externes Gerät angeschlossen werden, wie z.B. Digital Versatile Disk (DVD), Blu-ray, Spielgerät, Kamera, Camcorder, Computer (Notebook), Tablet-PC, Smartphone, Bluetooth-Gerät und Cloud. Die Schnittstelleneinheit 320 für externe Geräte überträgt an die Steuerung 370 Signale einschließlich Daten, wie z.B. ein Bild, ein Video und Audio, die von außen über das angeschlossene externe Gerät eingegeben werden. Die Steuerung 370 kann dazu eingerichtet sein, dass sie das Datensignal, wie z. B. das verarbeitete Bild, Video und Audio, an das angeschlossene externe Gerät ausgibt. Zu diesem Zweck kann die Schnittstelleneinheit 320 für das externe Gerät ferner eine A/V-Ein-/Ausgabeeinheit (nicht abgebildet) oder eine drahtlose Kommunikationseinheit (nicht abgebildet) beinhalten.
  • Die A/V-Ein-/Ausgabeeinheit kann einen USB-Anschluss, einen Composite Video Banking Sync- (CVBS) Anschluss, einen Komponentenanschluss, einen S-Video-Anschluss (analog), einen DVI-Anschluss (Digital Visual Interface), einen HDMI-Anschluss (High Definition Multimedia Interface), einen RGB-Anschluss, einen D-SUB-Anschluss und ähnliches umfassen, so dass Video- und Audiosignale des externen Geräts in das Anzeigegerät eingegeben werden können.
  • Die drahtlose Kommunikationseinheit kann drahtlose Kommunikation mit anderen digitalen Geräten durchführen. Das Multimediagerät 100 kann mit anderen digitalen Geräten nach einem Kommunikationsprotokoll vernetzt werden, z.B. Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, Bluetooth, Radio Frequency Identification (RFID), Infrarot-Datenassoziation (IrDA), Ultrabreitband (UWB), ZigBee, Digital Living Network Alliance (DLNA) usw.
  • Die externe Geräteschnittstelleneinheit 320 kann über mindestens einen der verschiedenen oben beschriebenen Anschlüsse an eine Set-Top-Box (STB) angeschlossen werden und Ein-/Ausgabevorgänge mit der Set-Top-Box durchführen. Die Externes-Gerät-Schnittstelleneinheit 320 kann eine Anwendung oder eine Anwendungsliste in einem benachbarten externen Gerät empfangen und an die Steuerung 370 oder den Speicher 330 übertragen.
  • Die Netzwerkschnittstelleneinheit 313 bietet eine Schnittstelle zum Anschluss des Anzeigegeräts an ein drahtgebundenes/drahtloses Netzwerk einschließlich eines Internet-Netzwerks. Die Netzwerk-Schnittstelleneinheit 313 kann ein Ethernet-Endgerät usw. für den Anschluss an ein drahtgebundenes Netzwerk beinhalten und kann z.B. drahtloses LAN (WLAN) (Wi-Fi), drahtloses Breitband (WiBro), weltweite Interoperabilität für Mikrowellenzugang (Wimax), Hochgeschwindigkeits-Abwärtspaketzugang (HSDPA), BluetoothTM, Radiofrequenz-Identifikation (RFID), Infrarot-Datenassoziation (IrDA), Ultrabreitband (UWB), ZigBee, Nahfeldkommunikation (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi direkt, drahtloser universeller serieller Bus (USB) usw. für die Verbindung mit einem drahtlosen Netzwerk verwenden.
  • Die Netzwerk-Schnittstelleneinheit 313 kann über ein Netzwerk oder ein anderes mit dem Netzwerk verbundenes Netzwerk Daten mit anderen Benutzern oder anderen digitalen Geräten senden oder empfangen. Die Netzwerk-Schnittstelleneinheit 313 kann in einem Anzeigegerät gespeicherte Daten an einen ausgewählten Benutzer oder ein ausgewähltes digitales Gerät unter anderen Benutzern oder anderen digitalen Geräten, die zuvor in dem Anzeigegerät registriert wurden, senden oder empfangen.
  • Die Netzwerkschnittstelleneinheit 313 kann über ein Netzwerk oder ein anderes mit dem Netzwerk verbundenes Netzwerk auf eine vorgegebene Webseite zugreifen. Das heißt, die Netzschnittstelleneinheit 313 kann über ein Netz auf eine vorgegebene Webseite zugreifen und mit einem entsprechenden Server Daten senden oder empfangen. Darüber hinaus kann die Netzschnittstelleneinheit 313 Inhalte oder Daten empfangen, die von einem Inhaltsanbieter oder einem Netzbetreiber bereitgestellt werden. Das heißt, die Netzschnittstelleneinheit 313 kann Inhalte wie Filme, Werbung, Spiele, VOD und Rundfunksignale, die von einem Inhaltsanbieter oder einem Netzbetreiber bereitgestellt werden, sowie Informationen über die Inhalte über das Netz empfangen. Ferner kann die Netzschnittstelleneinheit 313 Aktualisierungsinformationen und Aktualisierungsdateien von Firmware empfangen, die von einem Netzbetreiber zur Verfügung gestellt werden. Die Netzschnittstelleneinheit 313 kann Daten an das Internet oder den Inhaltsanbieter oder den Netzbetreiber übertragen.
  • Die Netzwerk-Schnittstelleneinheit 313 kann eine gewünschte Anwendung aus den über das Netzwerk geöffneten Anwendungen auswählen und empfangen.
  • Der Speicher 330 kann ein Programm zur Verarbeitung und Steuerung jedes Signals in der Steuerung 370 speichern, und er kann auch ein Videosignal, ein Audiosignal oder ein Datensignal speichern, das verarbeitet wird.
  • Der Speicher 330 kann eine Funktion zum vorübergehenden Speichern des Video-, Audio- oder Datensignals ausführen, das von der externen Geräteschnittstelleneinheit 320 oder der Netzwerkschnittstelleneinheit 313 eingegeben wird. Der Speicher 330 kann Informationen über einen vorbestimmten Übertragungskanal über eine Kanalspeicherfunktion speichern.
  • Der Speicher 330 kann eine Anwendung oder eine Anwendungsliste speichern, die von der externen Geräteschnittstelleneinheit 320 oder der Netzwerkschnittstelleneinheit 313 eingegeben wurde. Der Speicher 330 kann verschiedene Plattformen speichern, die später beschrieben werden. Der Speicher 330 kann mindestens eine Art von Speichermedium umfassen, nämlich einen Flash-Speicher, eine Festplatte, ein Multimedia-Kartenmikro, einen Kartenspeicher (z.B. SD- oder XD-Speicher usw.), einen RAM-Speicher und einen ROM-Speicher (z.B. EEPROM usw.). Das Anzeigegerät kann Inhaltsdateien (Videodateien, Standbilddateien, Musikdateien, Dokumentdateien, Anwendungsdateien usw.), die im Speicher 330 gespeichert sind, abspielen und dem Benutzer zur Verfügung stellen. In einigen Ausführungsformen kann der Speicher 330 in der Steuerung 370 enthalten und implementiert sein.
  • Die Benutzerschnittstelleneinheit 380 sendet ein vom Benutzer eingegebenes Signal an die Steuerung 370 oder sendet ein Signal der Steuerung 370 an den Benutzer. Die Benutzerschnittstelleneinheit 380 kann von einer Benutzereingabeeinheit 300 ein Steuersignal empfangen, das mit dem Ein-/Ausschalten, der Kanalauswahl und der Bildschirmeinstellung zusammenhängt, und es verarbeiten, oder sie kann eine Verarbeitung zum Senden eines Steuersignals der Steuerung 370 an die Benutzereingabeeinheit 300 durchführen. Die Benutzereingabeeinheit 300 kann mindestens entweder eine verdrahtete Eingabeeinheit, die eine Benutzereingabe über einen verdrahteten Kanal empfängt, oder eine drahtlose Eingabeeinheit, die eine Benutzereingabe über einen drahtlosen Kanal empfängt, enthalten.
  • Die Benutzerschnittstelleneinheit 380 kann an die Steuerung 370 das Steuersignal senden, das von einer lokalen Taste (nicht abgebildet) eingegeben wird, z. B. einer Ein-/Aus-Taste, einer Kanaltaste, einer Lautstärketaste und einer Einstelltaste.
  • Die Benutzerschnittstelleneinheit 380 kann an die Steuerung 370 ein Steuersignal senden, das von einer Abtasteinheit (nicht abgebildet) eingegeben wird, die die Geste eines Benutzers erfasst, oder ein Signal der Steuerung 370 an die Abtasteinheit (nicht abgebildet) senden. Die Erfassungseinheit (nicht abgebildet) kann einen Berührungssensor, einen Audiosensor, einen Ortssensor, einen Bewegungssensor usw. beinhalten.
  • Die Steuerung 370 kann einen über den Tuner 311, den Demodulator 312 oder die Schnittstelleneinheit für externe Geräte 320 eingegebenen Datenstrom demultiplexen oder die demultiplexten Signale verarbeiten, um ein Signal für die Video- oder Audioausgabe zu erzeugen und auszugeben.
  • Die Steuerung 370 überträgt die Pixeldaten eines Bilds über die oben beschriebene Bildverarbeitungseinheit 100 an die Anzeige 200. Ein durch die Steuerung 370 verarbeitetes Bildsignal kann über die Schnittstelleneinheit 320 an ein externes Ausgabegerät gesendet werden.
  • Die Steuerung 370 kann den Gesamtbetrieb des Anzeigegeräts steuern. Beispielsweise kann die Steuerung 370 den Tuner 311 steuern, um eine RF-Sendung abzustimmen, die einem von einem Benutzer ausgewählten oder einem zuvor gespeicherten Kanal entspricht.
  • Die Steuerung 370 kann das Anzeigegerät durch eine Benutzerbefehlseingabe über die Benutzerschnittstelleneinheit 380 oder ein internes Programm steuern. Insbesondere kann die Steuerung 370 auf das Netzwerk zugreifen und das Herunterladen einer Anwendung oder einer Anwendungsliste, die der Benutzer auf das Anzeigegerät herunterladen möchte, erlauben.
  • Die Steuerung 370 kann den Tuner 311 steuern, um ein Signal eines Kanals einzugeben, der gemäß einem vorgegebenen Kanalauswahlbefehl ausgewählt wurde, der über die Benutzerschnittstelleneinheit 380 empfangen wurde. Der Tuner 370 kann Video-, Audio- oder Datensignale des ausgewählten Kanals verarbeiten. Die Steuerung kann vom Benutzer ausgewählte Kanalinformationen usw. zusammen mit dem verarbeiteten Video- oder Audiosignal über die Anzeige 200 oder die Audioausgabeeinheit 250 ausgeben.
  • Basierend auf einem Videowiedergabebefehl für ein externes Gerät, der über die Benutzerschnittstelleneinheit 380 empfangen wird, kann die Steuerung 370 die Ausgabe eines Videosignals oder eines Audiosignals, das von einem externen Gerät, z. B. einer Kamera oder einem Camcorder, über die Schnittstelleneinheit 320 für externe Geräte eingegeben wird, über die Anzeige 200 oder die Audioausgabeeinheit 250 ermöglichen.
  • Die Steuerung 370 kann die Anzeige 200 steuern, um ein Bild anzuzeigen. Beispielsweise kann die Steuerung 370 die Anzeige 200 so steuern, dass ein über den Tuner 311 eingegebenes Sendebild, ein über die Schnittstelleneinheit 320 des externen Geräts eingegebenes externes Eingangsbild, ein über die Netzwerkschnittstelleneinheit 313 eingegebenes Bild oder ein im Speicher 330 gespeichertes Bild angezeigt wird. In diesem Fall kann ein Bild, das auf der Anzeige 200 angezeigt wird, ein Standbild oder ein Video sein und kann ein 2D-Video oder ein 3D-Video sein.
  • Die Steuerung 370 kann das Anzeigegerät zur Wiedergabe von Inhalten steuern. Bei den Inhalten kann es sich um auf dem Anzeigegerät gespeicherte Inhalte, empfangene Rundfunkinhalte oder von außen eingegebene externe Eingangsinhalte handeln. Bei den Inhalten kann es sich mindestens um ein Broadcast-Video, ein externes Eingabevideo, eine Audiodatei, ein Standbild, einen Web-Bildschirm, auf den zugegriffen wurde, oder eine Dokumentdatei handeln.
  • Wenn die Steuerung 370 ein Element der Anwendungsansicht eingibt, kann die Steuerung 370 dazu eingerichtet sein, dass sie eine Anwendung oder eine Anwendungsliste anzeigt, die sich im Anzeigegerät befindet oder die von einem externen Netzwerk heruntergeladen werden kann.
  • Die Steuerung 370 kann dazu eingerichtet sein, dass sie eine aus einem externen Netzwerk heruntergeladene Anwendung zusammen mit verschiedenen Benutzerschnittstellen installiert und betreibt. Die Steuerung 370 kann ein Bild im Zusammenhang mit einer auszuführenden Anwendung steuern, das nach Wahl des Benutzers auf der Anzeige 200 angezeigt werden soll.
  • Die Anzeige 200 wandelt das Videosignal, das Datensignal, ein OSD-Signal usw., das von der Steuerung 370 verarbeitet wird, oder das Videosignal, das Datensignal usw., das von der Schnittstelleneinheit 320 des externen Geräts empfangen wird, in R-, G- und B-Signale um, um ein Steuersignal zu erzeugen. Die Anzeige 200 kann einen Berührungsbildschirm beinhalten.
  • Die Audio-Ausgabeeinheit 350 empfängt ein von der Steuerung 370 verarbeitetes Signal, z. B. ein Stereosignal, ein 3.1-Kanal-Signal oder ein 5.1-Kanal-Signal, und gibt es als Audio aus. Die Audio-Ausgabeeinheit 350 kann als verschiedene Arten von Lautsprechern implementiert werden.
  • Das Anzeigegerät kann ferner eine Abtasteinheit (nicht abgebildet) mit mindestens einem Berührungssensor, einem Audiosensor, einem Ortssensor und einem Bewegungssensor beinhalten, um die Geste des Benutzers zu erfassen. Das von der Erfassungseinheit (nicht abgebildet) erfasste Signal kann über die Benutzerschnittstelleneinheit 380 an die Steuerung 370 gesendet werden.
  • Das Anzeigegerät kann ferner eine Fotografiereinheit (nicht abgebildet) zum Fotografieren eines Benutzers beinhalten. Von der Fotografiereinheit (nicht abgebildet) fotografierte Bildinformationen können in der Steuerung 370 eingegeben werden. Die Steuerung 370 kann die Geste eines Benutzers einzeln oder in Kombination mit dem von der Fotografiereinheit aufgenommenen Bild (nicht abgebildet) oder dem von der Abtasteinheit erfassten Signal (nicht abgebildet) ermitteln.
  • Das Netzgerät 360 kann das gesamte Anzeigegerät mit Strom versorgen. Das Netzgerät 190 kann mit einem Umwandler (nicht abgebildet) Wechselstrom in Gleichstrom umwandeln.
  • Unter Bezugnahme auf 18 kann die Steuerung 370 eine Demultiplexeinheit 371, eine erste Bildverarbeitungseinheit 372, einen OSD-Generator 373, eine zweite Bildverarbeitungseinheit 100, einen Mischer 374, einen Bildfrequenzumwandler (FRC) 375 und einen Formatierer 376 beinhalten. Darüber hinaus kann die Steuerung 370, auch wenn sie nicht abgebildet ist, eine AudioVerarbeitungseinheit und eine Datenverarbeitungseinheit beinhalten.
  • Die Demultiplexeinheit 371 demultiplext einen Eingangsstrom. Beispielsweise kann die Demultiplexeinheit 371 Eingangs-MPEG-2 TS in Video-, Audio- und Datensignale demultiplexen. Das in die Demultiplexeinheit 371 eingegebene Stromsignal kann ein Stromsignal sein, das von einem Tuner, einem Demodulator oder einer Schnittstelleneinheit eines externen Geräts ausgegeben wird.
  • Die erste Bildverarbeitungseinheit 372 führt die Verarbeitung des demultiplexten Videosignals durch. Zu diesem Zweck kann die erste Bildverarbeitungseinheit 372 einen Videodecoder 372a und einen Skalierer 372b beinhalten. Das von der ersten Bildverarbeitungseinheit 372 dekodierte Videosignal kann in den Mischer 374 eingegeben werden.
  • Der Videodecoder 372a decodiert das demultiplexte Videosignal. Der Skalierer 372b skaliert eine Auflösung des dekodierten Videosignals, so dass die Auflösung auf der Anzeige 200 ausgegeben werden kann. Da der Überscan-Generator 102 der zweiten Bildverarbeitungseinheit 100 eine Skaliererfunktion ausführt, können sich die erste und die zweite Bildverarbeitungseinheit einen Skalierer 372b teilen.
  • Der Video-Decoder 372a unterstützt möglicherweise verschiedene Standards. Beispielsweise kann der Videodecoder 372a eine Funktion des MPEG–2-Decoders ausführen, wenn das Videosignal im MPEG-2-Standard codiert ist, und er kann eine Funktion des H.264-Decoders ausführen, wenn das Videosignal im DMB-Verfahren (Digital Multimedia Broadcasting) oder im H.264-Standard codiert ist. Das vom Videodecoder 372a ausgegebene Videosignal kann in ein Video umgewandelt werden, in dem sich ein festes Muster 201 jedes Mal zu einer vorher festgelegten Zeit durch die zweite Bildverarbeitungseinheit 100 bewegt, und kann dann dem Mischer 374 zugeführt werden.
  • Der OSD-Generator 373 erzeugt OSD-Daten entsprechend einer Benutzereingabe oder selbstständig. Der OSD-Generator 155 erzeugt Daten für die Anzeige verschiedener Daten auf einem Bildschirm der Anzeige 200 in Grafik- oder Textform auf der Grundlage eines Steuersignals der Benutzerschnittstelleneinheit 380. Die generierten OSD-Daten umfassen verschiedene Daten wie z.B. einen Bildschirm der Benutzerschnittstelle (z.B. GUI) des Anzeigegeräts, verschiedene Menübildschirme, Widgets, Symbole und Informationen zur Betrachtungsrate. Der OSD-Generator 374 kann Daten für die Anzeige von Untertiteln von Broadcast-Video oder Broadcast-Informationen basierend auf EPG erzeugen.
  • Der Mischer 374 mischt die vom OSD-Generator 155 erzeugten OSD-Daten und das von der zweiten Bildverarbeitungseinheit 100 ausgegebene Videosignal und stellt ihm den Formatierer 376 zur Verfügung. Durch Mischen des dekodierten Videosignals und der OSD-Daten wird das OSD überlagert und auf einem Broadcast-Video oder einem externen Eingangsvideo angezeigt.
  • Der Bildfrequenzumwandler 375 wandelt die Bildfrequenz eines Eingangsvideos um. Beispielsweise kann der Bildfrequenzumwandler 375 eine Videobildfrequenz von 60 Hz in eine Bildfrequenz von z.B. 120 Hz oder 240 Hz umwandeln, abhängig von einer Ausgangsfrequenz der Anzeige 200. Wie oben beschrieben, kann es verschiedene Methoden zur Umwandlung der Bildfrequenz geben. Wenn der Bildfrequenzumwandler 375 beispielsweise die Bildfrequenz von 60 Hz in 120 Hz umwandelt, kann der Bildfrequenzumwandler 375 die Bildfrequenz durch Einfügen desselben ersten Bildes zwischen ein erstes und ein zweites Bild oder durch Einfügen eines aus dem ersten und dem zweiten Bild vorangehenden dritten Bilds zwischen das erste und das zweite Bild konvertieren. Ein weiteres Beispiel: Wenn der Bildfrequenzumwandler 375 die Bildfrequenz von 60 Hz in 240 Hz umwandelt, kann der Bildfrequenzumwandler 375 die Bildfrequenz konvertieren, indem er drei identische Bilder oder drei vorangehende Bilder zwischen vorhandene Bilder einfügt. Wenn keine separate Bildkonvertierung durchgeführt wird, kann der Bildfrequenzumwandler 375 umgangen werden.
  • Der Formatierer 376 ändert einen Ausgang des Bildfrequenzumwandlers 375 so, dass er einem Eingangssignalformat der Anzeige 200 entspricht. Beispielsweise kann der Formatierer 376 R-, G- und B-Datensignale ausgeben, und diese R-, G- und B-Datensignale können als Niederspannungs-Differenzsignal (LVDS) oder als Mini-LVDS ausgegeben werden. Wenn es sich bei der Ausgabe des Bildfrequenzumwandlers 375 um ein 3D-Videosignal handelt, kann der Formatierer 376 den 3D-Dienst über die Anzeige 200 unterstützen, indem er es in einem 3D-Format konfiguriert und ausgibt, das für das Eingangssignalformat der Anzeige 200 geeignet ist.
  • Eine Audioverarbeitungseinheit (nicht abgebildet) in der Steuerung 370 kann die Audioverarbeitung eines demultiplexten Audiosignals durchführen. Die Audioverarbeitungseinheit (nicht abgebildet) unterstützt möglicherweise verschiedene Audioformate. Selbst wenn beispielsweise ein Audiosignal in Formaten wie MPEG-2, MPEG-4, AAC, HE-AAC, AC-3 und BSAC codiert ist, kann die Audioverarbeitungseinheit einen entsprechenden Decoder enthalten. Die Audioverarbeitungseinheit (nicht abgebildet) kann Basis, Höhen, Lautstärkeregelung und Ähnliches verarbeiten.
  • Eine Datenverarbeitungseinheit (nicht abgebildet) in der Steuerung 370 kann die Datenverarbeitung eines demultiplexten Datensignals durchführen. Beispielsweise kann die Datenverarbeitungseinheit das demultiplexierte Datensignal dekodieren, auch wenn das demultiplexierte Datensignal kodiert ist. Bei dem kodierten Datensignal kann es sich um EPG-Informationen handeln, einschließlich Sendeinformationen wie eine Start- und eine Endzeit eines auf jedem Sendekanal gesendeten Sendeprogramms.
  • Obwohl die Ausführungsformen unter Bezugnahme auf eine Reihe von illustrativen Ausführungsbeispielen beschrieben wurden, können zahlreiche andere Modifikationen und verschiedene andere vom Fachmann ausgearbeitet werden, die in den Anwendungsbereich der Grundsätze der vorliegenden Offenbarung fallen. Dementsprechend sollte der technische Umfang der vorliegenden Offenbarung nicht als Beschränkung auf die detaillierte Beschreibung ausgelegt werden und sollte durch die Auslegung der beigefügten Ansprüche bestimmt werden.

Claims (13)

  1. Anzeigegerät, umfassend: eine Bildverarbeitungseinheit, die dazu eingerichtet ist, ein zweites Bild durch Vergrößern eines ersten Bilds mit einer vorbestimmten Auflösung zu erzeugen und ein drittes Bild durch Auswählen eines Teils des zweiten Bilds zu erzeugen; und ein Anzeigefeld, das dazu eingerichtet ist, das dritte von der Bildverarbeitungseinheit empfangene Bild anzuzeigen.
  2. Anzeigevorrichtung nach Anspruch 1, wobei eine Auflösung des zweiten Bilds größer ist als eine Bildschirmauflösung des Anzeigefelds, wobei eine Auflösung des dritten Bilds geringer ist als eine Bildschirmauflösung des zweiten Bilds.
  3. Anzeigevorrichtung nach Anspruch 1, wobei die Bildverarbeitungseinheit als drittes Bild einen vorbestimmten Ausschnittbereich in dem zweiten Bild auswählt, wobei die Bildverarbeitungseinheit eine Position des Ausschnittbereichs nach Ablauf einer vorbestimmten Zeit ändert und das dritte Bild in dem zweiten Bild bewegt.
  4. Anzeigevorrichtung nach Anspruch 1, wobei die Bildverarbeitungseinheit ein festes Muster im ersten Bild ermittelt, wobei, wenn das feste Muster ermittelt wird, die Bildverarbeitungseinheit das zweite und dritte Bild erzeugt und Pixeldaten des dritten Bilds an einen Anzeigefeldtreiber zum Ansteuern des Anzeigefelds überträgt.
  5. Anzeigevorrichtung nach Anspruch 4, wobei die Bildverarbeitungseinheit eine Leuchtdichte des festen Musters um eine vorbestimmte Leuchtdichte reduziert.
  6. Anzeigevorrichtung nach Anspruch 4, wobei, wenn das feste Muster im ersten Bild nicht ermittelt wird, die Bildverarbeitungseinheit die Auflösung des ersten Bilds in eine Bildschirmauflösung des Anzeigefelds umwandelt und Pixeldaten des ersten Bilds an den Anzeigefeldtreiber zum Ansteuern des Anzeigefelds überträgt.
  7. Anzeigevorrichtung nach einem der Ansprüche 1 bis 6, wobei Pixeldaten des dritten Bilds oder Pixeldaten des ersten Bilds mit der Bildschirmauflösung des Anzeigefelds unter Verwendung der Bildverarbeitungseinheit übertragen werden.
  8. Bildverarbeitungsverfahren für ein Anzeigegerät, umfassend: einen ersten Schritt des Vergrößerns eines ersten Bilds mit einer vorbestimmten Auflösung zum Erzeugen eines zweiten Bilds; einen zweiten Schritt des Auswählens eines Teils des zweiten Bilds zum Erzeugen eines dritten Bilds; und einen dritten Schritt des Anzeigens des Bilds auf einem Bildschirm eines Anzeigefelds.
  9. Bildverarbeitungsverfahren nach Anspruch 8, wobei eine Auflösung des zweiten Bilds größer als eine Bildschirmauflösung einer Anzeige ist, wobei eine Auflösung des dritten Bilds geringer ist als eine Bildschirmauflösung des zweiten Bilds.
  10. Bildverarbeitungsverfahren nach Anspruch 8, wobei der zweite Schritt umfasst: Auswählen eines vorbestimmten Ausschnittbereichs im zweiten Bild als drittes Bild; und Ändern der Position des Ausschnittbereichs nach Ablauf einer vorbestimmten Zeit und Bewegen des dritten Bilds in dem zweiten Bild.
  11. Bildverarbeitungsverfahren nach Anspruch 8, weiter umfassend: Ermitteln eines festen Musters in dem ersten Bild; und wenn das feste Muster ermittelt wird, Erzeugen des zweiten und dritten Bilds und Übertragen von Pixeldaten des dritten Bilds an einen Anzeigefeldtreiber zum Ansteuern des Anzeigefelds.
  12. Bildverarbeitungsverfahren nach Anspruch 11, weiter umfassend Reduzieren einer Leuchtdichte des festen Musters um eine vorbestimmte Leuchtdichte.
  13. Bildverarbeitungsverfahren nach Anspruch 11, weiter umfassend, wenn das feste Muster im ersten Bild nicht ermittelt wird, Umwandeln der Auflösung des ersten Bilds in eine Bildschirmauflösung des Anzeigefelds und Übertragen von Pixeldaten des ersten Bilds an den Anzeigefeld-Treiber zum Ansteuern des Anzeigefelds.
DE112018006952.4T 2018-02-26 2018-03-06 Anzeigevorrichtung und Verfahren zur Bildverarbeitung dafür Pending DE112018006952T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020180022824A KR102508682B1 (ko) 2018-02-26 2018-02-26 표시장치와 그 영상 처리 방법
KR10-2018-0022824 2018-02-26
PCT/KR2018/002668 WO2019164045A1 (ko) 2018-02-26 2018-03-06 표시장치와 그 영상 처리 방법

Publications (1)

Publication Number Publication Date
DE112018006952T5 true DE112018006952T5 (de) 2020-11-19

Family

ID=67688125

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018006952.4T Pending DE112018006952T5 (de) 2018-02-26 2018-03-06 Anzeigevorrichtung und Verfahren zur Bildverarbeitung dafür

Country Status (4)

Country Link
US (1) US11430370B2 (de)
KR (1) KR102508682B1 (de)
DE (1) DE112018006952T5 (de)
WO (1) WO2019164045A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7404162B2 (ja) * 2020-06-10 2023-12-25 株式会社ジャパンディスプレイ 表示装置
CN111736790B (zh) * 2020-07-31 2020-12-18 开立生物医疗科技(武汉)有限公司 一种多屏显示方法、装置、系统和主机设备
US20220116660A1 (en) * 2020-10-12 2022-04-14 Rgb Spectrum Systems, methods, and devices for video data scaling in multi-window displays
WO2024034774A1 (ko) * 2022-08-09 2024-02-15 삼성전자 주식회사 복수의 디스플레이들을 포함하는 전자 장치 및 복수의 디스플레이들의 화질 편차를 줄이는 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100642359B1 (ko) 2003-12-30 2006-11-03 엘지전자 주식회사 영상표시기기 및 화면잔상 방지방법
KR100719114B1 (ko) 2005-07-19 2007-05-17 삼성전자주식회사 픽셀 위치를 이동시키는 디스플레이 장치 및 그 방법
KR101890135B1 (ko) * 2011-03-18 2018-08-23 삼성전자주식회사 잔상 감소를 위한 gui 제공 방법 및 표시 장치
WO2014154773A1 (en) * 2013-03-27 2014-10-02 Thomson Licensing Method and apparatus for generating a super-resolved image from a single image
KR20150130592A (ko) 2014-05-13 2015-11-24 삼성디스플레이 주식회사 영상 보정 방법, 영상 보정 장치 및 이를 구비하는 표시 장치
KR102269318B1 (ko) 2014-09-15 2021-06-28 삼성디스플레이 주식회사 디스플레이 장치 및 이를 포함하는 디스플레이 시스템
US10089717B2 (en) * 2016-04-05 2018-10-02 Flipboard, Inc. Image scaling using a convolutional neural network

Also Published As

Publication number Publication date
WO2019164045A1 (ko) 2019-08-29
KR102508682B1 (ko) 2023-03-13
US20210366359A1 (en) 2021-11-25
KR20190102443A (ko) 2019-09-04
US11430370B2 (en) 2022-08-30

Similar Documents

Publication Publication Date Title
US9613591B2 (en) Method for removing image sticking in display device
US8593510B2 (en) Image display apparatus and operating method thereof
CN102668587B (zh) 播放内容的方法
DE112018006952T5 (de) Anzeigevorrichtung und Verfahren zur Bildverarbeitung dafür
US10593273B2 (en) Image display apparatus capable of improving sharpness of an edge area
DE202011110780U1 (de) Multifunktionsanzeigevorrichtung
CN103369335A (zh) 图像显示设备及其操作方法
US20150381959A1 (en) Image processing device and method therefor
DE112019007647T5 (de) Anzeigevorrichtung und Verfahren zu deren Betrieb
KR102336984B1 (ko) 멀티미디어 디바이스
KR102459652B1 (ko) 표시장치와 그 영상 처리 방법
US11190838B2 (en) Multimedia device with standby mode and providing notification information
DE112018007902T5 (de) Anzeigegerät und verfahren zur steuerung desselben
KR102271436B1 (ko) 디스플레이 디바이스에서의 잔상 제거 방법
KR101897773B1 (ko) 입체영상에 대한 캡쳐 모드 선택이 가능한 입체영상 캡쳐 장치 및 방법
US11119717B2 (en) Digital signage system and data processing method in the same
DE112018007246T5 (de) Anzeigegerät und Bildverarbeitungsverfahren dafür
KR101730424B1 (ko) 영상표시장치 및 그 동작방법
DE112018007632T5 (de) Mobilgerät und verfahren zur steuerung desselben
JP5050094B2 (ja) 映像処理装置及び映像処理方法
KR20140130904A (ko) 영상 표시 장치 및 그 방법
US20210141591A1 (en) Image display apparatus, server and system including the same
KR20160095825A (ko) 디지털 사이니지
KR20150024198A (ko) 영상 처리 장치 및 그 방법
KR20140055124A (ko) 영상표시장치, 및 그 동작방법

Legal Events

Date Code Title Description
R012 Request for examination validly filed