DE102007021537A1 - Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion und zugehöriges Ansteuerverfahren - Google Patents

Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion und zugehöriges Ansteuerverfahren Download PDF

Info

Publication number
DE102007021537A1
DE102007021537A1 DE102007021537A DE102007021537A DE102007021537A1 DE 102007021537 A1 DE102007021537 A1 DE 102007021537A1 DE 102007021537 A DE102007021537 A DE 102007021537A DE 102007021537 A DE102007021537 A DE 102007021537A DE 102007021537 A1 DE102007021537 A1 DE 102007021537A1
Authority
DE
Germany
Prior art keywords
display
display panel
image
detection unit
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102007021537A
Other languages
English (en)
Other versions
DE102007021537B4 (de
Inventor
Yeon Shim Shim
Hyung Uk Gwangmyeong Jang
Sang Hyuck Bae
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Display Co Ltd
Original Assignee
LG Philips LCD Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Philips LCD Co Ltd filed Critical LG Philips LCD Co Ltd
Publication of DE102007021537A1 publication Critical patent/DE102007021537A1/de
Application granted granted Critical
Publication of DE102007021537B4 publication Critical patent/DE102007021537B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/13338Input devices, e.g. touch panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving

Abstract

Eine Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion weist ein Einbaumodul mit einer Mehrzahl von Kameras auf, welche an einem Rand eines Displaypaneels integriert sind; sowie einen Prozessor, welcher ein Berührungsfeld unter Verwendung von mindestens einem ersten Bild bzw. einem zweiten Bild bestimmt, wobei die Bilder von der Mehrzahl von Kameras aufgenommen wurden.

Description

  • Die Anmeldung basiert auf der am 13. Dezember 2006 eingereichten Koreanischen Patentanmeldung Nr. 10-2006-127351 , welche hiermit mittels Bezugnahme vollinhaltlich in diese Anmeldung aufgenommen wird.
  • Ausführungsformen der Erfindung beziehen sich auf eine Displayeinheit und insbesondere auf eine Displayeinheit und ein zugehöriges Ansteuerverfahren. Ausführungsformen der Erfindung sind für einen breiten Anwendungsbereich geeignet. Insbesondere sind Ausführungsformen der Erfindung zum Bereitstellen von Mehrfachberührungs-Erkennungsfähigkeiten für eine Displayeinheit geeignet.
  • Im Allgemeinen ist ein Berührungspaneel ein Typ von Nutzerschnittstelle, welcher an einer Displayeinheit angebracht ist, mit der Eigenschaft, dass eine zugehörige elektrische Kenngröße an einem Kontaktpunkt, wo eine Hand oder ein Stift das Paneel berührt, verändert wird. Berührungspaneele sind in verschiedenen Anwendungen genutzt worden, beispielsweise in kleinen transportablen Terminalen, Büroausstattung und Ähnlichem. Wenn allerdings eine mehrfache Berührung nahezu gleichzeitig an zwei Kontaktpunkten auftritt, kann das Berührungspaneel versagen, oder eine von den Berührungen muss durch ein vorgegebenes Programm ausgewählt werden.
  • Um diese Beschränkung der Mehrfachberührungs-Erkennung im Berührungspaneel entsprechend des Stand der Technik zu überwinden, ist kürzlich eine Mehrfachberührungs-Erkennungseinheit entwickelt worden, welche eine Mehrzahl von Berührungen gleichzeitig erkennt. Da allerdings die Mehrfachberührungs-Erkennungseinheit in einem von der Displayeinheit getrennten Aufbau hergestellt wird, ist das Design der Displayeinheit umgestaltet, um die Mehrfachberührungs-Erkennungseinheit an der Displayeinheit anzubringen. In diesem Fall, wenn die Mehrfachberührungs-Erkennungseinheit an der Displayeinheit angebracht ist, ist ein Montageprozess kompliziert und das Volumen wird vergrößert, so dass der Platzbedarf groß ist. Da weiterhin die Displayeinheit und die Mehrfachberührungs-Erkennungseinheit keine Einheit bilden, wird die bauliche Stabilität zwischen der Displayeinheit und der Mehrfachberührungs-Erkennungseinheit vermindert. Andererseits gibt es ein Verfahren zum Einbau eines optischen Sensors der Mehrfachberührungs-Erkennungseinheit in jeden Bildpunkt der Displayeinheit, aber dieses Verfahren hat ein anderes Problem damit, dass das Öffnungsverhältnis der Displayeinheit durch den optischen Sensor verringert wird, so dass die Helligkeit der Displayeinheit verringert wird.
  • Folglich sind Ausführungsformen der Erfindung für eine Displayeinheit bestimmt, die eine Mehrfachberührungs-Erkennungsfunktion sowie ein zugehöriges Ansteuerverfahren aufweist, welche ein oder mehrere Probleme, die auf Beschränkungen und Nachteile des Standes der Technik zurückzuführen sind, im Wesentlichen ausschließen.
  • Ein Ziel der Erfindung ist, eine Displayeinheit bereitzustellen, welche eine Mehrfachberührungs-Erkennungsfunktion hat, die eine hohe bauliche Stabilität für das Berührungserkennungssystem erzielt.
  • Ein anderes Ziel der Erfindung besteht darin, eine Displayeinheit bereitzustellen, welche eine Mehrfachberührungs-Erkennungsfunktion hat, die das Design der Displayeinheit beibehält.
  • Zusätzliche Merkmale und Vorteile der Erfindung werden in der folgenden Beschreibung von Ausführungsformen dargestellt und sind zum Teil aus der Beschreibung von Ausführungsformen ersichtlich oder zeigen sich bei der Anwendung der Ausführungsformen. Diese und andere Vorteile der Erfindung werden durch den Aufbau realisiert und erzielt, welcher in der Beschreibung der beispielhaften Ausführungsformen besonders hervorgehoben ist, sowie durch die zugehörigen Ansprüche, genauso wie durch die beigefügten Zeichnungen.
  • Um diese und andere Vorteile entsprechend des dargestellten und grob beschriebenen Gegenstands der Erfindung zu erzielen, weist eine Displayeinheit mit einer Mehrfachberührungs-Erkennungsfunktion ein Einbaumodul mit einer Mehrzahl von an einem Rand eines Displaypaneels integrierten Kameras auf; sowie einen Prozessor, der ein Berührungsfeld unter Verwendung von mindestens einem ersten bzw. einem zweiten Bild bestimmt, welche durch die Mehrzahl von Kameras erfasst wurden.
  • Als weiteren Gesichtspunkt weist eine Displayeinheit ein Displaypaneel zum Anzeigen von Displaydaten auf, welche ein Displaybild repräsentieren; eine erste Erfassungseinheit und eine zweite Erfassungseinheit, wobei beide Erfassungseinheiten am Displaypaneel montiert sind und jeweils erste und zweite Bilder des Displaypaneels erfassen; sowie einen Prozessor, welcher die Displaydaten mit jedem der ersten und zweiten erfassten Bilder vergleicht, um ein Berührungsfeld auf dem Displaypaneel zu bestimmen.
  • Als weiteren Gesichtspunkt weist ein Verfahren, das zum Bestimmen eines Berührungsfeldes auf einer Displayeinheit dient, die ein Displaypaneel zum Anzeigen von Displaydaten, welche ein Displaybild repräsentieren, sowie eine Mehrzahl von am Displaypaneel montierten synchronisierten Erfassungseinheiten hat, nahezu gleichzeitiges Erfassen von ersten, zweiten, dritten und vierten Bildern des Berührungsdisplaypaneels unter Verwendung von zugehörigen der synchronisierten Erfassungseinheiten auf; sowie Vergleichen der Displaydaten mit jedem der ersten und zweiten erfassten Bilder, so dass ein Berührungsfeld auf dem Displaypaneel bestimmt wird.
  • Es ist zu bemerken, dass sowohl die vorangegangene allgemeine Beschreibung als auch die folgende detaillierte Beschreibung der Erfindung beispielhaft, erläuternd und dazu bestimmt sind, eine weitere Erklärung der beanspruchten Erfindung zu geben.
  • Die beigefügten Zeichnungen, welche als Teil dieser Anmeldung ein tieferes Verständnis der Erfindung ermöglichen, zeigen Ausführungsformen der Erfindung und dienen zusammen mit der Beschreibung zum Erklären des Prinzips von Ausführungsformen der Erfindung.
  • 1 zeigt ein Blockschema einer beispielhaften Displayeinheit, welche eine Mehrfachberührungs-Erkennungsfunktion gemäß einer Ausführungsform der Erfindung aufweist;
  • 2 zeigt eine schematische Beschreibung der Displayeinheit von 1;
  • 3 zeigt ein Schaltbild eines Teils einer Bildpunktmatrix von 2;
  • 4 stellt einen beispielhaften Blickwinkel für Kameras dar, welche an einer Displayeinheit gemäß einer Ausführungsform der Erfindung angebracht sind;
  • 5 ist eine Querschnittsansicht der Displayeinheit von 1, welche beispielhafte Positionen von reflektionsfreien Elementen gemäß einer Ausführungsform der Erfindung zeigt;
  • 6 ist ein Ablaufschema, welches eine Steuersequenz von einem Mehrfachberührungs-Signalverarbeitungsprogramm gemäß einer Ausführungsform der Erfindung repräsentiert;
  • 7 zeigt beispielhafte Berührungsfelder auf einer Displayeinheit gemäß einer Ausführungsform der Erfindung;
  • 8 zeigt eine schematische Beschreibung von beispielhafter Berührungsfeldidentifikation gemäß einer Ausführungsform der Erfindung;
  • 9 zeigt eine schematische Beschreibung einer Triangulationsoperation gemäß einer Ausführungsform der Erfindung; und
  • 10 zeigt eine schematische Beschreibung einer Triangulationsoperation gemäß einer Ausführungsform der Erfindung.
  • Nun wird im Detail auf beispielhafte Ausführungsformen der Erfindung, von denen Beispiele in den beigefügten Zeichnungen dargestellt sind, Bezug genommen.
  • 1 zeigt ein Blockschema einer beispielhaften Displayeinheit, welche eine Mehrfachberührungs-Erkennungsfunktion gemäß einer Ausführungsform der Erfindung aufweist.
  • Entsprechend 1 weist eine Displayeinheit mit einer Mehrfachberührungs-Erkennungsfunktion gemäß einer Ausführungsform der Erfindung ein Berührungs- und Anzeigemodul 20 auf, in welchem Kameras 21A bis 21D in vier Ecken einer Bildpunktmatrix 10A, auf welcher ein Bild dargestellt wird, angeordnet sind; eine Steuerplatine 30, welche das Berührungs- und Anzeigemodul 20 steuert und die Koordinaten eines Berührungspunkts berechnet; sowie ein System 40 zum Liefern der darzustellenden RGB-Daten an die Steuerplatine 30 zusammen mit einem Timingsignal.
  • 2 zeigt eine schematische Beschreibung der Displayeinheit von 1. Entsprechend 2 weist das Berührungs- und Anzeigemodul 20 ein Flüssigkeitskristall-Displaypaneel 10 auf, wobei eine Bildpunktmatrix 10A gebildet wird, auf welcher ein Bild dargestellt wird; einen Source-Treiber 11 zum Liefern von Datenspannungen an Datenleitungen D1 bis Dm des Flüssigkeitskristall-Displaypaneels 10; einen Gate-Treiber 12 zum Liefern von Abtastpulsen an Gate-Leitungen G1 bis Gn des Flüssigkeitskristall-Displaypaneels 10; sowie in der Nähe der vier Ecken des Flüssigkeitskristall-Displaypaneels 10 angeordnete Kameras 21A bis 21D.
  • 3 zeigt ein Schaltbild eines Teils einer Bildpunktmatrix aus 2. Entsprechend der 2 und 3 weist das Flüssigkeitskristall-Displaypaneel 10 ein Dünnfilmtransistor-(nachstehend als "TFT" bezeichnet) Substrat und ein Farbfiltersubstrat auf. Eine Flüssigkeitskristallschicht entsteht zwischen dem TFT-Substrat und dem Farbfiltersubstrat. In dem TFT-Substrat werden die Datenleitungen D1 bis Dm und die Gateleitungen G1 bis Gn so angeordnet, dass sie sich gegenseitig im rechten Winkel auf einem unteren Glassubstrat kreuzen, und die Flüssigkeitskristallzellen Clc werden in einer Matrixstruktur in den Zellfeldern angeordnet, welche durch die Datenleitungen D1 bis Dm und die Gate-Leitungen G1 bis Gn definiert sind. Die in den Kreuzungsbereichen der Datenleitungen D1 bis Dm und Gate-Leitungen G1 bis Gn gebildeten TFTs übertragen die Datenspannungen, welche durch die Datenleitungen D1 bis Dm geliefert werden, zu den Bildpunktelektroden der Flüssigkeitskristallzellen. Zu diesem Zweck wird eine Gate-Elektrode des TFT mit den Gate-Leitungen G1 bis Gn verbunden, und eine zugehörige Source-Elektrode wird mit den Datenleitungen D1 bis Dm verbunden. Eine Drain-Elektrode des TFT wird mit der Bildpunktelektrode der Flüssigkeitskristallzelle Clc verbunden. Eine gemeinsame Spannung Vcom liegt an einer gemeinsamen Elektrode an, welche sich gegenüber der Bildpunktelektrode befindet.
  • Das Farbfiltersubstrat weist einen Schwarz-Matrixfilter sowie Farbfilter auf, welche auf einem oberen Glassubstrat gebildet werden.
  • Hingegen wird die gemeinsame Elektrode auf einem oberen Glassubstrat in einem Ansteuerverfahren mit vertikalem elektrischen Feld gebildet, beispielsweise in einem TN-(twisted nematic)Modus und einem VA-(vertical alignment)Modus, und wird auf einem unteren Glassubstrat zusammen mit der Bildpunktelektrode in einem Ansteuerverfahren mit horizontalem elektrischen Feld gebildet, beispielsweise in einem IPS-(in-plane switching)Modus und einem FFS-(fringe field switching)Modus.
  • Ein Speicherkondensator Cst kann durch Überdecken der Gate-Leitung und der Bildpunktelektrode der Flüssigkeitskristallzelle Clc gebildet werden. Alternativ kann der Speicherkondensator Cst auch durch Überdecken der Bildpunktelektrode und der getrennten gemeinsamen Leitung gebildet werden.
  • Der Source-Treiber 11 weist eine Mehrzahl von integrierten Datenschaltkreisen (nachstehend als „IC" bezeichnet) auf. Der Source-Treiber 11 konvertiert unter Kontrolle der Steuerplatine 30 digitale RGB-Videodaten, welche von der Steuerplatine 30 zugeführt werden, in positive oder negative analoge Gamma-Kompensationsspannungen und liefert die Gamma-Kompensationsspannungen als analoge Datenspannungen zu den Datenleitungen D1 bis Dm.
  • Der Gate-Treiber 12 weist eine Mehrzahl von Gate-ICs auf. Der Gate-Treiber 12 liefert unter Kontrolle der Steuerplatine 30 sequenziell Abtastpulse zu den Gate-Leitungen G1 bis Gn. Die Daten-ICs des Source-Treibers 11 und die Gate-ICs des Gate-Treibers 12 können auf dem unteren Glassubstrat durch ein COG-(chip-on-glass)Verfahren oder ein TAB-(tage-automated-bonding)Verfahren unter Verwendung eines TCP(tage carrier package) gebildet werden. Die Gate-ICs des Gate-Treibers 12 können direkt auf dem unteren Glassubstrat durch das gleichen Verfahren wie das TFT-Verfahren gebildet werden, gleichzeitig mit den TFTs der Bildpunktmatrix 10A.
  • Die Kameras 21A bis 21D können z. B. CMOS-(complementary metal Oxide semiconductor)Sensoren sein. Die Kameras 21A bis 21D können an den vier Ecken der Bildpunktmatrix 10A am Flüssigkeitskristall-Displaypaneel 10 angeordnet sein. Jede der Kameras 21A bis 21D nimmt das Bild der Oberfläche des Displaypaneels des zugehörigen Bildpunktfelds und der Nachbarschaft davon auf. Die als die Kameras 21A bis 21D verwendeten CMOS-Sensoren können eine Auflösung von etwa 320×240 Bildpunkten bis etwa 1280×1024 Bildpunkten haben. Das Berührungsbild, welches jede Kamera 21A bis 21D aufnimmt, wird an die Steuerplatine 30 geliefert.
  • 4 zeigt beispielhafte Blickwinkel für Kameras, welche gemäß einer Ausführungsform der Erfindung an einem Display angebracht sind. Entsprechend 4 wird für jede Kamera 21A bis 21D ein Linsenblickwinkel von etwa 90° gewählt. Der Linsenblickwinkel der Kameras 21A bis 21D kann entsprechend des Abstands zwischen dem Flüssigkeitskristall-Displaypaneel und den Kameras 21A bis 21D oder entsprechend der Größe des Flüssigkeitskristall-Displaypaneels 10 geändert werden. In einer Ausführungsform der Erfindung ist der Linsenblickwinkel von jeder der Linsen 21A bis 21D etwa 80° bis 90°. Das ist so, weil, wenn der Linsenblickwinkel der Kameras 21A bis 21D enger wird als 80°, sich die verdeckte Fläche, welche von den Kameras 21A bis 21D nicht aufgenommen wird, vergrößert, wodurch eine korrekte Bestimmung der Mehrfachberührungs-Feldes verhindert wird. Weiterhin wird, wenn der Linsenblickwinkel breiter als 90° ist, ein ungültiger Teil des Flüssigkeitskristall-Displaypaneels mit eingeschlossen, wobei ebenfalls eine korrekte Bestimmung des Mehrfachberührungs-Felds verhindert wird.
  • 5 ist eine Querschnittsansicht der Displayeinheit aus 1, welche beispielhafte Positionen reflektionsfreier Elemente gemäß einer Ausführungsform der Erfindung zeigt. Entsprechend 5 sind reflektionsfreie Elemente 13 in der Nähe des Rands des Glassubstrats des Flüssigkeitskristall-Displaypaneels 10 installiert. Die reflektionsfreien Elemente 13 weisen irgendeinen Anti-Reflektor, eine schwarze Schicht und zwei Schichten Polarisationsfilter auf, welche so angeordnet sind, dass ihre optischen Absorptionsachsen einander kreuzen. Die reflektionsfreien Elemente 13 sind vor den Linsen der Kameras 21A bis 21D angeordnet und um eine bestimmte Höhe (h1) über die Oberfläche des Glassubstrats angehoben. Die Höhe (h1) zwischen den reflektionsfreien Elementen 13 und der Oberfläche des Glassubstrats des Flüssigkeitskristall-Displaypaneels 10 ist umgekehrt proportional zu der Größe des Flüssigkeitskristall-Displaypaneels 10 und proportional zum Abstand zwischen dem Glassubstrat und der Kameralinse. In einer Ausführungsform liegt die Höhe h1 in einem Bereich von ein paar bis zu einigen Duzend Millimetern (mm).
  • Die reflektionsfreien Elemente 13 und die Kameras 21A bis 21D sind am Rand einer Konsole 14 fixiert, welche das Berührungs- und Anzeigemodul 20 trägt. Die reflektionsfreien Elemente 13 absorbieren oder schirmen externes Licht ab und verhindern eine durch das in die Linsen der Kameras 21A bis 21D einfallende Licht verursachte optische Interferenz.
  • Die Steuerplatine 30 ist mit dem Source-Treiber 11 und dem Gate-Treiber 12 durch einen FRC (flexible printed circuit) und einen Anschlussstecker verbunden. Die Steuerplatine 30 weist einen Timing-Controller 31 und einen Mehrfachberührungs-Prozessor 32 auf. Der Timing-Controller 31 erzeugt ein Gate-Steuersignal zum Steuern des Betriebs-Timings des Gate-Treibers 12 und ein Daten-Steuersignal zum Steuern des Betriebs-Timings des Source-Treibers 11 unter Nutzung vertikal/horizontaler Signale V, H und eines Takts CLK. Weiterhin liefert der Timing-Controller 31 die vom System 40 eingegebenen digitalen RGB-Videodaten an den Source-Treiber 11. Der Timing-Controller kann die Kameras 21A bis 21D miteinander synchronisieren, so dass Bilder der Oberfläche des Displaypaneels nahezu gleichzeitig erfasst werden. Durch das Synchronisieren der Erfassung der Bilder durch die Kameras 21A bis 21D kann das Berührungsfeld mit einer besseren Genauigkeit bestimmt werden.
  • Dem Mehrfachberührungs-Prozessor werden periodisch digitale RGB-Videodaten des Hintergrundbilds vom Timing-Controller zugeführt, als Antwort auf die vertikalen/horizontalen Synchronisierungssignale V, H und den Takt CLK, so dass die RGB-Daten gespeichert werden. Weiterhin führt der Mehrfachberührungs-Prozessor ein Mehrfachberührungs-Signalverarbeitungsprogramm aus, so dass ein vorher erfasstes Hintergrundbild mit einem gerade von den Kameras 21A bis 21D erfassten Berührungsbild verglichen wird, wobei ein Berührungsbild extrahiert wird. Hierbei wird das vorher von den Kameras 21A bis 21D aufgenommene Hintergrundbild in einem Speicher des Mehrfachberührungs-Prozessors 32 gespeichert. Zusätzlich berechnet der Mehrfachberührungs-Prozessor 32 die Koordinaten für das Berührungsbild und liefert das zugehörige Ergebnis Txy an das System 40. Der Mehrfachberührungs-Prozessor 32 tauscht das Timing-Signal, wie beispielsweise die vertikalen/horizontalen Synchronisierungssignale V, H und den Takt CLK, mit dem Timing-Controller 31 aus, wobei der Mehrfachberührungs-Prozessor 32 synchron mit dem Timing-Controller 31 operiert. Folglich, weil der Timing-Controller 31 mit dem Mehrfachberührungs-Prozessor 32 synchronisiert ist, können die Anzeige des zusammengesetzten Bilds des Berührungsbilds und des Hintergrundbilds im Flüssigkeitskristall-Displaypaneel 10 und das Koordinatenberechnungsverfahren des Berührungspunkts synchronisiert werden.
  • Das System 40 weist einen Speicher auf, in welchem ein Anwendungsprogramm abgelegt ist; eine CPU(central processing unit) zum Ausführen des Anwendungsprogramms; sowie einen Graphik-Verarbeitungsschaltkreis zum Verbinden des Hintergrundbilds und des Berührungsbilds und Verarbeiten der Signalinterpolation der zusammengesetzten Daten, der Konversion der zugehörigen Auflösung, und Ähnlichem. Das System 40 empfängt die Koordinatendaten Txy von dem Mehrfachberührungs-Prozessor 32 und führt das Anwendungsprogramm in Verbindung mit dem Koordinatenwert der Koordinatendaten aus. Wenn z. B. ein Icon eines speziellen Anwendungsprogramms durch Koordinaten eines Berührungspunkts gegeben ist, lädt das System 40 das Programm in den Speicher und führt das Programm aus. Weiterhin kann das System 40 auf einem PC(personal computer) implementiert werden und Daten mit dem Mehrfachberührungs-Prozessor 32 über eine serielle Schnittstelle oder eine USB-(universal serial bus)Schnittstelle austauschen.
  • 6 ist ein Ablaufplan, welcher eine Steuersequenz eines Mehrfachberührungs-Signalverarbeitungsprogramms gemäß einer Ausführungsform der Erfindung repräsentiert. 7 zeigt beispielhafte Berührungsgebiete auf einer Displayeinheit gemäß einer Ausführungsform der Erfindung. Entsprechend 6 empfängt das Mehrfachberührungs-Signalverarbeitungsprogramm das Berührungsbild, welches von den Kameras 21A bis 21D aufgenommen wird, und extrahiert das Bild des gültigen Berührungsfelds durch eine Bildschirmfensterverarbeitung (S1 und S2). Entsprechend 7 weist das von den Kameras 21A bis 21D aufgenommene Bild das Bild eines ungültigen Berührungsfelds entsprechend des Bereichs über der Berührungs-Oberfläche auf, genauso wie das Bild eines gültigen Berührungsfelds, aufgenommen auf der Berührungsfläche der Bildpunktmatrix. Folglich extrahiert das Mehrfachberührungs-Signalverarbeitungsprogramm mittels Bildschirmfenster-Verarbeitung das Bild (den verdeckten Teil) des gültigen Berührungsfelds), wo die Berührung stattfindet, in der Nähe der Berührungs-Oberfläche aus dem von jeder der Kameras 21A bis 21D aufgenommenen Bild. Die Bildschirmfenster-Verarbeitung verwendet eine derartige Bildextraktions-Technik, so dass für das zugeführte Bildsignal durch eine Untermatrix-Operation nur ein Zielbild extrahiert wird.
  • Danach konvertiert das Mehrfachberührungs-Signalverarbeitungsprogramm RGB-Daten, welche in dem Bild des gültigen Berührungsfelds enthalten sind, das durch die Bildschirmfenster-Verarbeitung extrahiert wurde, in Grauwerte oder Grauwert-Intensitäten (S3). Das von den Kameras 21A bis 21D aufgenommene Bild weist RGB-Daten auf, und das gültige Berührungsbild, welches durch die Bildschirmfenster-Verarbeitung extrahiert wurde, weist auch RGB-Daten auf. Die RGB-Daten von dem gültigen Berührungsbild werden in Grauwerte konvertiert, entsprechend der mathematischen Formel 1 in Schritt S3 unten. Zum Ermitteln der Berührungsinformation werden die Grauwerte in dem Hintergrundbild, welche im Bildpunktfeld 10A des Flüssigkeitskristall-Displaypaneels 10 gezeigt werden, und die Grauwerte des Bilds, das von den Kameras erfasst wird, verglichen.
  • [Mathematische Formel 1]
    • Grauwertintensität = pR + qG + sB
  • Hierbei sind p, q, und s Konstanten, von denen jede einen anderen Wert aufweist.
  • In einer Ausführungsform der Erfindung wird die Berührungsbildbestimmung durch Vergleich eines Hintergrundbilds, z. B. des in dem Bildpunktfeld 10A gezeigten Bilds des Flüssigkeitskristall-Displaypaneels 10 mit dem Bild, welches von einer der Kameras 21A bis 21D erfasst wurde, durchgeführt, so dass das zugehörige Berührungsbild extrahiert wird, welches die Stelle der derzeitigen Berührung zeigt. In einer anderen Ausführungsform wird die Berührungsbild-Erfassung durch Vergleich eines vorher gespeicherten Bilds, welches von einer der Kameras 21A bis 21D erfasst wurde, mit einem neuen Bild, welches von der entsprechenden der Kameras 21A bis 21D aufgenommen wurde, durchgeführt, so dass das zugehörige Berührungsbild extrahiert wird, welches die Stelle der derzeitige Berührung zeigt. Die Extrahierung des Berührungsbilds kann z. B. erreicht werden durch eine Differenzoperation zwischen dem Hintergrund (oder dem vorher gespeicherten erfassten Bild) und dem neuen erfassten Bild (S4).
  • Danach vergleicht das Mehrfachberührungs-Signalverarbeitungsprogramm die Grauwertintensität des Berührungsbilds, welches in S4 extrahiert wurde, mit dem voreingestellten Schwellwert. Zusätzlich konvertiert das Mehrfachberührungs-Signalverarbeitungsprogramm die Grauwertintensität des Berührungsbilds nur für die Daten, die gleich oder größer als der Schwellwert sind, in weiße Daten, und konvertiert die Daten unterhalb des Schwellwerts in schwarze Daten (S5). Die weißen Daten repräsentieren eine gültige Berührungsstelle und die schwarzen Daten repräsentieren die ungültigen Daten, welche in dem Berührungsbild überhaupt nicht berührt werden. Der Schwellwert kann experimentell bestimmt werden.
  • 8 zeigt eine schematische Beschreibung einer beispielhaften Berührungsfeldidentifikation gemäß einer Ausführungsform der Erfindung. Entsprechend 8 identifiziert im Schritt S6 das Mehrfachberührungs-Signalverarbeitungsprogramm ermittelte Berührungsfelder unter Verwendung einer eindeutigen Bezeichnung (z. B. 1 bis 5) für jedes der weißen Daten, d. h. gültigen Berührungsstellendaten.
  • Danach berechnet das Mehrfachberührungs-Signalverarbeitungsprogramm den Winkel der Kamera gegenüber dem gültigen Berührungsfeld unter Verwendung eines Winkelberechungsalgorithmus, um die Stelle für jedes konvertierte gültige Berührungsfeld in der zweidimensionalen Ebene zu finden. Dann berechnet das Mehrfachberührungs-Signalverarbeitungsprogramm die zweidimensionale Stelle unter Verwendung einer Triangulationsoperation basierend auf den berechneten Winkeldaten entsprechend der unten gezeigten mathematischen Formel 2 (S7 und S8).
  • 9 zeigt eine schematische Beschreibung einer Triangulationsoperation gemäß einer Ausführungsform der Erfindung. Die folgende mathematische Formel 2 ist eine Berechnungsformel, welche eine Berührungsstelle in den zweidimensionalen xy-Koordinatenwert umrechnet und von zwei Kameras gemessene Winkel A und B, einen Winkel C zwischen der Berührungsstelle und den Kameras, sowie Abstände a, b und c zwischen zwei Kameras und der Berührungsstelle aufweist. Hierbei wird der Winkel C zwischen der Berührungsstelle und den Kameras als C = 180 – A – B berechnet.
  • [Mathematische Formel 2]
    Figure 00150001
  • Auf diese Weise, wenn die xy-Koordinatendaten (Cxy) für jede Berührungsstelle durch das Mehrfachberührungs-Signalverarbeitungsprogramm berechnet werden, erzeugt das System 40 Berührungsdaten unter Verwendung der zugehörigen Koordinatendaten und verbindet die Berührungsdaten mit dem Hintergrundbild, welches in dem Flüssigkeitskristall-Display 10 gezeigt werden soll. Die mit den Hintergrunddaten verbundenen Berührungsdaten werden zum Timing-Controller 31 übertragen, so dass sie in dem Flüssigkeitskristall-Displaypaneel 10 angezeigt werden. Die Berührungsdaten können in Kombination mit dem Hintergrundbild in verschiedenen Formen dargestellt werden.
  • In dem Berührungsstellen-Berechnungsverfahren von S7 und S8 kann das Ansteuerverfahren der Displayeinheit mit der Mehrfachberührungs-Erkennungsfunktion gemäß einer Ausführungsform der Erfindung ein Verfahren des Überprüfens der Stellen der Berührungspunkte aufweisen, welche durch die mathematischen Formel 2 mittels Triangulation berechnet wurden.
  • 10 zeigt eine schematische Beschreibung einer Prüfoperation gemäß einer Ausführungsform der Erfindung. Entsprechend 10 und unter der Annahme, dass es zwei Mehrfachberührungs-Punkte (X1, Y1), (X2, Y2) auf der Displayoberfläche 10A gibt, wird das Triangulationsergebnis von vier Paaren der Kameras (21C und 21D, 21A und 21B, 21B und 21D, 21A und 21C), welche für jeden der zwei Punkte zueinander benachbart sind, mittels der mathematischen Formel 3 verglichen und bestimmt.
  • [Mathematische Formel 3]
    • X1:Axcos(☐1)&&(L-Cxsin(☐3))&&(H-Excos(☐6))&&Gxsin(☐8) Y1:Axsin(☐1)&&(L-Cxcos(☐3))&&(H-Exsin(☐6))&&Gxcos(☐8) X2:Bxcos(☐2)&&(L-Dxsin(☐4))&&(H-Fxcos(☐5))&&Hxsin(☐7) Y2:Bxsin(☐2)&&(L-Dxcos(☐4))&&(H-Fxsin(☐5))&&Hxcos(☐7)
  • In der mathematischen Formel 3 repräsentiert "&&" die Vergleichsoperation. Das Mehrfachberührungs-Signalverarbeitungsprogramm übernimmt die Stelle nicht als die Berührungsstelle, wenn der Fehlerwert der Stelle, welcher von den benachbarten Kamerapaaren (21C und 21D, 21A und 21B, 21B und 21D, 21A und 21C) in den Prüfverfahren gemessen wird, wie in 10 und der mathematischen Formel 3 gezeigt, den voreingestellten Schwellwert überschreitet.
  • Die Displayeinheit und das zugehörige Ansteuerverfahren mit der Mehrfachberührungs-Erkennungsfunktion gemäß einer Ausführungsform der Erfindung können nicht nur den Minderungsfaktor des Öffnungsverhältnisses durch Anordnen der Kameras im Gebiet außerhalb der Bildpunktmatrix minimieren, sondern können auch die Minderung der baulichen Stabilität, ohne dass das Design der integrierten Displayeinheit umgeformt wird, durch Integrieren des Berührungserkennungsmoduls mit dem Flüssigkeitskristall-Displaymodul minimieren. Insbesondere erkennt die Erfindung die Mehrfachberührungsstelle in der Displayeinheit und zeigt das Hintergrundbild und das Berührungsbild in der Displayeinheit in Echtzeit an, so dass die Erfindung für eine Berührungserkennung, eine Bildabtastung und eine Fingerabdruckerkennung, usw. verwendet werden kann.
  • Andererseits kann das Flüssigkeitskristall-Displaypaneel 10 des Berührungs- und Anzeigemoduls 20 durch andere flache Displaypaneele ersetzt werden, z. B. ein OLED-(organic light emitting diode)Displaypaneel, ein PDP(plasma display panel), ein FED-(field emitting display)Paneel oder ein Displaypaneel in Form einer dreidimensionalen Bilddisplayeinheit inklusive des Flachdisplaypaneels.
  • Wie oben beschrieben, können die Displayeinheit und das zugehörige Ansteuerverfahren mit der Mehrfachberührungs-Erkennungsfunktion gemäß der Ausführungsform der Erfindung nicht nur den Minderungsfaktor des Öffnungsverhältnisses durch Anordnen der Kameras in dem Gebiet außerhalb der Bildpunktmatrix minimieren, sondern können auch die Verminderung der baulichen Stabilität, ohne Umformung des Designs der integrierten Displayeinheit mittels Integrieren des Berührungserkennungsmoduls mit dem Flüssigkeitskristall-Displaymodul minimieren. Weiterhin kann die Erfindung einen Schaltkreis optimieren, welcher das Flüssigkeitskristall-Displaymodul steuert und die Berührungserkennung abarbeitet.
  • Es wird Fachleuten offensichtlich erscheinen, dass verschiedene Modifikationen und Variationen der Ausführungsformen der Erfindung möglich sind. Deshalb ist es vorgesehen, dass Ausführungsformen der Erfindung die Modifikationen und Variationen der hierin beschriebenen Ausführungsformen abdecken, soweit sie sich im Bereich der beigefügten Ansprüche und ihrer Equivalente befinden.

Claims (21)

  1. Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion, welche aufweist: ein Einbaumodul mit einer Mehrzahl von an einem Rand eines Displaypaneels integrierten Kameras; und einen Prozessor, welcher ein Berührungsfeld unter Verwendung von mindestens einem ersten bzw. zweiten Bild, welche durch die Mehrzahl von Kameras aufgenommen wurden, bestimmt.
  2. Displayeinheit gemäß Anspruch 1, ferner aufweisend einen Controller, welcher mit dem Prozessor synchronisiert ist, zum Steuern des Darstellens eines Hintergrundbilds auf dem Displaypaneel und dem Erfassen des ersten Bilds und des zweiten Bilds durch den Prozessor.
  3. Displayeinheit gemäß Anspruch 1, wobei ein Blickwinkel von jeder der ersten Kamera und der zweiten Kamera in einem Bereich von etwa 80 bis 90 Grad liegt.
  4. Displayeinheit gemäß Anspruch 1, ferner aufweisend mindestens ein reflektionsfreies Element in solch einer räumlichen Beziehung mit einer zugehörigen von der ersten Kamera und der zweiten Kamera, dass eine optische Interferenz von einem einfallenden Licht vermieden wird.
  5. Displayeinheit gemäß Anspruch 4, wobei die mindestens eine reflektionsfreie Einheit im Wesentlichen vor der zugehörigen von der ersten Kamera und zweiten Kamera angeordnet ist, in einer Höhe über der Oberfläche des Displaypaneels, welche umgekehrt proportional zu einer Größe des Displaypaneels ist.
  6. Displayeinheit gemäß Anspruch 4, wobei die Höhe der mindestens einen reflektionsfreien Einheit über der Oberfläche des Displaypaneels proportional ist zu einem Abstand zwischen der Oberfläche des Displaypaneels und der zugehörigen von den Kameras.
  7. Displayeinheit gemäß Anspruch 4, wobei das mindestens eine reflektionsfreie Element erste und zweite Polarisationsfilter aufweist, wobei die optischen Absorptionsachsen der Polarisationsfilter einander kreuzen.
  8. Displayeinheit gemäß Anspruch 4, wobei das mindestens eine reflektionsfreie Element eins von einer schwarzen Schicht und einem Anti-Reflektor aufweist.
  9. Displayeinheit gemäß Anspruch 1, wobei die Mehrzahl von Kameras erste bzw. zweite Kameras aufweist, welche die ersten bzw. zweiten Bilder des Displaypaneels aufnehmen, sowie den Prozessor, welcher jedes der ersten und zweiten erfassten Bilder mit einem gezeigten Bild vergleicht, so dass das Berührungsfeld bestimmt wird.
  10. Displayeinheit gemäß Anspruch 9, wobei ein Controller die erste Kamera und die zweite Kamera synchronisiert, so dass das erste Bild und das zweite Bild im Wesentlichen gleichzeitig erfasst werden.
  11. Displayeinheit gemäß Anspruch 9, wobei die Mehrzahl von Kameras weiterhin eine dritte Kamera bzw. eine vierte Kamera aufweist, welche ein drittes bzw. ein viertes Bild des Displaypaneels erfasst, und wobei der Prozessor das Berührungsfeld, welches durch die erste Kamera und die zweite Kamera bestimmt wurde, mittels des Berührungsfelds, welches durch die dritte Kamera und die vierte Kamera bestimmt wurde, überprüft.
  12. Displayeinheit, aufweisend: ein Displaypaneel zum Anzeigen von Displaydaten, welche ein Displaybild repräsentieren; eine erste Erfassungseinheit und eine zweite Erfassungseinheit, welche an dem Displaypaneel montiert sind, wobei jede von der ersten Erfassungseinheit und der zweiten Erfassungseinheit ein erstes Bild und ein zweites Bild des Displaypaneels erfasst; sowie einen Prozessor, welcher die Displaydaten mit jedem von dem ersten erfassten Bild und dem zweiten erfassten Bild vergleicht, so dass ein Berührungsfeld auf dem Displaypaneel bestimmt wird.
  13. Displayeinheit gemäß Anspruch 12, ferner aufweisend mindestens ein reflektionsfreies Element in solch einer räumlichen Beziehung zu einer zugehörigen von der ersten Erfassungseinheit und der zweiten Erfassungseinheit, dass eine optische Interferenz von einfallendem Licht vermieden wird.
  14. Displayeinheit gemäß Anspruch 13, wobei die mindestens eine reflektionsfreie Einheit im Wesentlichen vor der zugehörigen der ersten Erfassungseinheit und der zweiten Erfassungseinheit angeordnet ist, in einer Höhe über der Oberfläche des Displaypaneels, welche umgekehrt proportional zu einer Größe des Displaypaneels ist.
  15. Displayeinheit gemäß Anspruch 14, wobei die Höhe der mindestens einen reflektionsfreien Einheit über der Oberfläche des Displaypaneels proportional zu einem Abstand zwischen der Oberfläche des Displaypaneels und der zugehörigen der Erfassungseinheiten ist.
  16. Displayeinheit gemäß Anspruch 12, wobei ein Blickwinkel von jeder der ersten Erfassungseinheit und der zweiten Erfassungseinheit klein genug ist, so dass ein Erfassen von einem unerwünschten Anteil des Displaypaneels vermieden wird, aber groß genug, so dass ein von dem ersten erfassten Bild ausgeschlossenes verdecktes Gebiet reduziert wird.
  17. Displayeinheit gemäß Anspruch 16, wobei der Blickwinkel von jeder der ersten Erfassungseinheit und der zweiten Erfassungseinheit in einem Bereich von etwa 80 bis etwa 90° liegt.
  18. Displayeinheit gemäß Anspruch 7, ferner aufweisend eine dritte Erfassungseinheit und eine vierte Erfassungseinheit, welche an dem Displaypaneel montiert sind, wobei jede von der dritten Erfassungseinheit und der vierten Erfassungseinheit dritte Bilder und vierte Bilder des Displaypaneels erfasst.
  19. Displayeinheit gemäß Anspruch 18, wobei der Prozessor die Displaydaten mit jeder von dem dritten erfassten Bild und vierten erfassten Bild vergleicht, so dass das Berührungsfeld auf dem Displaypaneel bestimmt wird.
  20. Displayeinheit gemäß Anspruch 19, wobei der Prozessor das Berührungsfeld, welches durch die erste Erfassungseinheit und die zweite Erfassungseinheit bestimmt wurde, mittels des Berührungsfelds überprüft, welches durch die dritte Erfassungseinheit und die vierte Erfassungseinheit bestimmt wurde.
  21. Verfahren zum Bestimmen eines Berührungsfelds auf einer Displayeinheit aufweisend ein Displaypaneel zum Anzeigen von Displaydaten, welche ein Displaybild repräsentieren, sowie eine Mehrzahl von synchronisierten Erfassungseinheiten, welche an dem Displaypaneel montiert sind, wobei das Verfahren aufweist: nahezu gleichzeitiges Erfassen des ersten, zweiten, dritten und vierten Bilds des berührten Displaypaneels unter Verwendung zugehöriger der synchronisierten Erfassungseinheiten; und Vergleichen der Displaydaten mit jedem von dem ersten erfassten Bild und dem zweiten erfassten Bild, um ein Berührungsfeld auf dem Displaypaneel zu bestimmen.
DE102007021537.3A 2006-12-13 2007-05-08 Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion Active DE102007021537B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20060127351 2006-12-13
KR10-1006-127351 2006-12-13

Publications (2)

Publication Number Publication Date
DE102007021537A1 true DE102007021537A1 (de) 2008-06-19
DE102007021537B4 DE102007021537B4 (de) 2020-01-02

Family

ID=39399873

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007021537.3A Active DE102007021537B4 (de) 2006-12-13 2007-05-08 Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion

Country Status (5)

Country Link
US (1) US9552105B2 (de)
JP (1) JP4787213B2 (de)
KR (1) KR101374104B1 (de)
CN (1) CN101206547A (de)
DE (1) DE102007021537B4 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010039663A2 (en) * 2008-10-02 2010-04-08 Next Holdings, Inc. Stereo optical sensors for resolving multi-touch in a touch detection system
DE102009003990A1 (de) * 2009-01-07 2010-07-08 Wincor Nixdorf International Gmbh Berührungssensitive Eingabevorrichtung
US7932899B2 (en) 2009-09-01 2011-04-26 Next Holdings Limited Determining the location of touch points in a position detection system
US8115753B2 (en) 2007-04-11 2012-02-14 Next Holdings Limited Touch screen system with hover and click input methods
US8149221B2 (en) 2004-05-07 2012-04-03 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8289299B2 (en) 2003-02-14 2012-10-16 Next Holdings Limited Touch screen signal processing
US8384693B2 (en) 2007-08-30 2013-02-26 Next Holdings Limited Low profile touch panel systems
US8405637B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly with convex imaging window
US8432377B2 (en) 2007-08-30 2013-04-30 Next Holdings Limited Optical touchscreen with improved illumination
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101321996B1 (ko) * 2008-04-25 2013-10-25 엘지디스플레이 주식회사 액정표시장치 및 그 구동방법
KR101322015B1 (ko) 2008-06-24 2013-10-25 엘지디스플레이 주식회사 액정표시장치
KR101481666B1 (ko) * 2008-07-08 2015-01-13 엘지디스플레이 주식회사 액정 표시 장치 및 이의 구동 방법
US8358268B2 (en) * 2008-07-23 2013-01-22 Cisco Technology, Inc. Multi-touch detection
GB2475212B (en) * 2008-09-15 2013-03-20 Hewlett Packard Development Co Touchscreen display with plural cameras
KR101322957B1 (ko) * 2008-10-10 2013-10-29 엘지디스플레이 주식회사 터치 감지장치와 그 출력 보정방법
KR101352264B1 (ko) * 2008-12-18 2014-01-17 엘지디스플레이 주식회사 멀티 터치 감지방법 및 장치
KR101633097B1 (ko) * 2009-01-29 2016-06-24 엘지디스플레이 주식회사 멀티 터치 감지방법 및 장치
KR101604030B1 (ko) 2009-06-16 2016-03-16 삼성전자주식회사 어레이 방식의 후방 카메라를 이용한 멀티터치 센싱 장치
US8937612B2 (en) * 2010-02-04 2015-01-20 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Coordinate locating method, coordinate locating device, and display apparatus comprising the coordinate locating device
US8711125B2 (en) * 2010-02-04 2014-04-29 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Coordinate locating method and apparatus
CN102202172B (zh) * 2010-03-23 2016-03-09 北京汇冠新技术股份有限公司 用于带摄像头触摸屏的摄像头同步方法和系统
CN101833403B (zh) * 2010-04-26 2012-09-19 鸿富锦精密工业(深圳)有限公司 基于图像识别的触摸系统
KR20120012572A (ko) 2010-08-02 2012-02-10 엘지이노텍 주식회사 광학 터치 스크린
TWI585655B (zh) * 2010-08-05 2017-06-01 友達光電股份有限公司 觸控用之光學板結構、包含其之觸控式顯示面板及觸控式液晶顯示器
CN102375793A (zh) * 2010-08-12 2012-03-14 上海科斗电子科技有限公司 Usb通信触摸屏
US8269750B2 (en) * 2010-08-13 2012-09-18 Omnivision Technologies, Inc. Optical position input system and method
CN103189759B (zh) * 2010-09-02 2018-07-03 百安托国际有限公司 用于检测和跟踪表面上的辐射阻断物体的系统和方法
KR101682162B1 (ko) * 2010-12-22 2016-12-12 네이버 주식회사 멀티 터치를 기반으로 한 드로잉 기법 및 이를 이용한 정보 인식 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US20160070410A1 (en) * 2011-05-09 2016-03-10 Cho-Yi Lin Display apparatus, electronic apparatus, hand-wearing apparatus and control system
TWI476364B (zh) * 2011-05-09 2015-03-11 Lin Cho Yi 感測方法與裝置
FR2976093B1 (fr) * 2011-06-01 2013-08-16 Thales Sa Systeme tactile a emetteurs et recepteurs optiques
US9507462B2 (en) * 2012-06-13 2016-11-29 Hong Kong Applied Science and Technology Research Institute Company Limited Multi-dimensional image detection apparatus
KR102031648B1 (ko) * 2013-04-18 2019-10-15 삼성디스플레이 주식회사 유기 발광 표시 장치
WO2014183262A1 (en) 2013-05-14 2014-11-20 Empire Technology Development Llc Detection of user gestures
LU92408B1 (en) * 2014-03-21 2015-09-22 Olivier Raulot User gesture recognition
JP6464624B2 (ja) * 2014-09-12 2019-02-06 株式会社リコー 画像処理システム、画像処理装置、方法およびプログラム
KR102158613B1 (ko) * 2018-10-08 2020-09-22 주식회사 토비스 공간 터치 감지 방법 및 이를 수행하는 표시 장치

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1109539A (en) 1978-04-05 1981-09-22 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Communications Touch sensitive computer input device
DE3616490A1 (de) 1985-05-17 1986-11-27 Alps Electric Co Ltd Optische koordinaten-eingabe-vorrichtung
US4746770A (en) 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US6061177A (en) * 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
JP3876942B2 (ja) * 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
JP4033582B2 (ja) * 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
JP2001265516A (ja) 2000-03-16 2001-09-28 Ricoh Co Ltd 座標入力装置
CA2412878C (en) 2000-07-05 2015-02-03 Smart Technologies Inc. Camera-based touch system
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
JP2002091686A (ja) 2000-09-14 2002-03-29 Vstone Kk 位置検出方法,位置検出装置,視覚的特徴検出方法,ポインティングシステム及び監視システム
JP2002351615A (ja) 2001-05-24 2002-12-06 Ricoh Co Ltd ディスプレイ装置
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
JP3920067B2 (ja) 2001-10-09 2007-05-30 株式会社イーアイティー 座標入力装置
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
CN100498675C (zh) 2003-12-26 2009-06-10 北京汇冠新技术有限公司 一种用于计算机触摸屏的光电检测定位系统和方法
DE102005008834A1 (de) 2005-02-16 2006-08-24 Aspre Ag Display zur Erstellung von durch auffallendes Licht erkennbaren farbigen Bildern und Texten
KR20060127351A (ko) 2005-06-07 2006-12-12 엘지전자 주식회사 이동통신 단말기의 전자 식별 웹 통합 캐쉬 방법
CN2751317Y (zh) 2005-08-02 2006-01-11 北京汇冠新技术有限公司 一种抑制红外触摸屏边框反射干扰的偏振片滤色框
US7729607B2 (en) * 2006-05-31 2010-06-01 Technologies4All, Inc. Camera glare reduction system and method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US8466885B2 (en) 2003-02-14 2013-06-18 Next Holdings Limited Touch screen signal processing
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US8289299B2 (en) 2003-02-14 2012-10-16 Next Holdings Limited Touch screen signal processing
US8149221B2 (en) 2004-05-07 2012-04-03 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8115753B2 (en) 2007-04-11 2012-02-14 Next Holdings Limited Touch screen system with hover and click input methods
US8432377B2 (en) 2007-08-30 2013-04-30 Next Holdings Limited Optical touchscreen with improved illumination
US8384693B2 (en) 2007-08-30 2013-02-26 Next Holdings Limited Low profile touch panel systems
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US8405637B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly with convex imaging window
WO2010039663A2 (en) * 2008-10-02 2010-04-08 Next Holdings, Inc. Stereo optical sensors for resolving multi-touch in a touch detection system
WO2010039663A3 (en) * 2008-10-02 2010-06-10 Next Holdings, Inc. Stereo optical sensors for resolving multi-touch in a touch detection system
DE102009003990A1 (de) * 2009-01-07 2010-07-08 Wincor Nixdorf International Gmbh Berührungssensitive Eingabevorrichtung
US7932899B2 (en) 2009-09-01 2011-04-26 Next Holdings Limited Determining the location of touch points in a position detection system

Also Published As

Publication number Publication date
KR101374104B1 (ko) 2014-03-13
JP4787213B2 (ja) 2011-10-05
CN101206547A (zh) 2008-06-25
JP2008152752A (ja) 2008-07-03
DE102007021537B4 (de) 2020-01-02
KR20080055599A (ko) 2008-06-19
US20080143682A1 (en) 2008-06-19
US9552105B2 (en) 2017-01-24

Similar Documents

Publication Publication Date Title
DE102007021537B4 (de) Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion
US11120757B2 (en) Gray scale adjustment method and device for display panel
DE102013114174B4 (de) Anzeigevorrichtung mit integriertem berührungsempflindlichem Bildschirm
DE102013114078B4 (de) Anzeigevorrichtung mit integriertem berührungsempfindlichem Bildschirm
DE102016223052B4 (de) Anzeigefeld und Verfahren zur Detektion einer Berührungssteuerungskraft
US10509506B2 (en) Display device with touch detection function and electronic apparatus
KR101614199B1 (ko) 터치 검출 기능을 구비한 표시 장치 및 전자 기기
US8269740B2 (en) Liquid crystal display
DE102009034412B4 (de) Flüssigkristallanzeigevorrichtung
DE102013112610B4 (de) Anzeigevorrichtung mit integriertem Berührungssensor
DE102013112801A1 (de) Berührungsempfindliche integrierte Schaltung und Anzeigevorrichtung, in die ein berührungsempfindlicher Bildschirm, in dem jene verwendet wird, integriert ist
DE102013112615B4 (de) Anzeigevorrichtung mit integriertem Berührungssensor
US20160077661A1 (en) Display device
DE102018126296A1 (de) Berührungsanzeigevorrichtung und Berührungsanzeigetafel
DE102014220430A1 (de) Datenverarbeitungsvorrichtung
DE102013112486A1 (de) Anzeigevorrichtung mit integriertem berührungsempflindlichem Bildschirm
DE102015218968A1 (de) Bildschirmsteuerverfahren und elektronische Vorrichtung
DE102018121976A1 (de) Anzeigevorrichtung mit integriertem Berührungssensor und Verfahren für deren Ansteuerung
DE112018006394T5 (de) Kapazitiver bewegungssensor
US10884543B2 (en) Display device and control circuit
DE112019004840T5 (de) Fingerabdruckdetektionsvorrichtung und anzeigevorrichtung mit fingerabdruckdetektionsvorrichtung
DE102019117407A1 (de) Berührungsanzeigepanel und berührungsanzeigevorrichtung
DE112019007692T5 (de) Berührungsfeldeinrichtung
DE112017006501T5 (de) Kapazitätserfassende aktive elekromagnetische Emissionsaufhebung
DE102018122095A1 (de) Berührungsanzeigevorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: LG DISPLAY CO., LTD., SEOUL, KR

R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final