DE102014220430A1 - Datenverarbeitungsvorrichtung - Google Patents

Datenverarbeitungsvorrichtung Download PDF

Info

Publication number
DE102014220430A1
DE102014220430A1 DE201410220430 DE102014220430A DE102014220430A1 DE 102014220430 A1 DE102014220430 A1 DE 102014220430A1 DE 201410220430 DE201410220430 DE 201410220430 DE 102014220430 A DE102014220430 A DE 102014220430A DE 102014220430 A1 DE102014220430 A1 DE 102014220430A1
Authority
DE
Germany
Prior art keywords
area
data processing
section
data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201410220430
Other languages
English (en)
Inventor
Yuji Iwaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Semiconductor Energy Laboratory Co Ltd
Original Assignee
Semiconductor Energy Laboratory Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Semiconductor Energy Laboratory Co Ltd filed Critical Semiconductor Energy Laboratory Co Ltd
Publication of DE102014220430A1 publication Critical patent/DE102014220430A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0443Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single layer of sensing electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Bus Control (AREA)

Abstract

Eine Datenverarbeitungsvorrichtung wird bereitgestellt, die einen flexiblen Positionseingabeabschnitt beinhaltet, der die Annäherung oder Berührung eines Gegenstandes, wie z. B. einer Handfläche und Finger eines Benutzers, erkennen kann. Die Datenverarbeitungsvorrichtung ist derart bereitgestellt, dass entsprechend der Position der Handfläche und Finger des Benutzers, die die Datenverarbeitungsvorrichtung halten, ein Bild zum Bedienen in einer Position angezeigt wird, die von den Fingern erreichbar ist.

Description

  • Hintergrund der Erfindung
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Verfahren und ein Programm zum Verarbeiten und Anzeigen von Bilddaten und eine Vorrichtung, die ein Speichermedium beinhaltet, in dem das Programm gespeichert wird. Die vorliegende Erfindung betrifft beispielsweise ein Verfahren zum Verarbeiten und Anzeigen von Bilddaten, mit dem ein Bild umfassend Daten, die durch eine Datenverarbeitungsvorrichtung mit einem Anzeigeabschnitt verarbeitet werden, angezeigt wird, ein Programm zum Anzeigen eines Bildes umfassend Daten, die durch eine Datenverarbeitungsvorrichtung mit einem Anzeigeabschnitt verarbeitet werden, und eine Datenverarbeitungsvorrichtung, die ein Speichermedium beinhaltet, in dem das Programm gespeichert wird.
  • 2. Beschreibung des Standes der Technik
  • Anzeigevorrichtungen mit großen Bildschirmen können viele Informationen anzeigen. Deshalb haben derartige Anzeigevorrichtungen ausgezeichnete Übersichtlichkeit und sind für Datenverarbeitungsvorrichtungen geeignet.
  • Die sozialen Infrastrukturen zum Übertragen der Information haben Fortschritte gemacht. Dies hat es ermöglicht, mit einer Datenverarbeitungsvorrichtung nicht nur zu Hause oder am Arbeitsplatz, sondern auch außerhalb des Hauses oder Arbeitsplatzes, verschiedene Arten von Informationen zu erhalten, zu verarbeiten und zu übertragen.
  • Angesichts dieser Situation werden tragbare Datenverarbeitungsvorrichtungen intensiv entwickelt.
  • Da tragbare Datenverarbeitungsvorrichtungen oft im Freien verwendet werden, könnte Kraft zufällig beim Fallen auf die Datenverarbeitungsvorrichtungen und darin enthaltene Anzeigevorrichtungen ausgeübt werden. Als Beispiel für eine Anzeigevorrichtung, die nicht leicht zerbrochen wird, ist eine Anzeigevorrichtung mit starker Haftvermögen zwischen einem Strukturkörper, durch den eine Licht emittierende Schicht geteilt wird, und einer zweiten Elektrodenschicht bekannt (Patentdokument 1).
  • [Referenz]
  • [Patentdokument]
    • [Patentdokument 1] Japanische Patentoffenlegungsschrift Nr. 2012-190794
  • Zusammenfassung der Erfindung
  • Eine Aufgabe einer Ausführungsform der vorliegenden Erfindung ist, eine neuartige Benutzerschnittstelle mit ausgezeichneter Bedienbarkeit oder eine neuartige Datenverarbeitungsvorrichtung oder Anzeigevorrichtung mit ausgezeichneter Bedienbarkeit bereitzustellen.
  • Es sei angemerkt, dass die Beschreibungen dieser Aufgaben dem Vorhandensein anderer Aufgaben nicht im Wege stehen. Bei einer Ausführungsform der vorliegenden Erfindung ist es unnötig, alle Aufgaben zu erfüllen. Andere Aufgaben werden aus der Beschreibung, den Zeichnungen, den Patentansprüchen und dergleichen ersichtlich sein und können davon abgeleitet werden.
  • Eine Ausführungsform der vorliegenden Erfindung ist eine Datenverarbeitungsvorrichtung, die beinhaltet: eine Eingabe-Ausgabe-Einheit, die Positionsdaten zuführt und zu der Bilddaten zugeführt werden, und eine arithmetische Einheit, zu der die Positionsdaten zugeführt werden und die die Bilddaten zuführt.
  • Die Eingabe-Ausgabe-Einheit beinhaltet einen Positionseingabeabschnitt und einen Anzeigeabschnitt. Der Positionseingabeabschnitt ist flexibel und wird derart gebogen, dass ein erster Bereich, ein zweiter Bereich, der dem ersten Bereich zugewandt ist, und ein dritter Bereich zwischen dem ersten Bereich und dem zweiten Bereich gebildet werden.
  • Der dritte Bereich überlappt den Anzeigeabschnitt. Die Bilddaten werden zu dem Anzeigeabschnitt zugeführt, und der Anzeigeabschnitt zeigt die Bilddaten an. Die arithmetische Einheit beinhaltet einen arithmetischen Abschnitt und einen Speicherabschnitt, der ein Programm speichert, das durch den arithmetischen Abschnitt durchgeführt wird.
  • Die Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung beinhaltet den flexiblen Positionseingabeabschnitt, der die Annäherung oder Berührung eines Gegenstandes erkennen kann und die Positionsdaten zuführen kann. Wie oben beschrieben kann der flexible Positionseingabeabschnitt derart gebogen werden, dass der erste Bereich, der zweite Bereich, der dem ersten Bereich zugewandt ist, und der dritte Bereich gebildet werden, der zwischen dem ersten Bereich und dem zweiten Bereich liegt und den Anzeigeabschnitt überlappt. Bei dieser Struktur kann bestimmt werden, ob eine Handfläche oder ein Finger in der Nähe des ersten Bereichs oder des zweiten Bereichs liegt oder den ersten Bereich oder den zweiten Bereich berührt. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • Eine Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung beinhaltet eine Eingabe-Ausgabe-Einheit, die Positionsdaten und Erkennungsdaten umfassend Faltdaten zuführt und zu der Bilddaten zugeführt werden, und eine arithmetische Einheit, zu der die Positionsdaten und die Erkennungsdaten zugeführt werden und die die Bilddaten zuführt. Es sei angemerkt, dass Faltdaten Daten umfassen, die zwischen einem zusammengefalteten Zustand und einem auseinandergefalteten Zustand der Datenverarbeitungsvorrichtung unterscheiden.
  • Die Eingabe-Ausgabe-Einheit beinhaltet einen Positionseingabeabschnitt, einen Anzeigeabschnitt und einen Sensorabschnitt. Der Positionseingabeabschnitt ist flexibel und nimmt einen auseinandergefalteten Zustand und einen zusammengefalteten Zustand ein, wobei ein erster Bereich, ein zweiter Bereich, der dem ersten Bereich zugewandt ist, und ein dritter Bereich zwischen dem ersten Bereich und dem zweiten Bereich gebildet werden.
  • Der Sensorabschnitt beinhaltet einen Faltsensor, der den Faltzustand des Positionseingabeabschnitts erkennen kann und die Erkennungsdaten einschließlich der Faltdaten zuführen kann. Der dritte Bereich überlappt den Anzeigeabschnitt. Die Bilddaten werden zu dem Anzeigeabschnitt zugeführt, und der Anzeigeabschnitt zeigt die Bilddaten an. Die arithmetische Einheit beinhaltet einen arithmetischen Abschnitt und einen Speicherabschnitt, der ein Programm speichert, das durch den arithmetischen Abschnitt durchgeführt wird.
  • Wie oben beschrieben beinhaltet die Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung den flexiblen Positionseingabeabschnitt, der die Annäherung oder Berührung eines Gegenstandes erkennen kann und die Positionsdaten zuführen kann; und den Sensorabschnitt, der den Faltsensor beinhaltet, der bestimmen kann, ob sich der flexible Positionseingabeabschnitt in einem zusammengefalteten Zustand oder einem auseinandergefalteten Zustand befindet. Der flexible Positionseingabeabschnitt kann derart gebogen werden, dass der erste Bereich, der zweite Bereich, der dem ersten Bereich im zusammengefalteten Zustand zugewandt ist, und der dritte Bereich gebildet werden, der zwischen dem ersten Bereich und dem zweiten Bereich liegt und den Anzeigeabschnitt überlappt. Mit dieser Struktur kann bestimmt werden, ob eine Handfläche oder ein Finger in der Nähe des ersten Bereichs oder des zweiten Bereichs liegt oder den ersten Bereich oder den zweiten Bereich berührt. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • Eine Ausführungsform der vorliegenden Erfindung ist die vorstehende Datenverarbeitungsvorrichtung, in der der erste Bereich erste Positionsdaten zuführt; in der der zweite Bereich zweite Positionsdaten zuführt; und in der der arithmetische Abschnitt die Bilddaten, die auf dem Anzeigeabschnitt angezeigt werden, entsprechend einem Ergebnis eines Vergleichs zwischen den ersten Positionsdaten und den zweiten Positionsdaten erzeugt.
  • Eine Ausführungsform der vorliegenden Erfindung ist die vorstehende Datenverarbeitungsvorrichtung, in der der Speicherabschnitt ein Programm speichert, das durch den arithmetischen Abschnitt durchgeführt wird und umfasst: einen ersten Schritt zum Bestimmen der Länge einer ersten Strecke entsprechend den ersten Positionsdaten, die von dem ersten Bereich zugeführt werden; einen zweiten Schritt zum Bestimmen der Länge einer zweiten Strecke entsprechend den zweiten Positionsdaten, die von dem zweiten Bereich zugeführt werden; einen dritten Schritt zum Vergleichen der Länge der ersten Strecke und der Länge der zweiten Strecke mit einer vorbestimmten Länge, und dann Fortschreiten zu einem vierten Schritt, wenn nur eine der Länge der ersten Strecke und der Länge der zweiten Strecke länger ist als die vorbestimmte Länge, oder Zurückgehen zu dem ersten Schritt in den anderen Fällen; einen vierten Schritt zum Bestimmen von Koordinaten eines Mittelpunktes derjenigen von der ersten oder der zweiten Strecke, die länger ist als die vorbestimmte Länge; einen fünften Schritt zum Erzeugen der Bilddaten entsprechend den Koordinaten des Mittelpunktes; und einen sechsten Schritt zum Beenden des Programms.
  • Wie oben beschrieben beinhaltet die Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung den flexiblen Positionseingabeabschnitt, der die Annäherung oder Berührung eines Gegenstandes erkennen kann und die Positionsdaten zuführen kann, und den arithmetischen Abschnitt. Der flexible Positionseingabeabschnitt kann derart gebogen werden, dass der erste Bereich, der zweite Bereich, der dem ersten Bereich zugewandt ist, und der dritte Bereich gebildet werden, der zwischen dem ersten Bereich und dem zweiten Bereich liegt und den Anzeigeabschnitt überlappt. Der arithmetische Abschnitt kann die ersten Positionsdaten, die von dem ersten Bereich zugeführt werden, mit den zweiten Positionsdaten, die von dem zweiten Bereich zugeführt werden, vergleichen und die Bilddaten erzeugen, die auf dem Anzeigeabschnitt angezeigt werden.
  • Mit dieser Struktur kann bestimmt werden, ob eine Handfläche oder ein Finger in der Nähe des ersten Bereichs oder des zweiten Bereichs liegt oder den ersten Bereich oder den zweiten Bereich berührt, und können die Bilddaten erzeugt werden, die ein Bild beinhalten, das zum leichten Bedienen positioniert ist (z. B. ein Bild zum Bedienen). Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • Eine Ausführungsform der vorliegenden Erfindung ist die vorstehende Datenverarbeitungsvorrichtung, in der der erste Bereich erste Positionsdaten zuführt; in der der zweite Bereich zweite Positionsdaten zuführt; in der der Sensorabschnitt die Erkennungsdaten, umfassend die Faltdaten, zuführt; und in der der arithmetische Abschnitt die Bilddaten, die auf dem Anzeigeabschnitt angezeigt werden, entsprechend einem Ergebnis eines Vergleichs zwischen den ersten Positionsdaten und den zweiten Positionsdaten und entsprechend den Faltdaten erzeugt.
  • Eine Ausführungsform der vorliegenden Erfindung ist die vorstehende Datenverarbeitungsvorrichtung, in der der Speicherabschnitt ein Programm speichert, das durch den arithmetischen Abschnitt durchgeführt wird und umfasst: einen ersten Schritt zum Bestimmen der Länge einer ersten Strecke entsprechend den ersten Positionsdaten, die von dem ersten Bereich zugeführt werden; einen zweiten Schritt zum Bestimmen der Länge einer zweiten Strecke entsprechend den zweiten Positionsdaten, die von dem zweiten Bereich zugeführt werden; einen dritten Schritt zum Vergleichen der Länge der ersten Strecke und der Länge der zweiten Strecke mit einer vorbestimmten Länge, und dann Fortschreiten zu einem vierten Schritt, wenn nur eine der Länge der ersten Strecke und der Länge der zweiten Strecke länger ist als die vorbestimmte Länge, oder Zurückgehen zu dem ersten Schritt in den anderen Fällen; den vierten Schritt zum Bestimmen von Koordinaten eines Mittelpunktes der Strecke, die länger ist als die vorbestimmte Länge; einen fünften Schritt zum Erhalten der Faltdaten und dann Fortschreiten zu einem sechsten Schritt, wenn die Faltdaten den zusammengefalteten Zustand darstellen, oder Fortschreiten zu einem siebten Schritt, wenn die Faltdaten den auseinandergefalteten Zustand darstellen; den sechsten Schritt zum Erzeugen erster Bilddaten entsprechend den Koordinaten des Mittelpunktes; den siebten Schritt zum Erzeugen zweiter Bilddaten entsprechend den Koordinaten des Mittelpunktes; und einen achten Schritt zum Beenden des Programms.
  • Wie oben beschrieben beinhaltet die Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung den flexiblen Positionseingabeabschnitt, der die Annäherung oder Berührung eines Gegenstandes erkennen kann und die Positionsdaten zuführen kann; den Sensorabschnitt, der den Faltsensor beinhaltet, der bestimmen kann, ob sich der flexible Positionseingabeabschnitt in einem zusammengefalteten Zustand oder einem auseinandergefalteten Zustand befindet; und den arithmetischen Abschnitt. Der flexible Positionseingabeabschnitt kann derart gebogen werden, dass der erste Bereich, der zweite Bereich, der dem ersten Bereich in dem zusammengefalteten Zustand zugewandt ist, und der dritte Bereich gebildet werden, der zwischen dem ersten Bereich und dem zweiten Bereich liegt und den Anzeigeabschnitt überlappt. Der arithmetische Abschnitt kann die ersten Positionsdaten, die von dem ersten Bereich zugeführt werden, mit den zweiten Positionsdaten vergleichen, die von dem zweiten Bereich zugeführt werden, und die Bilddaten, die auf dem Anzeigeabschnitt angezeigt werden, entsprechend dem Vergleichsergebnis und den Faltdaten erzeugen.
  • Mit dieser Struktur kann bestimmt werden, ob eine Handfläche oder ein Finger in der Nähe des ersten Bereichs oder des zweiten Bereichs liegt oder den ersten Bereich oder den zweiten Bereich berührt, und können die Bilddaten erzeugt werden, die ein erstes Bild, das zum leichten Bedienen in dem zusammengefalteten Zustand des Positionseingabeabschnitts positioniert ist (z. B. das erste Bild, in dem ein Bild zum Bedienen positioniert ist), oder ein zweites Bild beinhalten, das zum leichten Bedienen in dem auseinandergefalteten Zustand des Positionseingabeabschnitts positioniert ist. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • Eine Ausführungsform der vorliegenden Erfindung ist die vorstehende Datenverarbeitungsvorrichtung, in der der Anzeigeabschnitt den Positionseingabeabschnitt überlappt und flexibel ist, und einen auseinandergefalteten Zustand und einen zusammengefalteten Zustand einnimmt, so dass der Anzeigeabschnitt einen ersten Bereich, der im zusammengefalteten Zustand freigelegt ist, und einen zweiten Bereich beinhaltet, der von dem ersten Bereich an einem Faltpunkt getrennt ist.
  • Der Speicherabschnitt speichert ein Programm, das durch den arithmetischen Abschnitt durchgeführt wird und umfasst: einen ersten Schritt zum Durchführen der Initialisierung; einen zweiten Schritt zum Erzeugen der Anfangsbilddaten; einen dritten Schritt zum Erlauben der Unterbrechungsverarbeitung; einen vierten Schritt zum Erhalten der Faltdaten und dann Fortschreiten zu einem fünften Schritt, wenn die Faltdaten den zusammengefalteten Zustand darstellen oder Fortschreiten zu einem sechsten Schritt, wenn die Faltdaten den auseinandergefalteten Zustand darstellen; den fünften Schritt zum Anzeigen mindestens eines Teils der zugeführten Bilddaten auf dem ersten Bereich; den sechsten Schritt zum Anzeigen eines Teils der zugeführten Bilddaten auf dem ersten Bereich und Anzeigen eines anderen Teils der zugeführten Bilddaten auf dem zweiten Bereich; einen siebten Schritt zum Fortschreiten zu einem achten Schritt, wenn ein Beendigungsbefehl in der Unterbrechungsverarbeitung zugeführt wird, oder Zurückgehen zu dem vierten Schritt, wenn der Beendigungsbefehl in der Unterbrechungsverarbeitung nicht zugeführt wird; und den achten Schritt zum Beenden des Programms.
  • Die Unterbrechungsverarbeitung umfasst: einen neunten Schritt zum Fortschreiten zu einem zehnten Schritt, wenn ein Befehl zum Umblättern zugeführt wird, oder Fortschreiten zu einem elften Schritt, wenn der Befehl zum Umblättern nicht zugeführt wird; den zehnten Schritt zum Erzeugen der Bilddaten auf Basis des Befehls zum Umblättern; und den elften Schritt zum Zurückkehren von der Unterbrechungsverarbeitung.
  • Wie oben beschrieben beinhaltet die vorstehende Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung den Anzeigeabschnitt, der flexibel ist, und einen auseinandergefalteten Zustand und einen zusammengefalteten Zustand einnimmt, und den ersten Bereich, der im zusammengefalteten Zustand freigelegt ist, und den zweiten Bereich beinhaltet, der von dem ersten Bereich an dem Faltpunkt getrennt ist. Darüber hinaus beinhaltet die vorstehende Datenverarbeitungsvorrichtung den Speicherabschnitt, der das Programm speichert, das durch den arithmetischen Abschnitt durchgeführt wird und umfasst: einen Schritt zum Anzeigen eines Teils eines erzeugten Bildes auf dem ersten Bereich und Anzeigen eines anderen Teils des erzeugten Bildes auf dem zweiten Bereich entsprechend Faltdaten.
  • Deshalb kann beispielsweise in dem zusammengefalteten Zustand ein Teil eines Bildes auf dem Anzeigeabschnitt (ersten Bereich) angezeigt werden, der in dem zusammengefalteten Zustand freigelegt ist. In dem auseinandergefalteten Zustand kann beispielsweise ein anderer Teil des Bildes, der sich an den Teil des Bildes anschließt oder den Teil des Bildes betrifft, auf dem zweiten Bereich des Anzeigeabschnitts angezeigt werden, der sich an den ersten Bereich anschließt. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • Entsprechend einer Ausführungsform der vorliegenden Erfindung kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit kann bereitgestellt werden. Eine neuartige Datenverarbeitungsvorrichtung oder eine neuartige Anzeigevorrichtung kann bereitgestellt werden. Es sei angemerkt, dass die Beschreibung dieser Wirkungen dem Vorhandensein weiterer Wirkungen nicht im Wege steht. Es ist bei einer Ausführungsform der vorliegenden Erfindung unnötig, alle oben angegebenen Wirkungen zu erzielen. Weitere Wirkungen werden aus der Erläuterung der Beschreibung, der Zeichnungen, der Patentansprüche und dergleichen ersichtlich sein und können davon abgeleitet werden.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm, das eine Struktur einer Datenverarbeitungsvorrichtung nach einer Ausführungsform zeigt.
  • 2A, 2B, 2C1, 2C2 und 2D zeigen Strukturen einer Datenverarbeitungsvorrichtung nach einer Ausführungsform und eines Positionseingabeabschnitts.
  • 3 ist ein Blockdiagramm, das eine Struktur einer Datenverarbeitungsvorrichtung nach einer Ausführungsform zeigt.
  • 4A bis 4C zeigen einen auseinandergefalteten Zustand, einen gebogenen Zustand und einen zusammengefalteten Zustand einer Datenverarbeitungsvorrichtung nach einer Ausführungsform.
  • 5A bis 5E zeigen Strukturen einer Datenverarbeitungsvorrichtung nach einer Ausführungsform.
  • 6A1, 6A2, 6B1 und 6B2 zeigen eine Datenverarbeitungsvorrichtung nach einer Ausführungsform, welche von einem Benutzer gehalten wird.
  • 7A und 7B sind Ablaufdiagramme, die Programme zeigen, die durch einen arithmetischen Abschnitt einer Datenverarbeitungsvorrichtung nach einer Ausführungsform durchgeführt werden.
  • 8A und 8B zeigen eine Datenverarbeitungsvorrichtung nach einer Ausführungsform, welche von einem Benutzer gehalten wird.
  • 9 ist ein Ablaufdiagramm, das ein Programm zeigt, das durch einen arithmetischen Abschnitt einer Datenverarbeitungsvorrichtung nach einer Ausführungsform durchgeführt wird.
  • 10 zeigt ein Beispiel für ein Bild, das auf einem Anzeigeabschnitt einer Datenverarbeitungsvorrichtung nach einer Ausführungsform angezeigt wird.
  • 11 ist ein Ablaufdiagramm, das ein Programm zeigt, das durch einen arithmetischen Abschnitt der Datenverarbeitungsvorrichtung nach einer Ausführungsform durchgeführt wird.
  • 12A und 12B sind Ablaufdiagramme, die ein Programm zeigen, das durch einen arithmetischen Abschnitt einer Datenverarbeitungsvorrichtung nach einer Ausführungsform durchgeführt wird.
  • 13A bis 13C zeigen Beispiele für ein Bild, das auf einem Anzeigeabschnitt einer Datenverarbeitungsvorrichtung nach einer Ausführungsform angezeigt wird.
  • 14A bis 14C zeigen eine Struktur eines Anzeigefeldes, das für eine Anzeigevorrichtung nach einer Ausführungsform verwendet werden kann.
  • 15A und 15B zeigen eine Struktur eines Anzeigefeldes, das für eine Anzeigevorrichtung nach einer Ausführungsform verwendet werden kann.
  • 16 zeigt eine Struktur eines Anzeigefeldes, das für eine Anzeigevorrichtung nach einer Ausführungsform verwendet werden kann.
  • 17A bis 17H zeigen Strukturen einer Datenverarbeitungsvorrichtung nach einer Ausführungsform und eines Positionseingabeabschnitts.
  • 18A bis 18C zeigen Strukturen einer Datenverarbeitungsvorrichtung nach einer Ausführungsform und eines Positionseingabeabschnitts.
  • 19A bis 19D zeigen Strukturen einer Datenverarbeitungsvorrichtung nach einer Ausführungsform und eines Positionseingabeabschnitts.
  • Detaillierte Beschreibung der Erfindung
  • Eine Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung beinhaltet einen flexiblen Positionseingabeabschnitt, der die Annäherung oder Berührung eines Gegenstandes erkennen kann und die Positionsdaten zuführen kann. Der flexible Positionseingabeabschnitt kann derart gebogen werden, dass ein erster Bereich, ein zweiter Bereich, der dem ersten Bereich zugewandt ist, und ein dritter Bereich gebildet werden, der zwischen dem ersten Bereich und dem zweiten Bereich liegt und einen Anzeigeabschnitt überlappt.
  • Mit dieser Struktur kann bestimmt werden, ob eine Handfläche oder ein Finger in der Nähe des ersten Bereichs oder des zweiten Bereichs liegt oder den ersten Bereich oder den zweiten Bereich berührt. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • Ausführungsformen werden unter Bezugnahme auf Zeichnungen detailliert beschrieben. Es sei angemerkt, dass die vorliegende Erfindung nicht auf die folgende Beschreibung beschränkt ist, und es wird von Fachleuten auf diesem Gebiet leicht verstanden, dass verschiedene Änderungen und Modifikationen durchgeführt werden können, ohne sich von dem Geist und dem Umfang der vorliegenden Erfindung zu entfernen. Dementsprechend sollte die vorliegende Erfindung nicht als durch den Inhalt der nachstehenden Ausführungsformen beschränkt angesehen werden. Es sei angemerkt, dass bei den Strukturen der nachfolgend beschriebenen Erfindung die gleichen Teile oder Teile mit ähnlichen Funktionen durch die gleichen Bezugszeichen in unterschiedlichen Zeichnungen bezeichnet werden und die Beschreibung dieser Teile nicht wiederholt wird.
  • (Ausführungsform 1)
  • Bei dieser Ausführungsform wird eine Struktur einer Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung anhand von 1, 2A, 2B, 2C1, 2C2 und 2D sowie 17A bis 17H beschrieben.
  • 1 zeigt ein Blockdiagramm, das eine Struktur einer Datenverarbeitungsvorrichtung 100 nach einer Ausführungsform der vorliegenden Erfindung darstellt.
  • 2A ist eine schematische Ansicht, die das äußere Aussehen der Datenverarbeitungsvorrichtung 100 nach einer Ausführungsform der vorliegenden Erfindung darstellt, und 2B ist eine Querschnittsansicht, die eine Querschnittsstruktur entlang einer Schnittlinie X1-X2 in 2A darstellt. Es sei angemerkt, dass ein Anzeigeabschnitt 130 nicht nur auf der Vorderseite, sondern auch auf der Seitenfläche der Datenverarbeitungsvorrichtung 100 wie in 2A angeordnet sein kann. Alternativ kann wie in 17A und 17B, die eine Querschnittsansicht von 17A ist, eine Struktur verwendet werden, bei der der Anzeigeabschnitt 130 nicht auf der Seitenfläche der Datenverarbeitungsvorrichtung 100 angeordnet ist.
  • 2C1 ist eine schematische Ansicht, die Anordnung von einem Positionseingabeabschnitt 140 und dem Anzeigeabschnitt 130 darstellt, welche in der Datenverarbeitungsvorrichtung 100 nach einer Ausführungsform der vorliegenden Erfindung verwendet werden können, und 2C2 ist eine schematische Ansicht, die Anordnung von Annäherungssensoren 142 des Positionseingabeabschnitts 140 darstellt.
  • 2D ist eine Querschnittsansicht, die eine Querschnittsstruktur des Positionseingabeabschnitts 140 entlang einer Schnittlinie X3-X4 in 2C2 darstellt.
  • <Strukturbeispiel für Datenverarbeitungsvorrichtung>
  • Die hier beschriebene Datenverarbeitungsvorrichtung 100 beinhaltet ein Gehäuse 101, eine Eingabe-Ausgabe-Einheit 120, die Positionsdaten L-INF zuführt und zu der Bilddaten VIDEO zugeführt werden, und eine arithmetische Einheit 110, zu der die Positionsdaten L-INF zugeführt werden und die die Bilddaten VIDEO zuführt (siehe 1 und 2B).
  • Die Eingabe-Ausgabe-Einheit 120 beinhaltet den Positionseingabeabschnitt 140, der die Positionsdaten L-INF zuführt, und den Anzeigeabschnitt 130, zu dem die Bilddaten VIDEO zugeführt werden.
  • Der Positionseingabeabschnitt 140 ist flexibel und wird derart gebogen, dass beispielsweise ein erster Bereich 140(1), ein zweiter Bereich 140(2), der dem ersten Bereich 140(1) zugewandt ist, und ein dritter Bereich 140(3) zwischen dem ersten Bereich 140(1) und dem zweiten Bereich 140(2) gebildet werden (siehe 2B). Hier steht der dritte Bereich 140(3) in Kontakt mit dem ersten Bereich 140(1) und dem zweiten Bereich 140(2), und die ersten bis dritten Bereiche 140(1) bis 140(3) sind integriert, um den Positionseingabeabschnitt 140 zu bilden.
  • Andererseits können diese Bereiche getrennt mit den Positionseingabeabschnitten 140 versehen sein. Beispielsweise können, wie in 17C, 17D und 17E gezeigt, Positionseingabeabschnitte 140(A), 140(B), 140(C), 140(D) und 140(E) getrennt in den jeweiligen Bereichen vorgesehen sein. Alternativ kann eine Struktur verwendet werden, bei der einige der Positionseingabeabschnitte 140(A), 140(B), 140(C), 140(D) und 140(E) wie in 17F gezeigt nicht vorgesehen sind. Wie in 17G und 17H gezeigt kann der Positionseingabeabschnitt an der gesamten Innenfläche des Gehäuses vorgesehen sein.
  • Es sei angemerkt, dass der zweite Bereich 140(2) dem ersten Bereich 140(1) mit oder ohne Neigung zugewandt sein kann.
  • Der Anzeigeabschnitt 130 wird mit den Bilddaten VIDEO versorgt und liegt derart, dass der Anzeigeabschnitt 130 und der dritte Bereich 140(3) einander überlappen (siehe 2B). Die arithmetische Einheit 110 beinhaltet einen arithmetischen Abschnitt 111 und einen Speicherabschnitt 112, der ein Programm speichert, das durch den arithmetischen Abschnitt 111 durchgeführt wird (siehe 1).
  • Die hierbei beschriebene Datenverarbeitungsvorrichtung 100 beinhaltet den flexiblen Positionseingabeabschnitt 140, der die Annäherung oder Berührung eines Gegenstandes erkennt. Der Positionseingabeabschnitt 140 kann derart gebogen sein, dass der erste Bereich 140(1), der zweite Bereich 140(2), der dem ersten Bereich 140(1) zugewandt ist, und der dritte Bereich 140(3) gebildet werden, der zwischen dem ersten Bereich 140(1) und dem zweiten Bereich 140(2) liegt und den Anzeigeabschnitt 130 überlappt. Mit dieser Struktur kann bestimmt werden, ob eine Handfläche oder ein Finger in der Nähe des ersten Bereichs 140(1) oder des zweiten Bereichs 140(2) liegt oder den ersten Bereich 140(1) oder den zweiten Bereich 140(2) berührt. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • Individuelle Bestandteile in der Datenverarbeitungsvorrichtung 100 werden nachstehend beschrieben.
  • <<Eingabe-Ausgabe-Einheit>>
  • Die Eingabe-Ausgabe-Einheit 120 beinhaltet den Positionseingabeabschnitt 140 und den Anzeigeabschnitt 130. Ein Eingabe-Ausgabe-Abschnitt 145, ein Sensorabschnitt 150, ein Kommunikationsabschnitt 160 und dergleichen können enthalten sein.
  • <<Positionseingabeabschnitt>>
  • Der Positionseingabeabschnitt 140 führt die Positionsdaten L-INF zu. Der Benutzer der Datenverarbeitungsvorrichtung 100 kann die Positionsdaten L-INF zu dem Positionseingabeabschnitt 140 zuführen, indem er seinen Finger oder seine Handfläche in der Nähe des Positionseingabeabschnitts 140 legt oder den Positionseingabeabschnitt 140 damit berührt; somit kann er verschiedene Bedienungsbefehle zu der Datenverarbeitungsvorrichtung 100 zuführen. Beispielsweise kann ein Bedienungsbefehl umfassend einen Beendigungsbefehl (einen Befehl zum Beenden des Programms) zugeführt werden (siehe 1).
  • Der Positionseingabeabschnitt 140 beinhaltet den ersten Bereich 140(1), den zweiten Bereich 140(2) und den dritten Bereich 140(3) zwischen dem ersten Bereich 140(1) und dem zweiten Bereich 140(2) (siehe 2C1). In jedem des ersten Bereichs 140(1), des zweiten Bereichs 140(2) und des dritten Bereichs 140(3) sind die Annäherungssensoren 142 in einer Matrix angeordnet (siehe 2C2).
  • Der Positionseingabeabschnitt 140 beinhaltet beispielsweise ein flexibles Substrat 141 und die Annäherungssensoren 142 über dem flexiblen Substrat 141 (siehe 2D).
  • Der Positionseingabeabschnitt 140 kann beispielswese derart gebogen sein, dass der zweite Bereich 140(2) und der erste Bereich 140(1) einander zugewandt sind (siehe 2B).
  • Der dritte Bereich 140(3) des Positionseingabeabschnitts 140 überlappt den Anzeigeabschnitt 130 (siehe 2B und 2C). Es sei angemerkt, dass dann, wenn der dritte Bereich 140(3) näher an dem Benutzer liegt als der Anzeigeabschnitt 130, der dritte Bereich 140(3) eine lichtdurchlässige Eigenschaft hat.
  • Mit dem Abstand zwischen dem zweiten Bereich und dem ersten Bereich in einem gebogenen Zustand, kann der Benutzer sie in seiner Hand halten (siehe 6A1). Der Abstand ist beispielsweise 17 cm oder kürzer, bevorzugt 9 cm oder kürzer, stärker bevorzugt 7 cm oder kürzer. Wenn der Abstand kurz ist, kann der Daumen der haltenden Hand verwendet werden, um die Positionsdaten zu einem großen Bereich des dritten Bereichs 140(3) einzugeben.
  • Daher kann der Benutzer die Datenverarbeitungsvorrichtung 100 halten, wobei der Daumen-Gelenkteil (die Nachbarschaft des Daumenballens) in der Nähe eines des ersten Bereichs 140(1) und des zweiten Bereichs 140(2) liegt oder den ersten Bereich 140(1) oder den zweiten Bereich 140(2) berührt, und ein Finger außer dem Daumen in der Nähe des anderen liegt oder den anderen berührt.
  • Die Form des Daumen-Gelenkteils ist unterschiedlich von der Form des Fingers außer dem Daumen; deshalb führt der erste Bereich 140(1) Positionsdaten zu, die sich von den von dem zweiten Bereich 140(2) zugeführten Daten unterscheiden. Insbesondere ist beispielsweise die Form des Daumen-Gelenkteils größer als die Form/en des Fingers/der Finger außer dem Daumen oder erstreckt sich durchgehend.
  • Der Annäherungssensor 142 erkennt die Annäherung oder Berührung eines Gegenstandes (z. B. eines Fingers oder einer Handfläche), und ein Kondensator oder ein Abbildungselement kann als Annäherungssensor verwendet werden. Es sei angemerkt, dass ein Substrat mit Kondensatoren, die in einer Matrix angeordnet sind, als kapazitiver Berührungssensor bezeichnet werden kann und ein Substrat mit einem Abbildungselement als optischer Berührungssensor bezeichnet werden kann.
  • Für das flexible Substrat 141 kann ein Harz verwendet werden. Spezifische Beispiele für das Harz umfassen einen Polyester, ein Polyolefin, ein Polyamid, ein Polyimid, ein Polycarbonat und ein Acrylharz.
  • Daneben kann ein Glassubstrat, ein Quarzsubstrat, ein Halbleitersubstrat oder dergleichen verwendet werden, welches dünn genug ist, um flexibel zu sein.
  • Spezifische Beispiele für eine Struktur, die in dem Positionseingabeabschnitt 140 verwendet werden kann, werden bei den Ausführungsformen 6 und 7 beschrieben.
  • <<Anzeigeabschnitt>>
  • Der Anzeigeabschnitt 130 und mindestens der dritte Bereich 140(3) des Positionseingabeabschnitts 140 überlappen einander. Nicht nur der dritte Bereich 140(3), sondern auch der erste Bereich 140(1) und/oder der zweite Bereich 140(2) können/kann den Anzeigeabschnitt 130 überlappen.
  • Es gibt keine besondere Beschränkung hinsichtlich des Anzeigeabschnitts 130, solange der Anzeigeabschnitt 130 die zugeführten Bilddaten VIDEO anzeigen kann.
  • Ein Bedienungsbefehl, der mit dem ersten Bereich 140(1) und/oder dem zweiten Bereich 140(2) gekoppelt ist, kann sich von einem Bedienungsbefehl unterscheiden, der mit dem dritten Bereich 140(3) gekoppelt ist.
  • Der Benutzer kann daher den Bedienungsbefehl, der mit dem ersten Bereich 140(1) und/oder dem zweiten Bereich 140(2) gekoppelt ist, über den Anzeigeabschnitt verifizieren. Folglich können verschiedene Bedienungsbefehle gekoppelt sein. Darüber hinaus kann falsche Eingabe eines Bedienungsbefehls verringert werden.
  • Spezifische Beispiele für eine Struktur, die in dem Anzeigeabschnitt 130 verwendet werden kann, werden bei den Ausführungsformen 6 und 7 beschrieben.
  • <<Arithmetische Einheit>>
  • Die arithmetische Einheit 110 beinhaltet den arithmetischen Abschnitt 111, den Speicherabschnitt 112, eine Eingabe-Ausgabe-Schnittstelle 115 und einen Übertragungsweg 114 (siehe 1).
  • Die arithmetische Einheit 110 wird mit den Positionsdaten L-INF versorgt und führt die Bilddaten VIDEO zu.
  • Beispielsweise führt die arithmetische Einheit 110 die Bilddaten VIDEO, die ein Bild einschließen, das zum Bedienen der Datenverarbeitungsvorrichtung 100 verwendet wird, zu der Eingabe-Ausgabe-Einheit 120 zu. Der Anzeigeabschnitt 130 zeigt das Bild, das zum Bedienen verwendet wird, an.
  • Durch Berühren des dritten Bereichs 140(3), der den Anzeigeabschnitt 130 überlappt, mit seinem Finger, kann der Benutzer die Positionsdaten L-INF zum Auswählen des Bildes zuführen.
  • <<Arithmetischer Abschnitt>>
  • Der arithmetische Abschnitt 111 führt das Programm durch, das in dem Speicherabschnitt 112 gespeichert wird. Beispielsweise führt der arithmetische Abschnitt 111 in Reaktion auf die Positionsdaten L-INF, die mit einer Position gekoppelt sind, in der ein Bild für das Bedienen angezeigt wird, ein Programm durch, das mit dem Bild gekoppelt ist.
  • <<Speicherabschnitt>>
  • Der Speicherabschnitt 112 speichert das Programm, das durch den arithmetischen Abschnitt 111 durchgeführt wird.
  • Es sei angemerkt, dass Beispiele für ein Programm, das durch die arithmetische Einheit 110 durchgeführt wird, bei der Ausführungsform 3 beschrieben werden.
  • <<Eingabe-Ausgabe-Schnittstelle und Übertragungsweg>>
  • Die Eingabe-Ausgabe-Schnittstelle 115 führt Daten zu und wird mit Daten versorgt.
  • Der Übertragungsweg 114 kann Daten zuführen, und der arithmetische Abschnitt 111, der Speicherabschnitt 112 und die Eingabe-Ausgabe-Schnittstelle 115 werden mit Daten versorgt. Zudem können der arithmetische Abschnitt 111, der Speicherabschnitt 112 und die Eingabe-Ausgabe-Schnittstelle 115 Daten zuführen, und der Übertragungsweg 114 wird mit Daten versorgt.
  • <<Sensorabschnitt>>
  • Der Sensorabschnitt 150 erkennt die Zustände der Datenverarbeitungsvorrichtung 100 und die Umstände und führt Erkennungsdaten SENS zu (siehe 1).
  • Der Sensorabschnitt 150 kann Beschleunigung, eine Richtung, Druck, ein Signal des Satellitennavigationssystems (navigation satellite system: NSS) Temperatur, Feuchtigkeit und dergleichen erkennen und Daten darüber zuführen. Insbesondere kann der Sensorabschnitt 150 ein Signal des globalen Positionsbestimmungssystems (GPS) erkennen und Daten darüber zuführen.
  • <<Kommunikationsabschnitt>>
  • Der Kommunikationsabschnitt 160 führt Daten COM, die von der arithmetischen Einheit 110 zugeführt werden, zu einer Vorrichtung oder einem Kommunikationsnetzwerk außerhalb der Datenverarbeitungsvorrichtung 100 zu. Des Weiteren erhält der Kommunikationsabschnitt 160 die Daten COM von der Vorrichtung oder dem Kommunikationsnetzwerk außerhalb der Datenverarbeitungsvorrichtung 100 und führt die Daten COM zu.
  • Die Daten COM können verschiedene Befehle und dergleichen umfassen. Beispielsweise können die Daten COM einen Anzeigebefehl umfassen, der den arithmetischen Abschnitt 111 veranlasst, die Bilddaten VIDEO zu erzeugen oder zu löschen.
  • Eine Kommunikationseinheit zum Verbinden mit der externen Vorrichtung oder dem externen Kommunikationsnetzwerk, z. B. ein Netzknoten, ein Router oder ein Modem, kann für den Kommunikationsabschnitt 160 verwendet werden. Es sei angemerkt, dass das Verbindungsverfahren nicht auf ein Verfahren unter Verwendung einer Verdrahtung beschränkt ist, und ein drahtloses Verfahren (z. B. Radiowelle oder Infrarotstrahlen) kann verwendet werden.
  • <<Eingabe-Ausgabe-Abschnitt>>
  • Als der Eingabe-Ausgabe-Abschnitt 145 kann beispielsweise eine Kamera, ein Mikrofon, ein externer Nur-Lese-Speicherabschnitt, ein externer Speicherabschnitt, ein Scanner, ein Lautsprecher oder ein Drucker verwendet werden (siehe 1).
  • Insbesondere kann als Kamera eine Digitalkamera, eine Digitalvideokamera oder dergleichen verwendet werden.
  • Als externer Speicherabschnitt kann eine Festplatte, ein entfernbarer Speicher oder dergleichen verwendet werden. Als externer Nur-Lese-Speicherabschnitt kann ein CD-ROM, ein DVD-ROM oder dergleichen verwendet werden.
  • <<Gehäuse>>
  • Das Gehäuse 101 schützt die arithmetische Einheit 110 und dergleichen gegen externe Belastung.
  • Das Gehäuse 101 kann aus Metall, Kunststoff, Glas, Keramik oder dergleichen ausgebildet sein.
  • Diese Ausführungsform kann mit einer der anderen Ausführungsformen in dieser Beschreibung angemessen kombiniert werden.
  • (Ausführungsform 2)
  • Bei dieser Ausführungsform wird eine Struktur einer Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung anhand von 3, 4A bis 4C sowie 5A bis 5E beschrieben.
  • 3 zeigt ein Blockdiagramm, das eine Struktur einer Datenverarbeitungsvorrichtung 100B nach einer Ausführungsform der vorliegenden Erfindung darstellt.
  • 4A bis 4C sind schematische Ansichten, die das äußere Aussehen der Datenverarbeitungsvorrichtung 100B darstellen. 4A bis 4C zeigen schematisch das äußere Aussehen der Datenverarbeitungsvorrichtung 100B in einem auseinandergefalteten Zustand, einem gebogenen Zustand bzw. einem zusammengefalteten Zustand.
  • 5A bis 5E sind schematische Ansichten, die die Strukturen der Datenverarbeitungsvorrichtung 100B darstellen. 5A bis 5D zeigen die Struktur in einem auseinandergefalteten Zustand, und 5E zeigt die Struktur in einem zusammengefalteten Zustand.
  • 5A bis 5C sind eine Draufsicht, eine Ansicht von unten bzw. eine Seitenansicht der Datenverarbeitungsvorrichtung 100B. 5D ist eine Querschnittsansicht, die einen Querschnitt der Datenverarbeitungsvorrichtung 100B entlang einer Schnittlinie Y1-Y2 in 5A darstellt. 5E ist eine Seitenansicht der Datenverarbeitungsvorrichtung 100B in dem zusammengefalteten Zustand.
  • <Strukturbeispiel für Datenverarbeitungsvorrichtung>
  • Die hier beschriebene Datenverarbeitungsvorrichtung 100B beinhaltet eine Eingabe-Ausgabe-Einheit 120B, die die Positionsdaten L-INF und die Erkennungsdaten SENS umfassend Faltdaten zuführt und zu der die Bilddaten VIDEO zugeführt werden, und die arithmetische Einheit 110, zu der die Positionsdaten L-INF und die Erkennungsdaten SENS umfassend die Faltdaten zugeführt werden und die die Bilddaten VIDEO zuführt (siehe 3).
  • Die Eingabe-Ausgabe-Einheit 120B beinhaltet einen Positionseingabeabschnitt 140B, den Anzeigeabschnitt 130 und den Sensorabschnitt 150.
  • Der Positionseingabeabschnitt 140B ist flexibel und nimmt einen auseinandergefalteten Zustand und einen zusammengefalteten Zustand ein, so dass ein erster Bereich 140B(1), ein zweiter Bereich 140B(2), der dem ersten Bereich 140B(1) zugewandt ist, und ein dritter Bereich 140B(3) zwischen dem ersten Bereich 140B(1) und dem zweiten Bereich 140B(2) gebildet werden (siehe 4A bis 4C sowie 5A bis 5E).
  • Der Sensorabschnitt 150 beinhaltet einen Faltsensor 151, der einen zusammengefalteten Zustand des Positionseingabeabschnitts 140B erkennen kann und die Erkennungsdaten SENS umfassend die Faltdaten zuführen kann.
  • Der Anzeigeabschnitt 130 wird mit den Bilddaten VIDEO versorgt und liegt derart, dass der Anzeigeabschnitt 130 und der dritte Bereich 140B(3) einander überlappen. Die arithmetische Einheit 110 beinhaltet den arithmetischen Abschnitt 111 und den Speicherabschnitt 112, der das Programm speichert, das durch den arithmetischen Abschnitt 111 durchgeführt wird (siehe 5D).
  • Die hierbei beschriebene Datenverarbeitungsvorrichtung 100B beinhaltet den flexiblen Positionseingabeabschnitt 140B, der eine Handfläche oder einen Finger erkennt, die/der in der Nähe des ersten Bereichs 140B(1), des zweiten Bereichs 140B(2), der in dem zusammengefalteten Zustand dem ersten Bereich 140B(1) zugewandt ist, und des dritten Bereichs 140B(3) liegt, der zwischen dem ersten Bereich 140B(1) und dem zweiten Bereich 140B(2) liegt und den Anzeigeabschnitt 130 überlappt, oder den ersten Bereich 140B(1), den zweiten Bereich 140B(2) und den dritten Bereich 140B(3) berührt; und den Sensorabschnitt 150, der den Faltsensor 151 beinhaltet, der bestimmen kann, ob sich der flexible Positionseingabeabschnitt 140B in einem zusammengefalteten Zustand oder einem auseinandergefalteten Zustand befindet (siehe 3 sowie 5A bis 5E). Mit dieser Struktur kann es bestimmt werden, ob eine Handfläche oder ein Finger in der Nähe des ersten Bereichs 140(1) oder des zweiten Bereichs 140(2) liegt oder den ersten Bereich 140(1) oder den zweiten Bereich 140(2) berührt. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • Individuelle Bestandteile in der Datenverarbeitungsvorrichtung 100B werden nachstehend beschrieben.
  • Die Datenverarbeitungsvorrichtung 100B unterscheidet sich von der Datenverarbeitungsvorrichtung 100, die bei der Ausführungsform 1 beschrieben worden ist, darin, dass der Positionseingabeabschnitt 140B flexibel ist und sich in einem auseinandergefalteten Zustand und einem zusammengefalteten Zustand befindet und dass der Sensorabschnitt 150 in der Eingabe-Ausgabe-Einheit 120B den Faltsensor 151 beinhaltet. Unterschiedliche Strukturen werden nachstehend detailliert beschrieben, und bezüglich der anderen ähnlichen Strukturen wird auf die vorstehende Beschreibung Bezug genommen.
  • <<Eingabe-Ausgabe-Einheit>>
  • Die Eingabe-Ausgabe-Einheit 120B beinhaltet den Positionseingabeabschnitt 140B, den Anzeigeabschnitt 130 und den Sensorabschnitt 150 umfassend den Faltsensor 151. Der Eingabe-Ausgabe-Abschnitt 145, ein Zeichen 159, der Kommunikationsabschnitt 160 und dergleichen können enthalten sein. Die Eingabe-Ausgabe-Einheit 120B wird mit Daten versorgt und kann Daten zuführen (3).
  • <<Gehäuse>>
  • Die Datenverarbeitungsvorrichtung 100B hat ein Gehäuse, in dem ein hochflexibles Teil E1 und ein wenig flexibles Teil E2 abwechselnd angeordnet sind. Mit anderen Worten: In dem Gehäuse der Datenverarbeitungsvorrichtung 100B sind die hochflexiblen Teile E1 und das wenig flexible Teil E2 streifenförmige Teile (bilden Streifen) (siehe 5A und 5B).
  • Bei der oben beschriebenen Struktur kann die Datenverarbeitungsvorrichtung 100B zusammengefaltet werden (siehe 4A bis 4C). Die Datenverarbeitungsvorrichtung 100B in einem zusammengefalteten Zustand ist leicht tragbar. Es ist möglich, die Datenverarbeitungsvorrichtung 100B derart zu falten, dass ein Teil des dritten Bereichs 140B(3) des Positionseingabeabschnitts 140B auf der Außenseite liegt, und nur den Teil des dritten Bereichs 140B(3) als Anzeigebereich zu verwenden (siehe 4C).
  • Das hochflexible Teil E1 und das niederflexible Teil E2 können eine Form, in der beide Seiten zueinander parallel sind, eine dreieckige Form, eine trapezförmige Form, eine Form eines Fächers oder dergleichen aufweisen (siehe 5A).
  • Die Datenverarbeitungsvorrichtung 100B kann auf eine Größe zusammengefaltet werden, in der die Datenverarbeitungsvorrichtung in einer Hand des Benutzers gehalten werden kann. Folglich kann der Benutzer Positionsdaten mit dem Daumen seiner Hand, die die Datenverarbeitungsvorrichtung trägt, in den dritten Bereich 140B(3) eingeben. Auf die vorstehende Weise kann die Datenverarbeitungsvorrichtung bereitgestellt werden, die mit einer Hand bedient werden kann (siehe 8A).
  • Es sei angemerkt, dass, da ein Teil des Positionseingabeabschnitts 140B auf der Innenseite in einem zusammengefalteten Zustand liegt, der Benutzer nicht einen solchen Innenteil bedienen kann (siehe 4C). Daher ist es in einem zusammengefalteten Zustand möglich, die Bedienung des Innenteils anzuhalten. Folglich kann der Leistungsverbrauch verringert werden.
  • Der Positionseingabeabschnitt 140B in einem auseinandergefalteten Zustand ist nahtlos und hat einen großen Bedienungsbereich.
  • Der Anzeigeabschnitt 130 und der dritte Bereich 140B(3) des Positionseingabeabschnitts überlappen einander (siehe 5D). Der Positionseingabeabschnitt 140B liegt zwischen einem Verbindungsbauteil 13a und einem Verbindungsbauteil 13b. Das Verbindungsbauteil 13a und das Verbindungsbauteil 13b liegen zwischen einem Stützbauteil 15a und einem Stützbauteil 15b (siehe 5C).
  • Der Anzeigeabschnitt 130, der Positionseingabeabschnitt 140B, das Verbindungsbauteil 13a, das Verbindungsbauteil 13b, das Stützbauteil 15a und das Stützbauteil 15b werden durch jedes von verschiedenen Verfahren befestigt; beispielsweise ist es möglich, einen Klebstoff, eine Schraube, Strukturen, die aneinander passen können, oder dergleichen zu verwenden.
  • <<Hochflexibles Teil>>
  • Das hochflexible Teil E1 ist biegbar und dient als Scharnier.
  • Das hochflexible Teil E1 umfasst das Verbindungsbauteil 13a und das Verbindungsbauteil 13b, welche einander überlappen (siehe 5A bis 5C).
  • <<Wenig flexibles Teil>>
  • Das wenig flexible Teil E2 umfasst mindestens eines des Stützbauteils 15a und des Stützbauteils 15b. Beispielsweise umfasst das wenig flexible Teil E2 das Stützbauteil 15a und das Stützbauteil 15b, welche einander überlappen. Es sei angemerkt, dass dann, wenn nur das Stützbauteil 15b enthalten ist, das Gewicht und die Dicke des wenig flexiblen Teils E2 verringert werden können.
  • <<Verbindungsbauteil>>
  • Das Verbindungsbauteil 13a und das Verbindungsbauteil 13b sind flexibel. Beispielsweise können flexibler Kunststoff, Metall, Legierung und/oder Gummi als das Verbindungsbauteil 13a und das Verbindungsbauteil 13b verwendet werden. Beispielsweise kann Silikonkautschuk als das Verbindungsbauteil 13a und das Verbindungsbauteil 13b verwendet werden.
  • <<Stützbauteil>>
  • Eines des Stützbauteils 15a und des Stützbauteils 15b hat geringere Flexibilität als das Verbindungsbauteil 13a und das Verbindungsbauteil 13b. Das Stützbauteil 15a oder das Stützbauteil 15b kann die mechanische Festigkeit des Positionseingabeabschnitts 140B erhöhen und den Positionseingabeabschnitt 140B vor Bruch schützen.
  • Beispielsweise kann Kunststoff, Metall, Legierung, Gummi oder dergleichen als das Stützbauteil 15a oder das Stützbauteil 15b verwendet werden. Das Verbindungsbauteil 13a, das Verbindungsbauteil 13b, das Stützbauteil 15a oder das Stützbauteil 15b, das unter Verwendung von Kunststoff, Gummi oder dergleichen ausgebildet ist, kann leicht oder bruchbeständig sein.
  • Insbesondere kann technischer Kunststoff oder Silikonkautschuk verwendet werden. Edelstahl, Aluminium, Magnesiumlegierung oder dergleichen kann auch für das Stützbauteil 15a und das Stützbauteil 15b verwendet werden.
  • <<Positionseingabeabschnitt>>
  • Der Positionseingabeabschnitt 140B kann sich in einem auseinandergefalteten Zustand und einem zusammengefalteten Zustand befinden (siehe 4A bis 4C).
  • Der dritte Bereich 140B(3) in einem auseinandergefalteten Zustand liegt auf einer oberen Oberfläche der Datenverarbeitungsvorrichtung 100B (siehe 5D), und der dritte Bereich 140B(3) in einem zusammengefalteten Zustand liegt auf der oberen Oberfläche und einer Seitenfläche der Datenverarbeitungsvorrichtung 100B (siehe 5E).
  • Der verfügbare Bereich des auseinandergefalteten Positionseingabeabschnitts 140B ist größer als derjenige des zusammengefalteten Positionseingabeabschnitts 140B.
  • Wenn der Positionseingabeabschnitt 140B zusammengefaltet ist, kann ein Bedienungsbefehl, der sich von einem Bedienungsbefehl unterscheidet, der mit der oberen Oberfläche des dritten Bereichs 140B(3) gekoppelt ist, mit der Seitenfläche gekoppelt sein. Es sei angemerkt, dass der Bedienungsbefehl, der sich von einem Bedienungsbefehl unterscheidet, der mit dem zweiten Bereich 140B(2) gekoppelt ist, mit der Seitenfläche gekoppelt sein kann. Auf diese Weise kann ein komplizierter Bedienungsbefehl unter Verwendung des Positionseingabeabschnitts 140B zugeführt werden.
  • Der Positionseingabeabschnitt 140B führt die Positionsdaten L-INF zu (3).
  • Der Positionseingabeabschnitt 140B liegt zwischen dem Stützbauteil 15a und dem Stützbauteil 15b. Der Positionseingabeabschnitt 140B kann zwischen dem Verbindungsbauteil 13a und dem Verbindungsbauteil 13b angeordnet sein.
  • Der Positionseingabeabschnitt 140B umfasst den ersten Bereich 140B(1), den zweiten Bereich 140B(2) und den dritten Bereich 140B(3) zwischen dem ersten Bereich 140B(1) und dem zweiten Bereich 140B(2) (siehe 5D).
  • Der Positionseingabeabschnitt 140B beinhaltet ein flexibles Substrat und Annäherungssensoren über dem flexiblen Substrat. In jedem des ersten Bereichs 140B(1), des zweiten Bereichs 140B(2) und des dritten Bereichs 140B(3) sind die Annäherungssensoren in einer Matrix angeordnet.
  • Spezifische Beispiele für eine Struktur, die in dem Positionseingabeabschnitt 140B verwendet werden kann, werden bei den Ausführungsformen 6 und 7 beschrieben.
  • <<Sensorabschnitt und Zeichen>>
  • Die Datenverarbeitungsvorrichtung 100B beinhaltet den Sensorabschnitt 150. Der Sensorabschnitt 150 beinhaltet den Faltsensor 151 (siehe 3).
  • Der Faltsensor 151 und das Zeichen 159 sind in der Datenverarbeitungsvorrichtung 100B vorgesehen, so dass ein zusammengefalteter Zustand des Positionseingabeabschnitts 140B erkannt werden kann (4A und 4B sowie 5A, 5C und 5E).
  • In einem Zustand, in dem der Positionseingabeabschnitt 140B auseinandergefaltet ist, liegt das Zeichen 159 entfernt von dem Faltsensor 151 (siehe 4A sowie 5A und 5C).
  • In einem Zustand, in dem der Positionseingabeabschnitt 140B an den Verbindungsbauteilen 13a gebogen ist, liegt das Zeichen 159 in der Nähe des Faltsensors 151 (siehe 4B).
  • In einem Zustand, in dem der Positionseingabeabschnitt 140B an den Verbindungsbauteilen 13a zusammengefaltet ist, ist das Zeichen 159 dem Faltsensor 151 zugewandt (siehe 5E).
  • Wenn der Sensorabschnitt 150 das Zeichen 159 erkennt und bestimmt, dass sich der Positionseingabeabschnitt 140B in einem zusammengefalteten Zustand befindet, führt er die Erkennungsdaten SENS umfassend Faltdaten zu.
  • <<Anzeigeabschnitt>>
  • Der Anzeigeabschnitt 130 und mindestens ein Teil des dritten Bereichs 140B(3) des Positionseingabeabschnitts 140B überlappen einander. Der Anzeigeabschnitt 130 kann die zugeführten Bilddaten VIDEO anzeigen.
  • Da der Anzeigeabschnitt 130 flexibel ist, kann er auseinandergefaltet oder zusammengefaltet werden, wobei der Positionseingabeabschnitt 140 den Anzeigeabschnitt 130 überlappt. Daher kann eine nahtlose Anzeige mit ausgezeichneter Übersichtlichkeit durch den Anzeigeabschnitt 130 durchgeführt werden.
  • Spezifische Beispiele für eine Struktur, die in dem flexiblen Anzeigeabschnitt 130 verwendet werden kann, werden bei den Ausführungsformen 6 und 7 beschrieben.
  • <<Arithmetische Einheit>>
  • Die arithmetische Einheit 110 beinhaltet den arithmetischen Abschnitt 111, den Speicherabschnitt 112, die Eingabe-Ausgabe-Schnittstelle 115 und den Übertragungsweg 114 (siehe 3).
  • Diese Ausführungsform kann mit einer der anderen Ausführungsformen in dieser Beschreibung angemessen kombiniert werden.
  • (Ausführungsform 3)
  • Bei dieser Ausführungsform wird eine Struktur einer Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung anhand von 1, 2A, 2B, 2C1, 2C2 und 2D, 6A1, 6A2, 6B1 und 6B2, 7A und 7B, 18A bis 18C sowie 19A bis 19D beschrieben.
  • 6A1, 6A2, 6B1 und 6B2 zeigen einen Zustand, in dem die Datenverarbeitungsvorrichtung 100 nach einer Ausführungsform der vorliegenden Erfindung von einem Benutzer gehalten wird. In diesem Fall hat der Positionseingabeabschnitt 140 den dritten Bereich 140(3) zwischen dem ersten und zweiten Bereich 140(1) und 140(2), welche einander zugewandt sind. 6A1 zeigt das äußere Aussehen der Datenverarbeitungsvorrichtung 100, die von einem Benutzer gehalten wird, und 6A2 zeigt eine Abwicklungsansicht des Positionseingabeabschnitts 140 in 6A1 und zeigt den Bereich, in dem der Annäherungssensor die Handfläche und die Finger erkennt. Es sei angemerkt, dass der Fall, in dem getrennte Positionseingabeabschnitte 140(A), 140(B) und 140(C) verwendet werden, in 18A gezeigt ist. Die Beschreibung des Falls in 6A2 kann auf den Fall in 18A angewendet werden.
  • 6B1 ist eine schematische Ansicht, in der durchgezogene Linien Ergebnisse von Kantenerkennungsverarbeitung (edge sensing processing) der ersten Positionsdaten L-INF(1), die von dem ersten Bereich 140(1) erkannt werden, und der zweiten Positionsdaten L-INF(2), die von dem zweiten Bereich 140(2) erkannt werden, darstellen. 6B2 ist eine schematische Ansicht, in der schraffierte Muster Ergebnisse von Kennzeichnungsverarbeitung (labelling processing) der ersten Positionsdaten L-INF(1) und der zweiten Positionsdaten L-INF(2) darstellen.
  • 7A und 7B sind Ablaufdiagramme, die Programme zeigen, die durch den arithmetischen Abschnitt 111 der Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung durchgeführt werden.
  • <Strukturbeispiel für Datenverarbeitungsvorrichtung>
  • Die hierbei beschriebene Datenverarbeitungsvorrichtung 100 unterscheidet sich von derjenigen bei der Ausführungsform 1 darin, dass der erste Bereich 140(1) die ersten Positionsdaten L-INF(1) zuführt und der zweite Bereich 140(2) die zweiten Positionsdaten L-INF(2) zuführt (siehe 6A2); und die Bilddaten VIDEO, die auf dem Anzeigeabschnitt 130 angezeigt werden, den der dritte Bereich 140(3) überlappt, durch den arithmetischen Abschnitt 111 entsprechend Ergebnissen eines Vergleichs zwischen den ersten Positionsdaten L-INF(1) und den zweiten Positionsdaten L-INF(2) erzeugt werden (siehe 1, 2A, 2B, 2C1, 2C2 und 2D sowie 6A, 6A2, 6B1 und 6B2). Unterschiedliche Strukturen werden nachstehend detailliert beschrieben, und bezüglich der anderen ähnlichen Strukturen wird auf die vorstehende Beschreibung Bezug genommen.
  • Individuelle Bestandteile in der Datenverarbeitungsvorrichtung 100 werden nachstehend beschrieben.
  • <<Positionseingabeabschnitt>>
  • Der Positionseingabeabschnitt 140 ist flexibel und wird derart gebogen, dass der erste Bereich 140(1), der zweite Bereich 140(2), der dem ersten Bereich 140(1) zugewandt ist, und der dritte Bereich 140(3) gebildet werden, der zwischen dem ersten Bereich 140(1) und dem zweiten Bereich 140(2) liegt und den Anzeigeabschnitt 130 überlappt (siehe 2B).
  • Der erste Bereich 140(1) und der zweite Bereich 140(2) der Datenverarbeitungsvorrichtung 100, die von einem Benutzer gehalten wird, erkennen einen Teil der Handfläche des Benutzers und einen Teil der Finger des Benutzers. Insbesondere führt der erste Bereich 140(1) die ersten Positionsdaten L-INF(1), umfassend Daten über Kontaktpositionen eines Teils des Zeigefingers, eines Teils des Mittelfingers und eines Teils des Ringfingers zu, und der zweite Bereich 140(2) führt die zweiten Positionsdaten L-INF(2), umfassend Daten über eine Kontaktposition des Daumen-Gelenkteils (die Nachbarschaft des Daumenballens), zu. Es sei angemerkt, dass der dritte Bereich 140(3) Daten über eine Kontaktposition des Daumens zuführt.
  • <<Anzeigeabschnitt>>
  • Der Anzeigeabschnitt 130 und der dritte Bereich 140(3) überlappen einander (siehe 6A1 und 6A2). Der Anzeigeabschnitt 130 wird mit den Bilddaten VIDEO versorgt und zeigt die Bilddaten VIDEO an. Beispielsweise können die Bilddaten VIDEO umfassend ein Bild, das zum Bedienen der Datenverarbeitungsvorrichtung 100 verwendet wird, angezeigt werden. Ein Benutzer kann Positionsdaten zum Auswählen des Bildes eingeben, indem er seinen Daumen in der Nähe des dritten Bereichs 140(3) legt oder den dritten Bereich 140(3) damit berührt, welcher das Bild überlappt.
  • Beispielsweise werden eine Tastatur 131, Icons und dergleichen wie in 18B gezeigt auf der rechten Seite angezeigt, wenn das Bedienen mit der rechten Hand durchgeführt wird. Die Tastatur 131, Icons und dergleichen werden wie in 18C gezeigt auf der linken Seite angezeigt, wenn das Bedienen mit der linken Hand durchgeführt wird. Auf diese Weise wird das Bedienen mit Fingern vereinfacht.
  • Es sei angemerkt, dass ein angezeigtes Bild in Reaktion auf Erkennung der Neigung der Datenverarbeitungsvorrichtung 100 durch den Sensorabschnitt 150, der die Beschleunigung erkennt, geändert werden kann. Beispielsweise wird ein Fall in Betracht gezogen, in dem das linke Ende der Datenverarbeitungsvorrichtung 100, die in der linken Hand wie in 19A gezeigt gehalten wird, höher liegt als das rechte Ende, wenn in der Richtung, die durch einen Pfeil 152 dargestellt wird, gesehen wird (siehe 19C). Hier wird in Reaktion auf Erkennung dieser Neigung ein Bildschirm für die linke Hand wie in 18C angezeigt. Auf eine ähnliche Weise wird ein Fall in Betracht gezogen, in dem das rechte Ende der Datenverarbeitungsvorrichtung 100, die in der rechten Hand wie in 19B gezeigt gehalten wird, höher liegt als das linke Ende, wenn in der Richtung, die durch den Pfeil 152 dargestellt wird, gesehen wird (siehe 19D). Hier wird in Reaktion auf Erkennung dieser Neigung ein Bildschirm für die rechte Hand wie in 18B angezeigt. Die Anzeigepositionen einer Tastatur, von Icons und dergleichen können auf diese Weise gesteuert werden.
  • Es sei angemerkt, dass ohne Erkennung von Information der Benutzer den Bildschirm zwischen einem Bedienungsbildschirm für die rechte Hand und einem Bedienungsbildschirm für die linke Hand umschalten kann.
  • <<Arithmetischer Abschnitt>>
  • Der arithmetische Abschnitt 111 wird mit den ersten Positionsdaten L-INF(1) und den zweiten Positionsdaten L-INF(2) versorgt und erzeugt die Bilddaten VIDEO, die auf dem Anzeigeabschnitt 130 angezeigt werden, entsprechend den Ergebnissen eines Vergleichs zwischen den ersten Positionsdaten L-INF(1) und den zweiten Positionsdaten L-INF(2).
  • <Programm>
  • Die hierbei beschriebene Datenverarbeitungsvorrichtung hat den Speicherabschnitt, der ein Programm speichert, das durch den arithmetischen Abschnitt 111 durchgeführt wird und die folgenden sechs Schritte umfasst (siehe 7A). Eine Erläuterung des Programms wird nachstehend angegeben.
  • <<Erstes Beispiel>>
  • In einem ersten Schritt wird die Länge einer ersten Strecke unter Verwendung der ersten Positionsdaten L-INF(1) bestimmt, die von dem ersten Bereich 140(1) zugeführt werden (S1 in 7A).
  • In einem zweiten Schritt wird die Länge einer zweiten Strecke unter Verwendung der zweiten Positionsdaten L-INF(2) bestimmt, die von dem zweiten Bereich 140(2) zugeführt werden (S2 in 7A).
  • In einem dritten Schritt werden die Länge der ersten Strecke und die Länge der zweiten Strecke mit einer vorbestimmten Länge verglichen. Das Programm schreitet zu einem vierten Schritt fort, wenn nur eine der Längen der ersten und zweiten Strecken länger ist als die vorbestimmte Länge. Das Programm schreitet zu dem ersten Schritt in den anderen Fällen fort (S3 in 7A). Es sei angemerkt, dass es bevorzugt ist, dass die vorbestimmte Länge länger als oder gleich 2 cm und kürzer als oder gleich 15 cm ist, und es ist besonders bevorzugt, dass die vorbestimmte Länge länger als oder gleich 5 cm und kürzer als oder gleich 10 cm ist.
  • In dem vierten Schritt werden die Koordinaten des Mittelpunktes der Strecke bestimmt, die länger ist als die vorbestimmte Länge (S4 in 7A).
  • In einem fünften Schritt werden die Bilddaten VIDEO, die auf dem Anzeigeabschnitt 130 angezeigt werden, entsprechend den Koordinaten des Mittelpunktes erzeugt (S5 in 7A).
  • Das Programm wird in einem sechsten Schritt beendet (S6 in 7A).
  • Es sei angemerkt, dass ein Schritt, in dem der Anzeigeabschnitt 130 die vorbestimmten Bilddaten VIDEO (auch als Anfangsbild bezeichnet) anzeigt, vor dem ersten Schritt enthalten sein kann. In diesem Fall können die vorbestimmten Bilddaten VIDEO angezeigt werden, wenn sowohl die Länge der ersten Strecke als auch die Länge der zweiten Strecke länger oder kürzer sind als die vorbestimmte Länge.
  • Individuelle Prozesse, die durch den arithmetischen Abschnitt unter Verwendung des Programms durchgeführt werden, werden nachstehend beschrieben.
  • <<Verfahren zum Bestimmen der Koordinaten des Mittelpunktes der Strecke>>
  • Nachstehend wird ein Verfahren zum Bestimmen der Länge der ersten Strecke und der Länge der zweiten Strecke unter Verwendung der ersten Positionsdaten L-INF(1) bzw. der zweiten Positionsdaten L-INF(2) beschrieben. Ein Verfahren zum Bestimmen der Koordinaten des Mittelpunktes einer Strecke wird auch beschrieben.
  • Insbesondere wird ein Kantenerkennungsverfahren (edge sensing method) zum Bestimmen der Länge einer Strecke beschrieben.
  • Es sei angemerkt, dass ein Beispiel beschrieben wird, in dem ein Abbildungselement als Annäherungssensor verwendet wird, aber ein Kondensator oder dergleichen kann auch als Annäherungssensor verwendet werden.
  • Hier wird ein Wert, der durch ein Abbildungspixel mit Koordinaten (x, y) erhalten wird, als f(x, y) beschrieben. Es ist bevorzugt, dass ein Wert, der durch Subtrahieren eines Hintergrundwertes von einem Wert, der durch das Abbildungspixel erkannt wird, erhalten wird, als f(x, y) verwendet wird, da ein Rauschen entfernt werden kann.
  • <<Verfahren zum Extrahieren der Kante (Kontur)>>
  • Die nachstehende Gleichung (1) zeigt die Summe Δ(x, y) von Differenzen zwischen einem Wert, der durch das Abbildungspixel mit den Koordinaten (x, y) erkannt wird, und Werten, die durch Abbildungspixel mit Koordinaten (x – 1, y), Koordinaten (x + 1, y), Koordinaten (x, y – 1) und Koordinaten (x, y + 1), welche neben den Koordinaten (x, y) liegen, erkannt werden. Δ(x,y) = 4·f(x,y) – {f(x,y–1) + f(x,y+1) + f(x–1,y) + f(x+1,y)} (1)
  • Durch Erhalten der Δ(x, y) aller Abbildungspixel in dem ersten Bereich 140(1), dem zweiten Bereich 140(2) und dem dritten Bereich 140(3) und Abbilden der Ergebnisse wird eine Kante (Kontur) eines Fingers oder einer Handfläche, der/die wie in 6A2 und 6B1 gezeigt in der Nähe des ersten Bereichs 140(1) und des zweiten Bereichs 140(2) liegt oder den ersten Bereich 140(1) und den zweiten Bereich 140(2) berührt, erhalten.
  • <<Verfahren zum Bestimmen der Länge der Strecke>>
  • Die Koordinaten der Schnittpunkte zwischen der Kontur, die zu dem ersten Bereich 140(1) extrahiert wird, und einer vorbestimmten Strecke W1 werden bestimmt, und die vorbestimmte Strecke W1 wird an den Schnittpunkten geschnitten, um in eine Vielzahl von Strecken geteilt zu werden. Die Strecke mit der längsten Länge unter der Vielzahl von Strecken ist die erste Strecke, und ihre Länge wird als L1 bezeichnet (siehe 6B1).
  • Die Koordinaten der Schnittpunkte zwischen der Kontur, die zu dem zweiten Bereich 140(2) extrahiert wird, und einer vorbestimmten Strecke W2 werden bestimmt, und die vorbestimmte Strecke W2 wird an den Schnittpunkten geschnitten, um in eine Vielzahl von Strecken geteilt zu werden. Die Strecke mit der längsten Länge unter der Vielzahl von Strecken ist die zweite Strecke, und ihre Länge wird als L2 bezeichnet.
  • <<Verfahren zum Bestimmen der Koordinaten des Mittelpunktes>>
  • Als Nächstes werden L1 und L2 miteinander verglichen, die längere Strecke wird ausgewählt, und die Koordinaten eines Mittelpunktes M werden berechnet. Bei dieser Ausführungsform ist L2 länger als L1; somit werden die Koordinaten des Mittelpunktes M der zweiten Strecke bestimmt.
  • <<Bilddaten, die entsprechend den Koordinaten des Mittelpunktes erzeugt werden>>
  • Die Koordinaten des Mittelpunktes M können mit der Position des Daumen-Gelenkteils, dem Bewegungsbereich des Daumens oder dergleichen gekoppelt werden. Auf diese Weise können Bilddaten, die das Bedienen der Datenverarbeitungsvorrichtung 100 vereinfachen, entsprechend den Koordinaten des Mittelpunktes M erzeugt werden.
  • Beispielsweise ist es möglich, die Bilddaten VIDEO derart zu erzeugen, dass sich ein Bild, das zum Bedienen verwendet wird, in dem Bewegungsbereich des Daumens über dem Anzeigeabschnitt 130 befindet. Insbesondere können Bilder, die zum Bedienen verwendet werden (durch Kreise dargestellt), auf einem Kreisbogen liegen, dessen Zentrum in der Nähe des Mittelpunktes M liegt (siehe 6A1). Unter Bildern, die zum Bedienen verwendet werden, können sich Bilder, die häufig verwendet werden, auf einem Kreisbogen befinden, und Bilder, die weniger häufig verwendet werden, können sich innerhalb oder außerhalb des Kreisbogens befinden. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • <<Zweites Beispiel>>
  • Das hier beschriebene Programm unterscheidet sich von dem vorstehenden Programm darin, dass es die folgenden sechs Schritte umfasst, in denen die Fläche einer ersten Figur und die Fläche einer zweiten Figur anstelle der Länge der ersten Strecke und der Länge der zweiten Strecke verwendet werden (siehe 7B). Unterschiedliche Prozesse werden nachstehend detailliert beschrieben, und bezüglich der anderen ähnlichen Prozesse wird auf die vorstehende Beschreibung Bezug genommen.
  • In einem ersten Schritt wird die Fläche der ersten Figur unter Verwendung der ersten Positionsdaten L-INF(1), die von dem ersten Bereich 140(1) zugeführt werden, bestimmt (T1 in 7B).
  • In einem zweiten Schritt wird die Fläche der zweiten Figur unter Verwendung der zweiten Positionsdaten L-INF(2), die von dem zweiten Bereich 140(2) zugeführt werden, bestimmt (T2 in 7B).
  • In einem dritten Schritt werden die Fläche der ersten Figur und die Fläche der zweiten Figur mit einer vorbestimmten Fläche verglichen. Das Programm schreitet zu einem vierten Schritt fort, wenn nur eine der Flächen der ersten und zweiten Figuren größer ist als die vorbestimmte Fläche. Das Programm schreitet zu dem ersten Schritt in den anderen Fällen fort (T3 in 7B). Es sei angemerkt, dass es bevorzugt ist, dass die vorbestimmte Fläche größer als oder gleich 1 cm2 und kleiner als oder gleich 8 cm2 ist, und es ist besonders bevorzugt, dass die vorbestimmte Fläche größer als oder gleich 3 cm2 und kleiner als oder gleich 5 cm2 ist.
  • In dem vierten Schritt werden die Koordinaten des Schwerpunktes der Figur, deren Fläche größer ist als die vorbestimmte Fläche, bestimmt (T4 in 7B).
  • In einem fünften Schritt werden die Bilddaten VIDEO, die auf dem Anzeigeabschnitt 130 angezeigt werden, den der dritte Bereich überlappt, entsprechend den Koordinaten des Schwerpunktes erzeugt (T5 in 7B).
  • Das Programm wird in einem sechsten Schritt beendet (T6 in 7B).
  • Individuelle Prozesse, die durch den arithmetischen Abschnitt unter Verwendung des Programms durchgeführt werden, werden nachstehend beschrieben.
  • <<Verfahren zum Bestimmen des Schwerpunktes der Figur>>
  • Nachstehend wird ein Verfahren zum Bestimmen der Fläche der ersten Figur und der Fläche der zweiten Figur unter Verwendung der ersten Positionsdaten L-INF(1) bzw. der zweiten Positionsdaten L-INF(2) beschrieben. Ein Verfahren zum Bestimmen des Schwerpunktes einer Figur wird auch beschrieben.
  • Insbesondere wird eine Kennzeichnungsverarbeitung (labeling processing) zum Bestimmen der Fläche einer Figur beschrieben.
  • Es sei angemerkt, dass ein Beispiel beschrieben wird, in dem ein Abbildungselement als Annäherungssensor verwendet wird, aber ein Kondensator oder dergleichen kann auch als Annäherungssensor verwendet werden.
  • Hier wird ein Wert, der durch ein Abbildungspixel mit Koordinaten (x, y) erhalten wird, als f(x, y) definiert. Es ist bevorzugt, dass ein Wert, der durch Subtrahieren eines Hintergrundwertes von einem Wert, der durch das Abbildungspixel erkannt wird, erhalten wird, als f(x, y) verwendet wird, da ein Rauschen entfernt werden kann.
  • <<Kennzeichnungsverarbeitung>>
  • In dem Fall, in dem ein Abbildungspixel und ein benachbartes Abbildungspixel in dem ersten Bereich 140(1) oder dem zweiten Bereich 140(2) jeweils einen Wert f(x, y) erhalten, der einen vorbestimmten Schwellenwert überschreitet, wird der Bereich, der von diesen Abbildungspixeln eingenommen wird, als eine Figur angesehen. Es sei angemerkt, dass dann, wenn beispielsweise f(x, y) maximal 256 sein kann, bevorzugt wird, dass der vorbestimmte Schwellenwert größer als oder gleich 0 und kleiner als oder gleich 150 ist, und es wird besonders bevorzugt, dass der vorbestimmte Schwellenwert größer als oder gleich 0 und kleiner als oder gleich 50 ist.
  • Die vorstehende Verarbeitung wird an allen Abbildungspixeln in dem ersten Bereich 140(1) und dem zweiten Bereich 140(2) durchgeführt, und durch Abbildung der Ergebnisse können die Bereiche erhalten werden, in denen benachbarte Abbildungspixel jeweils wie in 6A2 und 6B2 den vorbestimmten Schwellenwert überschreiten. Die Figur mit der größten Fläche unter Figuren in dem ersten Bereich 140(1) wird als die erste Figur bezeichnet. Die Figur mit der größten Fläche unter Figuren in dem zweiten Bereich 140(2) wird als die zweite Figur bezeichnet.
  • <<Bestimmen des Schwerpunktes der Figur>>
  • Die Fläche der ersten Figur und die Fläche der zweiten Figur werden verglichen, die größere Fläche wird ausgewählt, und der Schwerpunkt wird berechnet. Koordinaten C(X, Y) des Schwerpunktes können unter Verwendung der nachstehenden Gleichung (2) berechnet werden.
  • Figure DE102014220430A1_0002
  • In der Gleichung (2) stellen xi und yi die x- und y-Koordinaten jedes der n Abbildungspixel dar, die eine Figur bilden. Die Fläche der zweiten Figur ist im Fall in 6B2 größer als die Fläche der ersten Figur; deshalb werden die Koordinaten des Schwerpunktes C der zweiten Figur verwendet.
  • <<Bilddaten, die entsprechend den Koordinaten des Schwerpunktes erzeugt werden>>
  • Die Koordinaten des Schwerpunktes C können mit der Position des Daumen-Gelenkteils, dem Bewegungsbereich des Daumens oder dergleichen gekoppelt werden. Auf diese Weise können Bilddaten, die das Bedienen der Datenverarbeitungsvorrichtung 100 vereinfachen, entsprechend den Koordinaten des Schwerpunktes C erzeugt werden.
  • Wie oben beschrieben beinhaltet die hierbei beschriebene Datenverarbeitungsvorrichtung 100 den flexiblen Positionseingabeabschnitt 140, der die Annäherung oder Berührung eines Gegenstandes erkennen kann und die Positionsdaten L-INF zuführen kann, und den arithmetischen Abschnitt 111. Der flexible Positionseingabeabschnitt 140 kann derart gebogen werden, dass der erste Bereich 140(1), der zweite Bereich 140(2), der dem ersten Bereich 140(1) zugewandt ist, und der dritte Bereich 140(3) gebildet werden, der zwischen dem ersten Bereich 140(1) und dem zweiten Bereich 140(2) liegt und den Anzeigeabschnitt 130 überlappt. Der arithmetische Abschnitt 111 kann die ersten Positionsdaten L-INF(1), die von dem ersten Bereich 140(1) zugeführt werden, mit den zweiten Positionsdaten L-INF(2) vergleichen, die von dem zweiten Bereich 140(2) zugeführt werden. und die Bilddaten VIDEO erzeugen, die auf dem Anzeigeabschnitt 130 angezeigt werden.
  • Mit dieser Struktur kann es bestimmt werden, ob eine Handfläche oder ein Finger in der Nähe des ersten Bereichs 140(1) oder des zweiten Bereichs 140(2) liegt oder den ersten Bereich 140(1) oder den zweiten Bereich 140(2) berührt, und die Bilddaten VIDEO, umfassend ein Bild, das zum leichten Bedienen positioniert ist (z. B. ein Bild zum Bedienen), können erzeugt werden. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • Diese Ausführungsform kann mit einer der anderen Ausführungsformen in dieser Beschreibung angemessen kombiniert werden.
  • (Ausführungsform 4)
  • Bei dieser Ausführungsform wird eine Struktur der Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung anhand von 3, 4A bis 4C, 8A und 8B, 9, 10 sowie 11 beschrieben.
  • 8A zeigt die Datenverarbeitungsvorrichtung 100B in einem zusammengefalteten Zustand, die von einem Benutzer erhalten wird, und 8B zeigt eine Abwicklungsansicht der Datenverarbeitungsvorrichtung 100B in 8A und zeigt den Bereich, in dem der Annäherungssensor die Handfläche und die Finger erkennt.
  • 9 ist ein Ablaufdiagramm, das das Programm zeigt, das durch den arithmetischen Abschnitt 111 der Datenverarbeitungsvorrichtung 100B nach einer Ausführungsform der vorliegenden Erfindung durchgeführt wird.
  • 10 zeigt ein Beispiel für ein Bild, das auf dem Anzeigeabschnitt 130 der Datenverarbeitungsvorrichtung 100B nach einer Ausführungsform der vorliegenden Erfindung angezeigt wird.
  • 11 ist ein Ablaufdiagramm, das das Programm zeigt, das durch den arithmetischen Abschnitt 111 der Datenverarbeitungsvorrichtung 100B nach einer Ausführungsform der vorliegenden Erfindung durchgeführt wird.
  • <Strukturbeispiel für Datenverarbeitungsvorrichtung>
  • Die hierbei beschriebene Datenverarbeitungsvorrichtung 100B unterscheidet sich von derjenigen bei der Ausführungsform 2 darin, dass der erste Bereich 140B(1) des Positionseingabeabschnitts 140B die ersten Positionsdaten L-INF(1) zuführt; dass der zweite Bereich 140B(2) die zweiten Positionsdaten L-INF(2) zuführt (siehe 8B); dass der Sensorabschnitt 150 die Erkennungsdaten SENS, umfassend Faltdaten, zuführt; und dass die Bilddaten VIDEO, die auf dem Anzeigeabschnitt 130 angezeigt werden, durch den arithmetischen Abschnitt 111 entsprechend den Erkennungsdaten SENS, umfassend die Faltdaten, und den Ergebnissen eines Vergleichs zwischen den ersten Positionsdaten L-INF(1) und den zweiten Positionsdaten L-INF(2) erzeugt werden (siehe 3, 4A bis 4C sowie 8A und 8B). Unterschiedliche Strukturen werden nachstehend detailliert beschrieben, und bezüglich der anderen ähnlichen Strukturen wird auf die vorstehende Beschreibung Bezug genommen.
  • Individuelle Bestandteile in der Datenverarbeitungsvorrichtung 100B werden nachstehend beschrieben.
  • <<Positionseingabeabschnitt>>
  • Der Positionseingabeabschnitt 140B ist flexibel und nimmt einen auseinandergefalteten Zustand und einen zusammengefalteten Zustand ein, so dass der erste Bereich 140B(1), der zweite Bereich 140B(2), der dem ersten Bereich 140B(1) zugewandt ist, und der dritte Bereich 140B(3) gebildet werden, der zwischen dem ersten Bereich 140B(1) und dem zweiten Bereich 140B(2) liegt und den Anzeigeabschnitt 130 überlappt (siehe 4A bis 4C).
  • Der erste Bereich 140B(1) und der zweite Bereich 140B(2) erkennen einen Teil der Handfläche des Benutzers und einen Teil der Finger des Benutzers. Insbesondere führt der erste Bereich 140B(1) die ersten Positionsdaten L-INF(1) umfassend Daten über Kontaktpositionen eines Teils des Zeigefingers, eines Teils des Mittelfingers und eines Teils des Ringfingers zu, und der zweite Bereich 140B(2) führt die zweiten Positionsdaten L-INF(2) umfassend Daten über eine Kontaktposition des Daumen-Gelenkteils zu. Es sei angemerkt, dass der dritte Bereich 140B(3) Daten über eine Kontaktposition des Daumens zuführt.
  • <<Anzeigeabschnitt>>
  • Der Anzeigeabschnitt 130 und der dritte Bereich 140B(3) überlappen einander (siehe 8A und 8B). Der Anzeigeabschnitt 130 wird mit den Bilddaten VIDEO versorgt und kann beispielsweise ein Bild, das zum Bedienen der Datenverarbeitungsvorrichtung 100B verwendet wird, anzeigen. Ein Benutzer kann Positionsdaten zum Auswählen des Bildes eingeben, indem er seinen Daumen in der Nähe des dritten Bereichs 140B(3) legt oder den dritten Bereich 140B(3) damit berührt, welcher das Bild überlappt.
  • <<Arithmetischer Abschnitt>>
  • Der arithmetische Abschnitt 111 wird mit den ersten Positionsdaten L-INF(1) und den zweiten Positionsdaten L-INF(2) versorgt und erzeugt die Bilddaten VIDEO, die auf dem Anzeigeabschnitt 130 angezeigt werden, entsprechend den Ergebnissen eines Vergleichs zwischen den ersten Positionsdaten L-INF(1) und den zweiten Positionsdaten L-INF(2).
  • <Programm>
  • Die hierbei beschriebene Datenverarbeitungsvorrichtung hat den Speicherabschnitt, der ein Programm speichert, das durch den arithmetischen Abschnitt 111 durchgeführt wird und die folgenden sieben Schritte umfasst (siehe 9). Eine Erläuterung des Programms wird nachstehend angegeben.
  • <<Erstes Beispiel>>
  • In einem ersten Schritt wird die Länge der ersten Strecke unter Verwendung der ersten Positionsdaten bestimmt, die von dem ersten Bereich zugeführt werden (U1 in 9).
  • In einem zweiten Schritt wird die Länge der zweiten Strecke unter Verwendung der zweiten Positionsdaten bestimmt, die von dem zweiten Bereich zugeführt werden (U2 in 9).
  • In einem dritten Schritt werden die Länge der ersten Strecke und die Länge der zweiten Strecke mit einer vorbestimmten Länge verglichen. Das Programm schreitet zu einem vierten Schritt fort, wenn nur eine der Längen der ersten und zweiten Strecken länger ist als die vorbestimmte Länge. Das Programm schreitet zu dem ersten Schritt in den anderen Fällen fort (U3 in 9). Es sei angemerkt, dass es bevorzugt wird, dass die vorbestimmte Länge länger als oder gleich 2 cm und kürzer als oder gleich 15 cm ist, und es wird besonders bevorzugt, dass die vorbestimmte Länge länger als oder gleich 5 cm und kürzer als oder gleich 10 cm ist.
  • In dem vierten Schritt werden die Koordinaten des Mittelpunktes der Strecke bestimmt, die länger ist als die vorbestimmte Länge (U4 in 9).
  • In einem fünften Schritt werden Faltdaten erhalten. Das Programm schreitet zu einem sechsten Schritt fort, wenn die Faltdaten einen zusammengefalteten Zustand darstellen. Das Programm schreitet zu einem siebten Schritt fort, wenn die Faltdaten einen auseinandergefalteten Zustand darstellen (U5 in 9).
  • In dem sechsten Schritt werden erste Bilddaten, die auf dem Anzeigeabschnitt angezeigt werden, entsprechend den Koordinaten des Mittelpunktes erzeugt (U6 in 9).
  • In dem siebten Schritt werden zweite Bilddaten, die auf dem Anzeigeabschnitt angezeigt werden, entsprechend den Koordinaten des Mittelpunktes erzeugt (U7 in 9).
  • Das Programm wird in einem achten Schritt beendet (T8 in 9).
  • In der hierbei beschriebenen Datenverarbeitungsvorrichtung 100B kann ein Schritt, in dem die vorbestimmten Bilddaten VIDEO durch den arithmetischen Abschnitt 111 erzeugt werden und auf dem Anzeigeabschnitt 130 angezeigt werden, vor dem ersten Schritt enthalten sein. In diesem Fall können die vorbestimmten Bilddaten VIDEO angezeigt werden, wenn in dem dritten Schritt sowohl die Länge der ersten Strecke als auch die Länge der zweiten Strecke länger oder kürzer sind als die vorbestimmte Länge.
  • Individuelle Prozesse, die durch den arithmetischen Abschnitt unter Verwendung des Programms durchgeführt werden, werden nachstehend beschrieben.
  • Das Programm, das durch den arithmetischen Abschnitt 111 durchgeführt wird, unterscheidet sich von dem Programm, das bei der Ausführungsform 3 beschrieben worden ist, darin, dass sich in dem fünften Schritt der Prozess entsprechend dem zusammengefalteten Zustand verzweigt. Unterschiedliche Prozesse werden nachstehend detailliert beschrieben, und bezüglich der anderen ähnlichen Prozesse wird auf die vorstehende Beschreibung Bezug genommen.
  • <<Prozess zum Erzeugen erster Bilddaten>>
  • Wenn die erhaltenen Faltdaten den zusammengefalteten Zustand darstellen, erzeugt der arithmetische Abschnitt 111 die ersten Bilddaten. Beispielsweise werden in einer Weise, die derjenigen des fünften Schritts des Programms ähnlich ist, das bei der Ausführungsform 3 beschrieben worden ist, erste Bilddaten VIDEO, die auf dem Anzeigeabschnitt 130 angezeigt werden, den der dritte Bereich 140B(3) in dem zusammengefalteten Zustand überlappt, entsprechend den Koordinaten des Mittelpunktes erzeugt.
  • Die Koordinaten des Mittelpunktes M können mit der Position des Daumen-Gelenkteils, dem Bewegungsbereich des Daumens oder dergleichen gekoppelt werden. Auf diese Weise können Bilddaten, die das Bedienen der Datenverarbeitungsvorrichtung 100B im zusammengefalteten Zustand vereinfachen, entsprechend den Koordinaten des Mittelpunktes M erzeugt werden.
  • Beispielsweise ist es möglich, die ersten Bilddaten VIDEO derart zu erzeugen, dass sich ein Bild, das zum Bedienen verwendet wird, in dem Bewegungsbereich des Daumens über dem Anzeigeabschnitt 130 befindet. Insbesondere können Bilder, die zum Bedienen verwendet werden (durch Kreise dargestellt), auf einem Kreisbogen liegen, dessen Zentrum in der Nähe des Mittelpunktes M liegt (siehe 8A). Unter Bildern, die zum Bedienen verwendet werden, können sich Bilder, die häufig verwendet werden, auf einem Kreisbogen befinden, und Bilder, die weniger häufig verwendet werden, können sich innerhalb oder außerhalb des Kreisbogens befinden. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit in der Datenverarbeitungsvorrichtung 100B in dem zusammengefalteten Zustand bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • <<Prozess zum Erzeugen zweiter Bilddaten>>
  • Wenn die erhaltenen Faltdaten den auseinandergefalteten Zustand darstellen, erzeugt der arithmetische Abschnitt 111 die zweiten Bilddaten. Beispielsweise werden in einer Weise, die derjenigen des fünften Schritts des Programms ähnlich ist, das bei der Ausführungsform 3 beschrieben worden ist, die ersten Bilddaten VIDEO, die auf dem Anzeigeabschnitt 130 angezeigt werden, den der dritte Bereich 140B(3) überlappt, entsprechend den Koordinaten des Mittelpunktes erzeugt. Die Koordinaten des Mittelpunktes M können mit der Position des Daumen-Gelenkteils, dem Bewegungsbereich des Daumens oder dergleichen gekoppelt werden.
  • Beispielsweise ist es möglich, zweite Bilddaten VIDEO derart zu erzeugen, dass sich ein Bild, das zum Bedienen verwendet wird, nicht in einem Bereich, der den beweglichen Bereich des Daumens überlappt, befindet. Insbesondere können Bilder, die zum Bedienen verwendet werden (durch Kreise dargestellt), außerhalb eines Kreisbogens liegen, dessen Zentrum in der Nähe des Mittelpunktes M liegt (siehe 10). Die Datenverarbeitungsvorrichtung 100B kann derart betrieben werden, dass der Positionseingabeabschnitt 140B Positionsdaten in Reaktion auf Erkennung eines Gegenstandes zuführt, der in der Nähe des Kreisbogens oder eines Bereichs außerhalb des Kreisbogens liegt oder ihn berührt.
  • Der Benutzer kann die Datenverarbeitungsvorrichtung 100B halten, indem er den Kreisbogen oder einen Bereich innerhalb des Kreisbogens in dem Positionseingabeabschnitt 140B in dem auseinandergefalteten Zustand mit einer Hand hält. Das Bild, das zum Bedienen verwendet wird und außerhalb des Kreisbogens angezeigt wird, kann mit der anderen Handbedient werden. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit in der Datenverarbeitungsvorrichtung 100B in dem auseinandergefalteten Zustand bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • <<Zweites Beispiel>>
  • Das hier beschriebene Programm unterscheidet sich von dem vorstehenden Programm darin, dass es die folgenden sieben Schritte umfasst, in denen die Fläche der ersten Figur und die Fläche der zweiten Figur anstelle der Länge der ersten Strecke und der Länge der zweiten Strecke verwendet werden (siehe 11). Unterschiedliche Prozesse werden nachstehend detailliert beschrieben, und bezüglich der anderen ähnlichen Prozesse wird auf die vorstehende Beschreibung Bezug genommen.
  • In einem ersten Schritt wird die Fläche der ersten Figur unter Verwendung der ersten Positionsdaten bestimmt, die von dem ersten Bereich 140(1) zugeführt werden (V1 in 11).
  • In einem zweiten Schritt wird die Fläche der zweiten Figur unter Verwendung der zweiten Positionsdaten bestimmt, die von dem zweiten Bereich 140B(2) zugeführt werden (V2 in 11).
  • In einem dritten Schritt werden die Fläche der ersten Figur und die Fläche der zweiten Figur mit einer vorbestimmten Fläche verglichen. Das Programm schreitet zu einem vierten Schritt fort, wenn nur eine der Flächen der ersten und zweiten Figuren größer ist als die vorbestimmte Fläche. Das Programm schreitet zu dem ersten Schritt in den anderen Fällen fort (V3 in 11). Es sei angemerkt, dass es bevorzugt wird, dass die vorbestimmte Fläche größer als oder gleich 1 cm2 und kleiner als oder gleich 8 cm2 ist, und es wird besonders bevorzugt, dass die vorbestimmte Fläche größer als oder gleich 3 cm2 und kleiner als oder gleich 5 cm2 ist.
  • In dem vierten Schritt werden die Koordinaten des Schwerpunktes der Figur bestimmt, deren Fläche größer ist als die vorbestimmte Fläche (V4 in 11).
  • In einem fünften Schritt werden Faltdaten erhalten. Das Programm schreitet zu einem sechsten Schritt fort, wenn die Faltdaten einen zusammengefalteten Zustand darstellen. Das Programm schreitet zu einem siebten Schritt fort, wenn die Faltdaten einen auseinandergefalteten Zustand darstellen (V5 in 11).
  • In dem sechsten Schritt werden die ersten Bilddaten, die auf dem Anzeigeabschnitt angezeigt werden, entsprechend den Koordinaten des Schwerpunktes erzeugt (V6 in 11).
  • In dem siebten Schritt werden die zweiten Bilddaten, die auf dem Anzeigeabschnitt angezeigt werden, entsprechend den Koordinaten des Schwerpunktes erzeugt (V7 in 11).
  • Das Programm wird in einem achten Schritt beendet (V8 in 11).
  • Wie oben beschrieben beinhaltet die hierbei beschriebene Datenverarbeitungsvorrichtung 100B den flexiblen Positionseingabeabschnitt 140B, der die Annäherung oder Berührung eines Gegenstandes erkennen kann und die Positionsdaten L-INF zuführen kann; den Sensorabschnitt 150, der den Faltsensor 151 beinhaltet, der bestimmen kann, ob sich der flexible Positionseingabeabschnitt 140B in einem zusammengefalteten Zustand oder einem auseinandergefalteten Zustand befindet; und den arithmetischen Abschnitt 111 (3). Der flexible Positionseingabeabschnitt 140B kann derart gebogen werden, dass der erste Bereich 140B(1), der zweite Bereich 140B(2), der dem ersten Bereich 140B(1) in dem zusammengefalteten Zustand zugewandt ist, und der dritte Bereich 140B(3) gebildet werden, der zwischen dem ersten Bereich 140B(1) und dem zweiten Bereich 140B(2) liegt und den Anzeigeabschnitt 130 überlappt. Der arithmetische Abschnitt 111 kann die ersten Positionsdaten L-INF(1), die von dem ersten Bereich 140B(1) zugeführt werden, mit den zweiten Positionsdaten L-INF(2), die von dem zweiten Bereich 140B(2) zugeführt werden, vergleichen und die Bilddaten VIDEO, die auf dem Anzeigeabschnitt 130 angezeigt werden, entsprechend dem Vergleichsergebnis und den Faltdaten erzeugen.
  • Mit dieser Struktur kann bestimmt werden, ob eine Handfläche oder ein Finger in der Nähe des ersten Bereichs 140B(1) oder des zweiten Bereichs 140B(2) liegt oder den ersten Bereich 140B(1) oder den zweiten Bereich 140B(2) berührt, und die Bilddaten VIDEO, umfassend ein erstes Bild, das zum leichten Bedienen in dem zusammengefalteten Zustand des Positionseingabeabschnitts 140B positioniert ist (z. B. das erste Bild, in dem ein Bild, das zum Bedienen verwendet wird, positioniert ist), oder ein zweites Bild, das zum leichten Bedienen in dem auseinandergefalteten Zustand des Positionseingabeabschnitts 140B positioniert ist, können erzeugt werden. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • Diese Ausführungsform kann mit einer der anderen Ausführungsformen in dieser Beschreibung angemessen kombiniert werden.
  • (Ausführungsform 5)
  • Bei dieser Ausführungsform wird eine Struktur der Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung anhand von 12A und 12B sowie 13A bis 13C beschrieben.
  • 12A und 12B sind Ablaufdiagramme, die die Programme zeigen, die durch den arithmetischen Abschnitt 111 der Datenverarbeitungsvorrichtung 100B nach einer Ausführungsform der vorliegenden Erfindung durchgeführt werden.
  • 13A bis 13C sind schematische Ansichten, die Bilder zeigen, die auf der Datenverarbeitungsvorrichtung 100B nach einer Ausführungsform der vorliegenden Erfindung angezeigt werden.
  • <Strukturbeispiel für Datenverarbeitungsvorrichtung>
  • Die hierbei beschriebene Datenverarbeitungsvorrichtung 100B ist die Datenverarbeitungsvorrichtung bei der Ausführungsform 2, in der der Anzeigeabschnitt 130 flexibel ist, einen auseinandergefalteten Zustand und einen zusammengefalteten Zustand einnimmt, wobei der Positionseingabeabschnitt 140B den Anzeigeabschnitt 130 überlappt, und einen ersten Bereich 130(1), der im zusammengefalteten Zustand freigelegt ist, und einen zweiten Bereich 130(2) aufweist, der von dem ersten Bereich 130(1) an einem Faltpunkt getrennt ist (siehe 13B).
  • <<Anzeigeabschnitt>>
  • Der Anzeigeabschnitt 130 ist flexibel, nimmt einen auseinandergefalteten Zustand und einen zusammengefalteten Zustand ein, und überlappt den dritten Bereich 140(3) des Positionseingabeabschnitts 140B (siehe 13A und 13B).
  • Der Anzeigeabschnitt 130 kann so angesehen werden, dass er den ersten Bereich 130(1) und den zweiten Bereich 130(2) aufweist, und der erste Bereich 130(1) und der zweite Bereich 130(2) sind an einem Faltpunkt voneinander getrennt und können individuell betrieben werden (siehe 13B).
  • Der Anzeigeabschnitt 130 kann beispielsweise so angesehen werden, dass er den ersten Bereich 130(1), den zweiten Bereich 130(2) und den dritten Bereich 130(3) aufweist, welche an Faltpunkten voneinander getrennt sind und individuell betrieben werden können (13C).
  • Der gesamte Anzeigeabschnitt 130 kann der erste Bereich 130(1) sein, ohne an einem Faltpunkt getrennt zu sein (nicht dargestellt).
  • Spezifische Beispiele für eine Struktur, die in dem Anzeigeabschnitt 130 verwendet werden kann, werden bei den Ausführungsformen 6 und 7 beschrieben.
  • Die Datenverarbeitungsvorrichtung beinhaltet den Speicherabschnitt 112, der ein Programm speichert, das durch den arithmetischen Abschnitt 111 durchgeführt wird und einen Prozess, umfassend die folgenden Schritte, aufweist (siehe 3 sowie 12A und 12B).
  • In einem ersten Schritt wird eine Initialisierung durchgeführt (W1 in 12A).
  • In einem zweiten Schritt werden die Anfangsbilddaten VIDEO erzeugt (W2 in 12A).
  • In einem dritten Schritt wird eine Unterbrechungsverarbeitung erlaubt (W3 in 12A). Es sei angemerkt, dass dann, wenn die Unterbrechungsverarbeitung erlaubt wird, der arithmetische Abschnitt 111 einen Befehl zum Durchführen der Unterbrechungsverarbeitung empfängt, die Hauptverarbeitung stoppt, die Unterbrechungsverarbeitung durchführt und das Durchführergebnis in dem Speicherabschnitt speichert. Dann beginnt der arithmetische Abschnitt 111 die Hauptverarbeitung auf Basis des Durchführergebnisses der Unterbrechungsverarbeitung wieder.
  • In einem vierten Schritt werden Faltdaten erhalten. Das Programm schreitet zu einem fünften Schritt fort, wenn die Faltdaten einen zusammengefalteten Zustand darstellen. Das Programm schreitet zu einem sechsten Schritt fort, wenn die Faltdaten einen auseinandergefalteten Zustand darstellen (W4 in 12A).
  • In dem fünften Schritt wird mindestens ein Teil der zugeführten Bilddaten VIDEO auf dem ersten Bereich angezeigt (W5 in 12A).
  • In dem sechsten Schritt wird ein Teil der zugeführten Bilddaten VIDEO auf dem ersten Bereich angezeigt, und ein anderer Teil der zugeführten Bilddaten VIDEO auf dem zweiten Bereich oder auf den zweiten und dritten Bereichen angezeigt (W6 in 12A).
  • In einem siebten Schritt schreitet das Programm zu einem achten Schritt fort, wenn ein Beendigungsbefehl bei der Unterbrechungsverarbeitung zugeführt wird, und schreitet zu dem dritten Schritt fort, wenn der Beendigungsbefehl bei der Unterbrechungsverarbeitung nicht zugeführt wird (W7 in 12A).
  • Das Programm wird in dem achten Schritt beendet (W8 in 12A).
  • Die Unterbrechungsverarbeitung umfasst die folgenden Schritte.
  • In einem neunten Schritt schreitet das Programm zu einem zehnten Schritt fort, wenn ein Befehl zum Umblättern zugeführt wird, und schreitet zu einem elften Schritt fort, wenn der Befehl zum Umblättern nicht zugeführt wird (X9 in 12B).
  • In dem zehnten Schritt werden die Bilddaten VIDEO auf Basis des Befehls zum Umblättern erzeugt (X10 in 12B).
  • In dem elften Schritt kehrt das Programm von der Unterbrechungsverarbeitung zurück (X11 in 12B).
  • <<Beispiel für erzeugtes Bild>>
  • Die arithmetische Einheit 110 erzeugt die Bilddaten VIDEO, die auf dem Anzeigeabschnitt 130 angezeigt werden. Obwohl ein Beispiel, in dem die arithmetische Einheit 110 einzige Bilddaten VIDEO erzeugt, bei dieser Ausführungsform beschrieben wird, kann die arithmetische Einheit 110 auch die Bilddaten VIDEO, die auf dem zweiten Bereich 130(2) des Anzeigeabschnitts 130 angezeigt werden, zusätzlich zu den Bilddaten VIDEO erzeugen, die auf dem ersten Bereich 130(1) angezeigt werden.
  • Beispielsweise kann die arithmetische Einheit 110 ein Bild nur in dem ersten Bereich 130(1) erzeugen, der in dem zusammengefalteten Zustand freigelegt ist, welches ein Ansteuerverfahren ist, das in dem zusammengefalteten Zustand vorteilhaft ist (13A).
  • Im Gegensatz dazu kann die arithmetische Einheit 110 ein Bild unter Verwendung des gesamten Anzeigeabschnitts 130, der in dem auseinandergefalteten Zustand den ersten Bereich 130(1), den zweiten Bereich 130(2) und den dritten Bereich 130(3) umfasst, erzeugen. Ein derartiges Bild hat hohe Übersichtlichkeit (13B und 13C).
  • Beispielsweise kann ein Bild, das zum Bedienen verwendet wird, in dem ersten Bereich 130(1) in dem zusammengefalteten Zustand vorgesehen sein.
  • Beispielsweise kann in dem auseinandergefalteten Zustand ein Bild, das zum Bedienen verwendet wird, in dem ersten Bereich 130(1) positioniert sein und ein Anzeigebereich (auch als Fenster bezeichnet) für Applikationssoftware kann in dem zweiten Bereich 130(2) oder in dem gesamten Bereich, in dem zweiten Bereich 130(2) und dem dritten Bereich 130(3), positioniert sein.
  • Des Weiteren kann sich entsprechend einem Befehl zum Umblättern ein Bild, das in dem zweiten Bereich 130(2) positioniert ist, zu dem ersten Bereich 130(1) bewegen, und ein neues Bild kann in dem zweiten Bereich 130(2) angezeigt werden.
  • Wenn ein Befehl zum Umblättern zu einem des ersten Bereichs 130(1), des zweiten Bereichs 130(2) und des dritten Bereichs 130(3) zugeführt wird, wird diesen ein neues Bild bereitgestellt, und ein Bild, das in einem anderen Bereich angezeigt wird, wird behalten. Es sei angemerkt, dass der Befehl zum Umblättern ein Befehl zum Auswählen und Anzeigen einer Art der Bilddaten aus einer Vielzahl von Arten der Bilddaten ist, die mit Seitennummern gekoppelt sind. Ein Beispiel für einen derartigen Befehl ist ein Befehl zum Auswählen und Anzeigen der Bilddaten, die mit der nächstgrößeren Seitennummer als derjenigen der aktuell angezeigten Bilddaten gekoppelt sind. Eine Geste (z. B. Tippen, Ziehen, Streichen oder Zoomen), die unter Verwendung eines Fingers, der den Positionseingabeabschnitt 140B berührt, als Zeiger gemacht wird, kann mit dem Befehl zum Umblättern gekoppelt sein.
  • Wie oben beschrieben, beinhaltet die hierbei beschriebene Datenverarbeitungsvorrichtung 100B den Anzeigeabschnitt 130, der flexibel ist, einen auseinandergefalteten Zustand und einen zusammengefalteten Zustand einnimmt und den ersten Bereich 130(1), der im zusammengefalteten Zustand freigelegt ist, und den zweiten Bereich 130(2) aufweist, der von dem ersten Bereich 130(1) an einem Faltpunkt getrennt ist. Darüber hinaus beinhaltet die Datenverarbeitungsvorrichtung den Speicherabschnitt 112, der ein Programm speichert, das durch den arithmetischen Abschnitt 111 durchgeführt wird und umfasst: einen Schritt zum Anzeigen eines Teils eines erzeugten Bildes auf dem ersten Bereich 130(1) oder Anzeigen eines anderen Teils des erzeugten Bildes auf dem zweiten Bereich 130(2) entsprechend den Erkennungsdaten SENS, umfassend Faltdaten.
  • Deshalb kann beispielsweise in dem zusammengefalteten Zustand ein Teil eines Bildes auf dem Anzeigeabschnitt 130 angezeigt werden, der in dem zusammengefalteten Zustand der Datenverarbeitungsvorrichtung 100B freigelegt ist (dem ersten Bereich 130(1)). In dem auseinandergefalteten Zustand kann beispielsweise ein anderer Teil des Bildes, das sich an den Teil des Bildes anschließt oder den Teil des Bildes betrifft, auf dem zweiten Bereich 130(2) des Anzeigeabschnitts 130 angezeigt werden, der sich an den ersten Bereich 130(1) anschließt. Als Ergebnis kann eine Benutzerschnittstelle mit guter Bedienbarkeit bereitgestellt werden. Außerdem kann eine neuartige Datenverarbeitungsvorrichtung mit guter Bedienbarkeit bereitgestellt werden.
  • Diese Ausführungsform kann mit einer der anderen Ausführungsformen in dieser Beschreibung angemessen kombiniert werden.
  • (Ausführungsform 6)
  • Bei dieser Ausführungsform wird die Struktur eines Anzeigefeldes, das für einen Positionseingabeabschnitt und eine Anzeigevorrichtung der Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung verwendet werden kann, anhand von 14A bis 14C beschrieben. Es sei angemerkt, dass das Anzeigefeld bei dieser Ausführungsform einen Berührungssensor (eine Kontaktsensorvorrichtung), der einen Anzeigeabschnitt überlappt, beinhaltet; daher kann das Anzeigefeld ein Touchscreen (eine Eingabe-Ausgabe-Vorrichtung) genannt werden.
  • 14A ist eine Draufsicht, die die Struktur der Eingabe-Ausgabe-Vorrichtung darstellt.
  • 14B ist eine Querschnittsansicht entlang der Linie A-B und der Linie C-D in 14A.
  • 14C ist eine Querschnittsansicht entlang der Linie E-F in 14A.
  • <Draufsicht>
  • Eine Eingabe-Ausgabe-Einheit 300 beinhaltet einen Anzeigeabschnitt 301 (siehe 14A).
  • Der Anzeigeabschnitt 301 beinhaltet eine Vielzahl von Pixeln 302 und eine Vielzahl von Abbildungspixeln 308. Die Abbildungspixel 308 können eine Berührung eines Fingers oder dergleichen auf dem Anzeigeabschnitt 301 erkennen.
  • Jedes Pixel 302 beinhaltet eine Vielzahl von Sub-Pixeln (z. B. ein Sub-Pixel 302R). In den Sub-Pixeln sind Licht emittierende Elemente und Pixelschaltungen, die elektrische Leistung zum Betrieb der Licht emittierenden Elemente zuführen können, bereitgestellt.
  • Die Pixelschaltungen sind elektrisch mit Leitungen verbunden, über die Auswahlsignale und Bildsignale zugeführt werden.
  • Die Eingabe-Ausgabe-Einheit 300 ist mit einer Abtastleitungs-Treiberschaltung 303g(1), die den Pixeln 302 Auswahlsignale zuführen kann, und einer Bildsignalleitungs-Treiberschaltung 303s(1) versehen, die den Pixeln 302 Bildsignale zuführen kann. Es sei angemerkt, dass dann, wenn die Bildsignalleitungs-Treiberschaltung 303s(1) in einem Abschnitt außer einem biegbaren Abschnitt vorgesehen ist, eine Fehlfunktion verhindert werden kann.
  • Die Abbildungspixel 308 beinhalten fotoelektrische Umwandlungselemente und Abbildungspixelschaltungen, welche die fotoelektrischen Umwandlungselemente betreiben.
  • Die Abbildungspixelschaltungen sind elektrisch mit Leitungen verbunden, über die Steuersignale und Leistungszufuhrpotentiale zugeführt werden.
  • Beispiele für die Steuersignale umfassen ein Signal zum Auswählen einer Abbildungspixelschaltung, aus der ein gespeichertes Abbildungssignal gelesen wird, ein Signal zur Initialisierung einer Abbildungspixelschaltung und ein Signal zum Bestimmen der Zeit, in der eine Abbildungspixelschaltung Licht erkennt.
  • Die Eingabe-Ausgabe-Einheit 300 ist mit einer Abbildungspixel-Treiberschaltung 303g(2) versehen, die den Abbildungspixeln 308 Steuersignale zuführen kann, und einer Abbildungssignalleitungs-Treiberschaltung 303s(2) versehen, die Abbildungssignale liest. Es sei angemerkt, dass dann, wenn die Abbildungssignalleitungs-Treiberschaltung 303s(2) in einem Abschnitt außer einem biegbaren Abschnitt vorgesehen ist, eine Fehlfunktion verhindert werden kann.
  • <Querschnittsansicht>
  • Die Eingabe-Ausgabe-Einheit 300 beinhaltet ein Substrat 310 und ein Gegensubstrat 370, das dem Substrat 310 zugewandt liegt (siehe 14B).
  • Das Substrat 310 ist ein Stapel, in dem ein Substrat 310b mit Flexibilität, ein Sperrfilm 310a, der ungewollte Diffusion von Fremdstoffen in die Licht emittierenden Elemente verhindert, und eine Klebeschicht 310c gestapelt sind, mit der der Sperrfilm 310a an dem Substrat 310b befestigt ist.
  • Das Gegensubstrat 370 ist ein Stapel, der ein Substrat 370b mit Flexibilität, einen Sperrfilm 370a, der ungewollte Diffusion von Fremdstoffen in die Licht emittierenden Elemente verhindert, und eine Klebeschicht 370c beinhaltet, mit der der Sperrfilm 370a an dem Substrat 370b befestigt ist (siehe 14B).
  • Mit einem Dichtungsmittel 360 ist das Gegensubstrat 370 an dem Substrat 310 befestigt. Das Dichtungsmittel 360 dient auch als optische Klebeschicht. Die Pixelschaltungen und die Licht emittierenden Elemente (z. B. ein erstes Licht emittierendes Element 350R) und die Abbildungspixelschaltungen und fotoelektrische Umwandlungselemente (z. B. ein fotoelektrisches Umwandlungselement 308p) liegen zwischen dem Substrat 310 und dem Gegensubstrat 370.
  • <<Struktur des Pixels>>
  • Jedes Pixel 302 beinhaltet ein Sub-Pixel 302R, ein Sub-Pixel 302G und ein Sub-Pixel 302B (siehe 14C). Das Sub-Pixel 302R beinhaltet ein Licht emittierendes Modul 380R, das Sub-Pixel 302G beinhaltet ein Licht emittierendes Modul 380G, und das Sub-Pixel 302B beinhaltet ein Licht emittierendes Modul 380B.
  • Zum Beispiel beinhaltet das Sub-Pixel 302R das erste Licht emittierende Element 350R und die Pixelschaltung, die dem ersten Licht emittierenden Element 350R elektrische Leistung zuführen kann und einen Transistor 302t beinhaltet (siehe 14B). Das Licht emittierende Modul 380R beinhaltet das erste Licht emittierende Element 350R und ein optisches Element (z. B. eine erste Farbschicht 367R).
  • Der Transistor 302t beinhaltet eine Halbleiterschicht. Verschiedene Halbleiterfilme wie z. B. ein amorpher Siliziumfilm, ein LTPS-Film (low-temperature polysilicon film), ein Einkristall-Siliziumfilm und ein Oxidhalbleiterfilm, können für die Halbleiterschicht des Transistors 302t verwendet werden. Der Transistor 302t kann eine Backgate-Elektrode beinhalten, mit der die Schwellenspannung des Transistors 302t gesteuert werden kann.
  • Das erste Licht emittierende Element 350R beinhaltet eine erste untere Elektrode 351R, eine obere Elektrode 352 und eine Schicht 353, die eine Licht emittierende organische Verbindung enthält, zwischen der ersten unteren Elektrode 351R und der oberen Elektrode 352 (siehe 14C).
  • Die Schicht 353, die eine Licht emittierende organische Verbindung enthält, beinhaltet eine Licht emittierende Einheit 353a, eine Licht emittierende Einheit 353b und eine Zwischenschicht 354 zwischen den Licht emittierenden Einheiten 353a und 353b.
  • Die erste Farbschicht 367R des Licht emittierenden Moduls 380R ist an dem Gegensubstrat 370 vorgesehen. Die Farbschicht lässt Licht einer speziellen Wellenlänge durch und ist beispielsweise eine Schicht, die selektiv rotes, grünes oder blaues Licht durchlässt. Ein Bereich, der von dem Licht emittierenden Element emittiertes Licht unverändert durchlässt, kann auch ohne Farbschicht bereitgestellt werden.
  • Das Licht emittierende Modul 380R beinhaltet beispielsweise das Dichtungsmittel 360, das in Kontakt mit dem ersten Licht emittierenden Element 350R und der ersten Farbschicht 367R steht.
  • Die erste Farbschicht 367R liegt in einem Bereich, der das erste Licht emittierende Element 350R überlappt. Demzufolge passiert ein Teil des von dem ersten Licht emittierenden Element 350R emittierten Lichts das Dichtungsmittel 360 und die erste Farbschicht 367R und wird zur Außenseite des Licht emittierenden Moduls 380R emittiert, wie Pfeile in 14B und 14C zeigen.
  • Die Eingabe-Ausgabe-Einheit 300 beinhaltet eine Licht blockierende Schicht 367BM an dem Gegensubstrat 370. Die Licht blockierende Schicht 367BM ist derart bereitgestellt, dass sie die Farbschicht (z. B. die erste Farbschicht 367R) umgibt.
  • Die Eingabe-Ausgabe-Einheit 300 beinhaltet eine anti-reflektierende Schicht 367p, die in einem den Anzeigeabschnitt 301 überlappenden Bereich liegt. Als die anti-reflektierende Schicht 367p kann beispielsweise eine zirkular polarisierende Platte verwendet werden.
  • Die Eingabe-Ausgabe-Einheit 300 beinhaltet einen Isolierfilm 321. Der Isolierfilm 321 bedeckt den Transistor 302t. Es sei angemerkt, dass der Isolierfilm 321 als Schicht zum Planarisieren der durch die Pixelschaltungen verursachten Unebenheit verwendet werden kann. Ein Isolierfilm, auf dem eine Schicht gestapelt ist, die Diffusion von Fremdstoffen in den Transistor 302t und dergleichen verhindern kann, kann als der Isolierfilm 321 verwendet werden.
  • Die Licht emittierenden Elemente (z. B. das erste Licht emittierende Element 350R) sind über dem Isolierfilm 321 bereitgestellt.
  • Die Eingabe-Ausgabe-Einheit 300 beinhaltet über dem Isolierfilm 321 eine Trennwand 328, die einen Endabschnitt der ersten unteren Elektrode 351R überlappt (siehe 14C). Außerdem ist ein Abstandhalter 329, der den Abstand zwischen dem Substrat 310 und dem Gegensubstrat 370 steuert, an der Trennwand 328 bereitgestellt.
  • <<Struktur der Bildsignalleitungs-Treiberschaltung>>
  • Die Bildsignalleitungs-Treiberschaltung 303s(1) beinhaltet einen Transistor 303t und einen Kondensator 303c. Die Bildsignalleitungs-Treiberschaltung 303s(1) kann in dem gleichen Prozess und über dem gleichen Substrat wie die Pixelschaltungen ausgebildet werden.
  • <<Struktur des Abbildungspixels>>
  • Die Abbildungspixel 308 beinhalten jeweils das fotoelektrische Umwandlungselement 308p und eine Abbildungspixelschaltung zum Erkennen von Licht, das von dem fotoelektrischen Umwandlungselement 308p empfangen wird. Die Abbildungspixelschaltung beinhaltet einen Transistor 308t.
  • Zum Beispiel kann eine PIN-Fotodiode als das fotoelektrische Umwandlungselement 308p verwendet werden.
  • <<Weitere Strukturen>>
  • Die Eingabe-Ausgabe-Einheit 300 beinhaltet eine Leitung 311, über die ein Signal zugeführt wird. Die Leitung 311 ist mit einem Anschluss 319 versehen. Es sei angemerkt, dass eine FPC 309(1), über die ein Signal wie z. B. ein Bildsignal oder ein Synchronisationssignal, zugeführt wird, elektrisch mit dem Anschluss 319 verbunden ist. Die FPC 309(1) ist vorzugsweise in einem Bereich außer einem biegbaren Bereich der Eingabe-Ausgabe-Einheit 300 bereitgestellt.
  • Außerdem ist die FPC 309(1) vorzugsweise fast in der Mitte einer Seite eines Bereichs vorgesehen, der den Anzeigeabschnitt 301 umgibt, besonders einer Seite, die zusammengefaltet ist (einer längeren Seite in 14A). Folglich kann der Schwerpunkt der externen Schaltung fast gleich demjenigen der Eingabe-Ausgabe-Einheit 300 sein. Als Ergebnis kann die Datenverarbeitungsvorrichtung leicht gehandhabt werden, und Fehler, wie z. B. Fallen, können verhindert werden.
  • Es sei angemerkt, dass eine gedruckte Leiterplatte (printed wiring board: PWB) an der FPC 309(1) befestigt werden kann.
  • Zwar wird der Fall, in dem das Licht emittierende Element als Anzeigeelement verwendet wird, dargestellt, aber eine Ausführungsform der vorliegenden Erfindung ist nicht darauf beschränkt.
  • Es ist möglich, die folgenden Elemente zu verwenden: ein Elektrolumineszenz-(EL-)Element (z. B. ein EL-Element, das ein organisches Material und ein anorganisches Material enthält, ein organisches EL-Element, ein anorganisches EL-Element, eine LED), einen Licht emittierenden Transistor (einen Transistor, der in Abhängigkeit von Strom Licht emittiert), einen Elektronen-Emitter, ein Flüssigkristallelement, ein E-Ink-Anzeigeelement, ein elektrophoretisches Element, ein Elektrobenetzungselement, ein Plasma-Anzeigeelement, ein MEMS-Anzeigeelement, (z. B. ein Grating Light Valve (GLV), einen Mikrospiegelaktor (digital micromirror device: DMD), ein Digital-Micro-Shutter-Element (DMS element), ein IMOD-Element und dergleichen) oder eine piezoelektrische Keramikanzeige (piezoelectric ceramic display), die ein Anzeigemedium aufweist, dessen Kontrast, Leuchtdichte, Reflektivität, Lichtdurchlässigkeit oder dergleichen durch elektromagnetische Aktion verändert wird. Beispiele für Anzeigevorrichtungen, die EL-Elemente beinhalten, umfassen eine EL-Anzeige. Beispiele für eine Anzeigevorrichtung, die einen Elektronen-Emitter beinhaltet, umfassen einen Feldemissionsbildschirm (field emission display: FED), einen SED-Typ-Flachbildschirm (SED: surface-conduction electron-emitter display, oberflächenleitender Elektronen-Emitter-Bildschirm) und dergleichen. Beispiele für Anzeigevorrichtungen, die Flüssigkristallelemente beinhalten, umfassen eine Flüssigkristallanzeige (z. B. eine transmissive Flüssigkristallanzeige, eine transreflektive Flüssigkristallanzeige, eine reflektive Flüssigkristallanzeige, eine Direktsicht-Flüssigkristallanzeige (direct-view liquid crystal display) oder eine Projektions-Flüssigkristallanzeige). Anzeigevorrichtungen, die E-Ink bzw. Elektronische Tinte oder elektrophoretische Elemente aufweisen, umfassen elektronisches Papier und dergleichen.
  • Diese Ausführungsform kann mit einer der anderen Ausführungsformen in dieser Beschreibung angemessen kombiniert werden.
  • (Ausführungsform 7)
  • Bei dieser Ausführungsform wird die Struktur eines Anzeigefeldes, das für einen Positionseingabeabschnitt und eine Anzeigevorrichtung der Datenverarbeitungsvorrichtung nach einer Ausführungsform der vorliegenden Erfindung verwendet werden kann, anhand von 15A und 15B sowie 16 beschrieben. Es sei angemerkt, dass das Anzeigefeld bei dieser Ausführungsform einen Berührungssensor (eine Kontaktsensorvorrichtung) beinhaltet, der einen Anzeigeabschnitt überlappt,; daher kann das Anzeigefeld ein Touchscreen (eine Eingabe-Ausgabe-Vorrichtung) genannt werden.
  • 15A ist eine schematische perspektivische Ansicht eines als Beispiel bei dieser Ausführungsform beschriebenen Touchscreens 500. Es sei angemerkt, dass 15A und 15B der Einfachheit halber nur Hauptkomponenten darstellen. 15B ist eine Abwicklungsansicht der schematischen perspektivischen Ansicht des Touchscreens 500.
  • 16 ist eine Querschnittsansicht des Touchscreens 500 entlang der Linie X1-X2 in 15A.
  • Der Touchscreen 500 beinhaltet einen Anzeigeabschnitt 501 und einen Berührungssensor 595 (siehe 15B). Der Touchscreen 500 beinhaltet ein Substrat 510, ein Substrat 570 und ein Substrat 590. Es sei angemerkt, dass in einem Beispiel das Substrat 510, das Substrat 570 und das Substrat 590 jeweils Flexibilität aufweisen.
  • Als die Substrate können verschiedene flexible Substrate verwendet werden. Als Substrat kann ein Halbleitersubstrat (z. B. ein einkristallines Substrat oder ein Siliziumsubstrat), ein SOI-Substrat, ein Glassubstrat, ein Quarzsubstrat, ein Kunststoffsubstrat, ein Metallsubstrat oder dergleichen verwendet werden.
  • Der Anzeigeabschnitt 501 beinhaltet das Substrat 510, eine Vielzahl von Pixeln über dem Substrat 510, eine Vielzahl von Leitungen 511, über die den Pixeln Signale zugeführt werden, und eine Bildsignalleitungs-Treiberschaltung 503s(1). Die Vielzahl von Leitungen 511 erstreckt sich bis zu einem peripheren Abschnitt des Substrats 510, und einige der Vielzahl von Leitungen 511 bilden einen Anschluss 519. Der Anschluss 519 ist elektrisch mit einer FPC 509(1) verbunden. Es sei angemerkt, dass eine gedruckte Leiterplatte (printed wiring board: PWB) an der FPC 509(1) befestigt werden kann.
  • <Berührungssensor>
  • Das Substrat 590 beinhaltet den Berührungssensor 595 und eine Vielzahl von Leitungen 598, die elektrisch mit dem Berührungssensor 595 verbunden sind. Die Vielzahl von Leitungen 598 erstreckt sich bis zur Peripherie des Substrats 590, und einige der Leitungen 598 bilden einen Anschluss für elektrische Verbindung mit einer FPC 509(2). Es sei angemerkt, dass in 15B der Berührungssensor 595 auf der Rückseite des Substrats 590 (zwischen den Substraten 590 und 570) bereitgestellt ist und dass die Elektroden, die Leitungen und dergleichen der Klarheit halber durch durchgezogene Linien dargestellt sind.
  • Als Berührungssensor, der als der Berührungssensor 595 verwendet wird, wird ein kapazitiver Berührungssensor vorzugsweise verwendet. Beispiele für den kapazitiven Berührungssensor sind einer vom Oberflächen-kapazitiven Typ (surface capacitive type), einer vom projiziert-kapazitiven Typ (projected capacitive type) und dergleichen. Beispiele für den projiziert-kapazitiven Typ sind ein Eigenkapazitäts-Typ, ein Gegenkapazitäts-Typ und dergleichen hauptsächlich entsprechend dem Unterschied im Betriebsverfahren. Die Verwendung eines Gegenkapazitäts-Typs wird bevorzugt, weil mehrere Punkte gleichzeitig erkannt werden können.
  • Ein Beispiel für die Verwendung eines projiziert-kapazitiven Berührungssensors wird nachstehend anhand von 15B beschrieben. Es sei angemerkt, dass verschiedene Sensoren neben dem projiziert-kapazitiven Berührungssensor verwendet werden können.
  • Der Berührungssensor 595 beinhaltet Elektroden 591 und Elektroden 592. Die Elektroden 591 sind elektrisch mit einer der Vielzahl von Leitungen 598 verbunden, und die Elektroden 592 sind elektrisch mit einer der anderen Leitungen 598 verbunden.
  • Die Elektrode 592 weist die Form einer Reihe von Vierecken auf, die in einer Richtung angeordnet sind, wie in 15A und 15B dargestellt. Jede Elektrode 591 weist die Form eines Vierecks auf. Eine Leitung 594 verbindet elektrisch zwei Elektroden 591, die in einer Richtung angeordnet sind, welche die Richtung kreuzt, in der sich Elektrode 592 erstreckt. Die Fläche der Kreuzung zwischen der Elektrode 592 und der Leitung 594 ist vorzugsweise möglichst klein. Eine derartige Struktur ermöglicht eine Verringerung der Fläche eines Bereichs, in dem die Elektroden nicht bereitgestellt sind, so dass ungleichmäßige Lichtdurchlässigkeit verringert werden kann. Das hat zur Folge, dass ungleichmäßige Leuchtdichte von durch den Berührungssensor 595 hindurchtretendem Licht reduziert werden kann. Es sei angemerkt, dass die Formen der Elektrode 591 und der Elektrode 592 nicht darauf beschränkt sind und jede der verschiedenen Formen sein können.
  • Es sei angemerkt, dass eine Struktur eingesetzt werden kann, bei der die Vielzahl von Elektroden 591 derart angeordnet sind, dass die Abstände zwischen den Elektroden 591 möglichst verringert werden, und die Elektrode 592 getrennt von den Elektroden 591 angeordnet ist, wobei eine Isolierschicht dazwischen liegt, um Bereiche zu bilden, die die Elektroden 591 nicht überlappen. In diesem Fall wird es bevorzugt, zwischen zwei benachbarten Elektroden 592 eine von diesen Elektroden elektrisch isolierte Dummy-Elektrode anzuordnen, weil die Fläche von Bereichen mit verschiedenen Lichtdurchlässigkeiten verringert werden kann.
  • Die Struktur des Touchscreens 500 wird anhand von 16 beschrieben.
  • Der Berührungssensor 595 beinhaltet das Substrat 590, die Elektroden 591 und die Elektroden 592, die in einer gestuften Anordnung an dem Substrat 590 angeordnet sind, eine Isolierschicht 593, die die Elektroden 591 und die Elektroden 592 bedeckt, und die Leitung 594, die elektrisch die benachbarten Elektroden 591 miteinander verbindet.
  • Mit einer Klebeschicht 597 wird das Substrat 590 an dem Substrat 570 befestigt, so dass der Berührungssensor 595 den Anzeigeabschnitt 501 überlappt.
  • Die Elektroden 591 und die Elektroden 592 werden unter Verwendung eines lichtdurchlässigen leitenden Materials ausgebildet. Als lichtdurchlässiges leitendes Material kann ein leitendes Oxid wie z. B. Indiumoxid, Indiumzinnoxid, Indiumzinkoxid, Zinkoxid oder Zinkoxid, dem Gallium zugegeben ist, verwendet werden.
  • Die Elektroden 591 und die Elektroden 592 können ausgebildet werden, indem ein lichtdurchlässiges leitendes Material durch ein Sputterverfahren auf dem Substrat 590 abgeschieden wird und dann ein unnötiger Abschnitt durch eine bekannter Strukturierungstechniken, wie z. B. Fotolithografie, entfernt wird.
  • Beispiele für ein Material für die Isolierschicht 593 sind ein Harz wie z. B. ein Acrylharz oder ein Epoxidharz, ein Harz mit einer Siloxanbindung und ein anorganisches isolierendes Material, wie z. B. Siliziumoxid, Siliziumoxynitrid oder Aluminiumoxid.
  • Öffnungen, die die Elektroden 591 erreichen, werden in der Isolierschicht 593 ausgebildet, und die Leitung 594 verbindet elektrisch die benachbarten Elektroden 591. Die Leitung 594 wird vorzugsweise unter Verwendung eines lichtdurchlässigen leitenden Materials ausgebildet, in welchem Falle das Öffnungsverhältnis des Touchscreens erhöht werden kann. Die Leitung 594 wird vorzugsweise unter Verwendung eines Materials ausgebildet, das höhere Leitfähigkeit als dasjenige der Elektroden 591 und der Elektroden 592 aufweist.
  • Eine Elektrode 592 erstreckt sich in einer Richtung, und eine Vielzahl von Elektroden 592 ist in Streifenform angeordnet.
  • Die Leitung 594 kreuzt die Elektrode 592.
  • Benachbarte Elektroden 591 sind angeordnet, wobei eine Elektrode 592 dazwischen liegt, und sind elektrisch über die Leitung 594 miteinander verbunden.
  • Es sei angemerkt, dass die Vielzahl von Elektroden 591 nicht notwendigerweise in der Richtung orthogonal zu einer Elektrode 592 angeordnet wird und derart angeordnet werden kann, dass sie eine Elektrode 592 in einem Winkel von weniger als 90° kreuzt.
  • Eine Leitung 598 ist elektrisch mit einer der Elektroden 591 und 592 verbunden. Ein Teil der Leitung 598 dient als Anschluss. Für die Leitung 598 kann ein Metallmaterial, wie z. B. Aluminium, Gold, Platin, Silber, Nickel, Titan, Wolfram, Chrom, Molybdän, Eisen, Kobalt, Kupfer oder Palladium, oder ein Legierungsmaterial, das eines dieser Metallmaterialien enthält, verwendet werden.
  • Es sei angemerkt, dass eine Isolierschicht, die die Isolierschicht 593 und die Leitung 594 bedeckt, bereitgestellt sein kann, um den Berührungssensor 595 zu schützen.
  • Eine Verbindungsschicht 599 verbindet die Leitung 598 elektrisch mit der FPC 509(2).
  • Als die Verbindungsschicht 599 kann jeder/jede von verschiedenen anisotropen leitenden Filmen (anisotropic conductive film: ACF), anisotropen leitenden Pasten (anisotropic conductive paste: ACP) oder dergleichen verwendet werden.
  • Die Klebeschicht 597 weist eine lichtdurchlässige Eigenschaft auf. Zum Beispiel kann ein wärmehärtendes Harz oder ein ultravioletthärtendes Harz verwendet werden; insbesondere kann ein Harz, wie z. B. ein Acrylharz, ein Urethanharz, ein Epoxidharz oder ein Harz mit einer Siloxanbindung verwendet werden.
  • <Anzeigeabschnitt>
  • Der Touchscreen 500 beinhaltet eine Vielzahl von Pixeln, die in einer Matrix angeordnet sind. Jedes Pixel beinhaltet ein Anzeigeelement und eine Pixelschaltung zum Betreiben des Anzeigeelements.
  • Bei dieser Ausführungsform wird ein Beispiel für die Verwendung eines organischen Elektrolumineszenz-Elements, das weißes Licht emittiert, als Anzeigeelement beschrieben; jedoch ist das Anzeigeelement nicht auf ein solches Element beschränkt.
  • Als Anzeigeelement kann beispielsweise zusätzlich zu organischen Elektrolumineszenz-Elementen, eines von verschiedenen Anzeigeelementen wie z. B. Anzeigeelementen (elektronische Tinte), die durch ein Elektrophoreseverfahren, (ein elektronisches Flüssigpulver-(electronic liquid powder-)Verfahren oder dergleichen das Anzeigen durchführen; MEMS-Schutter-Anzegigeelementen; MEMS-Anzeigeelementen vom optischen Interferenztyp; und Flüssigkristallelementen, verwendet werden. Es sei angemerkt, dass eine Struktur, die geeignet für zu verwendende Anzeigeelemente ist, aus verschiedenen Pixelschaltungsstrukturen ausgewählt werden kann.
  • Das Substrat 510 ist ein Stapel, in dem ein Substrat 510b mit Flexibilität, ein Sperrfilm 510a, der ungewollte Diffusion von Fremdstoffen in die Licht emittierenden Elemente verhindert, und eine Klebeschicht 510c, mit der der Sperrfilm 510a an dem Substrat 510b befestigt ist, gestapelt sind.
  • Das Substrat 570 ist ein Stapel, in dem ein Substrat 570b mit Flexibilität, ein Sperrfilm 570a, der ungewollte Diffusion von Fremdstoffen in die Licht emittierenden Elemente verhindert, und eine Klebeschicht 570c, mit der der Sperrfilm 570a an dem Substrat 570b befestigt ist, gestapelt sind.
  • Mit einem Dichtungsmittel 560 ist das Substrat 570 an dem Substrat 510 befestigt. Das Dichtungsmittel 560 dient auch als optische Klebeschicht. Die Pixelschaltungen und die Licht emittierenden Elemente (z. B. ein erstes Licht emittierendes Element 550R) liegen zwischen dem Substrat 510 und dem Substrat 570.
  • <<Struktur des Pixels>>
  • Ein Pixel beinhaltet ein Sub-Pixel 502R, und das Sub-Pixel 502R beinhaltet ein Licht emittierendes Modul 580R.
  • Das Sub-Pixel 502R beinhaltet das erste Licht emittierende Element 550R. Die Pixelschaltung kann dem ersten Licht emittierenden Element 550R elektrische Leistung zuführen und beinhaltet einen Transistor 502t. Das Licht emittierende Modul 580R beinhaltet das erste Licht emittierende Element 550R und ein optisches Element (z. B. eine erste Farbschicht 567R).
  • Das erste Licht emittierende Element 550R beinhaltet eine untere Elektrode, eine obere Elektrode und eine Schicht, die eine Licht emittierende organische Verbindung enthält, zwischen der unteren Elektrode und der oberen Elektrode.
  • Das Licht emittierende Modul 580R beinhaltet die erste Farbschicht 567R an dem Substrat 570. Die Farbschicht lässt Licht einer spezifischen Wellenlänge durch und ist beispielsweise eine Schicht, die selektiv rotes, grünes oder blaues Licht durchlässt. Ein Bereich, der von dem Licht emittierenden Element emittiertes Licht unverändert durchlässt, kann auch ohne Farbschicht bereitgestellt werden.
  • Das Licht emittierende Modul 580R beinhaltet beispielsweise das Dichtungsmittel 560, das in Kontakt mit dem ersten Licht emittierenden Element 550R und der ersten Farbschicht 567R steht.
  • Die erste Farbschicht 567R liegt in einem Bereich, der das erste Licht emittierende Element 550R überlappt. Demzufolge passiert ein Teil des von dem ersten Licht emittierenden Element 550R emittierten Lichts das Dichtungsmittel 560 und die erste Farbschicht 567R und wird zur Außenseite des Licht emittierenden Moduls 580R emittiert, wie ein Pfeil in 16 zeigt.
  • <<Struktur der Bildsignalleitungs-Treiberschaltung>>
  • Die Bildsignalleitungs-Treiberschaltung 503s(1) beinhaltet einen Transistor 503t und einen Kondensator 503c. Es sei angemerkt, dass die Bildsignalleitungs-Treiberschaltung 503s(1) in dem gleichen Prozess und über dem gleichen Substrat wie die Pixelschaltungen ausgebildet werden kann.
  • <<Andere Strukturen>>
  • Der Anzeigeabschnitt 501 beinhaltet eine Licht blockierende Schicht 567BM an dem Substrat 570. Die Licht blockierende Schicht 567BM ist derart bereitgestellt, dass sie die Farbschicht (z. B. die erste Farbschicht 567R) umgibt.
  • Der Anzeigeabschnitt 501 beinhaltet eine anti-reflektierende Schicht 567p, die in einem Pixel überlappenden Bereich liegt. Als die anti-reflektierende Schicht 567p kann beispielsweise eine zirkular polarisierende Platte verwendet werden.
  • Der Anzeigeabschnitt 501 beinhaltet einen Isolierfilm 521. Der Isolierfilm 521 bedeckt den Transistor 502t. Es sei angemerkt, dass der Isolierfilm 521 als Schicht zum Planarisieren der durch die Pixelschaltungen verursachten Unebenheit verwendet werden kann. Ein Isolierfilm, auf dem eine Schicht gestapelt ist, die Diffusion von Fremdstoffen in den Transistor 502t und dergleichen verhindern kann, kann als der Isolierfilm 521 verwendet werden.
  • Der Anzeigeabschnitt 501 beinhaltet über dem Isolierfilm 521 eine Trennwand 528, die einen Endabschnitt der ersten unteren Elektrode überlappt. Außerdem ist ein Abstandhalter, der den Abstand zwischen dem Substrat 510 und dem Substrat 570 steuert, an der Trennwand 528 angeordnet.
  • Diese Ausführungsform kann mit einer der anderen Ausführungsformen in dieser Beschreibung angemessen kombiniert werden.
  • Diese Anmeldung basiert auf der japanischen Patentanmeldung mit der Seriennr. 2013-213378 , eingereicht beim japanischen Patentamt am 11. Oktober, 2013, deren gesamter Inhalt hiermit zum Gegenstand der vorliegenden Offenlegung gemacht ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2012-190794 [0006]
    • JP 2013-213378 [0364]

Claims (10)

  1. Ansteuerverfahren einer tragbaren Datenverarbeitungsvorrichtung, das umfasst: Erkennen einer Berührung einer Handfläche einer Hand eines Benutzers von einem ersten Bereich an einer ersten Seitenfläche der tragbaren Datenverarbeitungsvorrichtung, wenn die tragbare Datenverarbeitungsvorrichtung von der Hand gehalten wird; Erkennen einer Berührung eines Fingers der Hand außer einem Daumen von einem zweiten Bereich an einer zweiten Seitenfläche der tragbaren Datenverarbeitungsvorrichtung, wenn die tragbare Datenverarbeitungsvorrichtung von der Hand gehalten wird; und Anzeigen eines Bildes, das zum Bedienen der tragbaren Datenverarbeitungsvorrichtung verwendet wird, auf einem dritten Bereich, der einen Anzeigeabschnitt umfasst, so dass sich das Bild in einem Bewegungsbereich des Daumens des Benutzers befindet, der die tragbare Datenverarbeitungsvorrichtung hält, wobei die zweite Seitenfläche der ersten Seitenfläche zugewandt ist, wobei der Anzeigeabschnitt dazwischen liegt.
  2. Ansteuerverfahren nach Anspruch 1, wobei der erste Bereich und der zweite Bereich konfiguriert sind, um ein Bild anzuzeigen.
  3. Ansteuerverfahren nach Anspruch 1, wobei der erste Bereich, der zweite Bereich und der dritte Bereich jeweils einen Berührungssensor umfassen.
  4. Ansteuerverfahren nach Anspruch 1, wobei der dritte Bereich in Kontakt mit dem ersten Bereich und dem zweiten Bereich steht.
  5. Tragbare Datenverarbeitungsvorrichtung, die umfasst: einen Anzeigeabschnitt, der kontinuierliche erste bis dritte Bereiche beinhaltet, die jeweils einen Berührungssensor umfassen, wobei der dritte Bereich zwischen dem ersten Bereich und dem zweiten Bereich liegt, wobei der erste Bereich dem zweiten Bereich zugewandt ist, wobei der Berührungssensor in dem ersten Bereich konfiguriert ist, eine Berührung einer Handfläche einer Hand eines Benutzers zu erkennen, wenn die tragbare Datenverarbeitungsvorrichtung von der Hand gehalten wird, wobei der Berührungssensor in dem zweiten Bereich konfiguriert ist, eine Berührung eines Fingers der Hand außer einem Daumen zu erkennen, wenn die tragbare Datenverarbeitungsvorrichtung von der Hand gehalten wird, und wobei der dritte Bereich konfiguriert ist, ein Bild zum Betreiben der tragbaren Datenverarbeitungsvorrichtung anzuzeigen, so dass sich das Bild in einem Bewegungsbereich des Daumens des Benutzers befindet, der die tragbare Datenverarbeitungsvorrichtung hält.
  6. Tragbare Datenverarbeitungsvorrichtung nach Anspruch 5, wobei der Anzeigeabschnitt flexibel ist.
  7. Tragbare Datenverarbeitungsvorrichtung nach Anspruch 5, wobei der Berührungssensor flexibel ist.
  8. Tragbare Datenverarbeitungsvorrichtung nach Anspruch 5, wobei der Berührungssensor ein kapazitiver Berührungssensor ist.
  9. Tragbare Datenverarbeitungsvorrichtung, die umfasst: einen Anzeigeabschnitt, der kontinuierliche erste bis dritte Bereiche umfasst, wobei der dritte Bereich zwischen dem ersten Bereich und dem zweiten Bereich liegt, wobei der erste Bereich dem zweiten Bereich zugewandt ist, wobei die ersten bis dritten Bereiche jeweils ein Pixel und ein Abbildungspixel umfassen, wobei jedes der Pixel in den ersten bis dritten Bereichen ein Element umfasst, das ein Anzeigemedium aufweist, wobei jedes der Abbildungspixel in den ersten bis dritten Bereichen ein fotoelektrisches Umwandlungselement umfasst, wobei das Abbildungspixel in dem ersten Bereich konfiguriert ist, eine Berührung einer Handfläche einer Hand eines Benutzers zu erkennen, wenn die tragbare Datenverarbeitungsvorrichtung von der Hand gehalten wird, wobei das Abbildungspixel in dem zweiten Bereich konfiguriert ist, um eine Berührung eines Fingers der Hand außer einem Daumen zu erkennen, wenn die tragbare Datenverarbeitungsvorrichtung von der Hand gehalten wird, und wobei der dritte Bereich konfiguriert ist, ein Bild zum Betreiben der tragbaren Datenverarbeitungsvorrichtung anzuzeigen, so dass sich das Bild in einem Bewegungsbereich des Daumens des Benutzers befindet, der die tragbare Datenverarbeitungsvorrichtung hält.
  10. Tragbare Datenverarbeitungsvorrichtung nach Anspruch 9, wobei der Anzeigeabschnitt flexibel ist
DE201410220430 2013-10-11 2014-10-09 Datenverarbeitungsvorrichtung Pending DE102014220430A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013213378 2013-10-11
JP2013-213378 2013-10-11

Publications (1)

Publication Number Publication Date
DE102014220430A1 true DE102014220430A1 (de) 2015-04-30

Family

ID=52809257

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201410220430 Pending DE102014220430A1 (de) 2013-10-11 2014-10-09 Datenverarbeitungsvorrichtung

Country Status (5)

Country Link
US (1) US20150103023A1 (de)
JP (4) JP6532209B2 (de)
KR (3) KR20150042705A (de)
DE (1) DE102014220430A1 (de)
TW (4) TWI811799B (de)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102297287B1 (ko) 2013-11-15 2021-09-03 가부시키가이샤 한도오따이 에네루기 켄큐쇼 데이터 처리 장치
KR20230173733A (ko) 2013-11-28 2023-12-27 가부시키가이샤 한도오따이 에네루기 켄큐쇼 전자 기기 및 그 구동 방법
CN105723315B (zh) 2013-11-29 2020-11-20 株式会社半导体能源研究所 数据处理装置及数据处理装置的驱动方法
JP2016013958A (ja) 2013-12-02 2016-01-28 株式会社半導体エネルギー研究所 素子、膜の作製方法
US20150154730A1 (en) 2013-12-02 2015-06-04 Semiconductor Energy Laboratory Co., Ltd. Data processing device
KR102363255B1 (ko) 2013-12-02 2022-02-14 가부시키가이샤 한도오따이 에네루기 켄큐쇼 터치 패널 및 터치 패널의 제작 방법
US9229481B2 (en) 2013-12-20 2016-01-05 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device
CN106030451B (zh) 2014-02-28 2021-03-12 株式会社半导体能源研究所 电子设备
US9588549B2 (en) 2014-02-28 2017-03-07 Semiconductor Energy Laboratory Co., Ltd. Electronic device
CN105183203A (zh) * 2014-06-13 2015-12-23 宝宸(厦门)光学科技有限公司 触控面板及触控式电子装置
WO2016059514A1 (en) 2014-10-17 2016-04-21 Semiconductor Energy Laboratory Co., Ltd. Electronic device
JP2016085457A (ja) 2014-10-24 2016-05-19 株式会社半導体エネルギー研究所 電子機器
JP2016222526A (ja) 2015-05-29 2016-12-28 株式会社半導体エネルギー研究所 膜の作製方法および素子
US10978489B2 (en) * 2015-07-24 2021-04-13 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device, display panel, method for manufacturing semiconductor device, method for manufacturing display panel, and information processing device
CN108369465B (zh) 2015-12-08 2021-10-12 株式会社半导体能源研究所 触摸面板、触摸面板的指令输入方法及显示系统
WO2017113393A1 (zh) * 2015-12-31 2017-07-06 深圳市柔宇科技有限公司 可弯折移动终端
KR102423231B1 (ko) 2016-01-06 2022-07-22 삼성디스플레이 주식회사 사용자 인증 장치, 사용자 인증 방법 및 휴대 장치
KR102359245B1 (ko) * 2016-07-08 2022-02-04 가부시키가이샤 한도오따이 에네루기 켄큐쇼 전자 기기
JP7091601B2 (ja) * 2016-11-07 2022-06-28 富士フイルムビジネスイノベーション株式会社 表示装置およびプログラム
JP6999374B2 (ja) 2016-11-17 2022-01-18 株式会社半導体エネルギー研究所 電子機器、及びタッチパネル入力方法
JPWO2018163005A1 (ja) * 2017-03-10 2020-01-23 株式会社半導体エネルギー研究所 タッチパネルシステム、電子機器および半導体装置
WO2019175704A1 (ja) 2018-03-16 2019-09-19 株式会社半導体エネルギー研究所 電気モジュール、表示パネル、表示装置、入出力装置、情報処理装置、電気モジュールの作製方法
US10884540B2 (en) * 2018-09-11 2021-01-05 Sharp Kabushiki Kaisha Display device with detection of fold by number and size of touch areas
JP2019032885A (ja) * 2018-10-24 2019-02-28 アルプス電気株式会社 折曲検知可能なタッチセンサおよび折曲検知可能な表示装置
WO2020145932A1 (en) * 2019-01-11 2020-07-16 Lytvynenko Andrii Portable computer comprising touch sensors and a method of using thereof
US11106282B2 (en) * 2019-04-19 2021-08-31 Htc Corporation Mobile device and control method thereof
CN110351424A (zh) 2019-05-30 2019-10-18 华为技术有限公司 手势交互方法和终端
CN112130741A (zh) * 2019-06-24 2020-12-25 中兴通讯股份有限公司 一种移动终端的控制方法及移动终端
CN112987957A (zh) * 2019-12-17 2021-06-18 群创光电股份有限公司 电子装置
CN114399344B (zh) * 2022-03-24 2022-07-08 北京骑胜科技有限公司 数据处理方法和数据处理装置
US11775026B1 (en) * 2022-08-01 2023-10-03 Qualcomm Incorporated Mobile device fold detection

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012190794A (ja) 2011-02-25 2012-10-04 Semiconductor Energy Lab Co Ltd 発光装置、及び発光装置を用いた電子機器
JP2013213378A (ja) 2012-04-04 2013-10-17 Central Japan Railway Co 足場金具およびその取付け方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US7030551B2 (en) * 2000-08-10 2006-04-18 Semiconductor Energy Laboratory Co., Ltd. Area sensor and display apparatus provided with an area sensor
JP4699955B2 (ja) * 2006-07-21 2011-06-15 シャープ株式会社 情報処理装置
US9823833B2 (en) * 2007-06-05 2017-11-21 Immersion Corporation Method and apparatus for haptic enabled flexible touch sensitive surface
WO2010024029A1 (ja) * 2008-08-29 2010-03-04 日本電気株式会社 コマンド入力装置および携帯用情報機器とコマンド入力方法
JP2010079442A (ja) * 2008-09-24 2010-04-08 Toshiba Corp 携帯端末
US8402391B1 (en) * 2008-09-25 2013-03-19 Apple, Inc. Collaboration system
JP5137767B2 (ja) * 2008-09-29 2013-02-06 Necパーソナルコンピュータ株式会社 情報処理装置
JP5367339B2 (ja) * 2008-10-28 2013-12-11 シャープ株式会社 メニュー表示装置、メニュー表示装置の制御方法、およびメニュー表示プログラム
US8674951B2 (en) * 2009-06-16 2014-03-18 Intel Corporation Contoured thumb touch sensor apparatus
JP5732784B2 (ja) * 2010-09-07 2015-06-10 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
TWI442963B (zh) * 2010-11-01 2014-07-01 Nintendo Co Ltd 操作裝置及資訊處理裝置
TW201220152A (en) * 2010-11-11 2012-05-16 Wistron Corp Touch control device and touch control method with multi-touch function
US9104288B2 (en) * 2011-03-08 2015-08-11 Nokia Technologies Oy Method and apparatus for providing quick access to media functions from a locked screen
JP5453351B2 (ja) * 2011-06-24 2014-03-26 株式会社Nttドコモ 移動情報端末、操作状態判定方法、プログラム
JP5588931B2 (ja) * 2011-06-29 2014-09-10 株式会社Nttドコモ 移動情報端末、配置領域取得方法、プログラム
JP2013073330A (ja) * 2011-09-27 2013-04-22 Nec Casio Mobile Communications Ltd 携帯型電子機器、タッチ領域設定方法およびプログラム
JP5666546B2 (ja) * 2011-12-15 2015-02-12 株式会社東芝 情報処理装置、画像表示プログラム
CN102591576B (zh) * 2011-12-27 2014-09-17 华为终端有限公司 一种手持设备及触摸响应方法
JP5855481B2 (ja) * 2012-02-07 2016-02-09 シャープ株式会社 情報処理装置、その制御方法およびその制御プログラム
US8665238B1 (en) * 2012-09-21 2014-03-04 Google Inc. Determining a dominant hand of a user of a computing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012190794A (ja) 2011-02-25 2012-10-04 Semiconductor Energy Lab Co Ltd 発光装置、及び発光装置を用いた電子機器
JP2013213378A (ja) 2012-04-04 2013-10-17 Central Japan Railway Co 足場金具およびその取付け方法

Also Published As

Publication number Publication date
KR20190130117A (ko) 2019-11-21
TW201907284A (zh) 2019-02-16
JP2021099821A (ja) 2021-07-01
JP7042237B2 (ja) 2022-03-25
JP2015097083A (ja) 2015-05-21
KR20230019903A (ko) 2023-02-09
JP6532209B2 (ja) 2019-06-19
TWI811799B (zh) 2023-08-11
TWI647607B (zh) 2019-01-11
TW202028955A (zh) 2020-08-01
JP2019133723A (ja) 2019-08-08
KR20150042705A (ko) 2015-04-21
US20150103023A1 (en) 2015-04-16
TW202217537A (zh) 2022-05-01
TW201520873A (zh) 2015-06-01
JP2022171924A (ja) 2022-11-11
TWI742471B (zh) 2021-10-11
TWI679575B (zh) 2019-12-11

Similar Documents

Publication Publication Date Title
DE102014220430A1 (de) Datenverarbeitungsvorrichtung
US11221720B2 (en) Data processing device
US20220093682A1 (en) Display substrates, display panels and display devices
US10199446B2 (en) Transparent display device and method for manufacturing the same
DE102018112753A1 (de) Anzeigevorrichtung mit integriertem touchscreen und verfahren zur herstellung derselben
DE112013000825B4 (de) Anzeige mit Strukturen zur Verhinderung von Farbmischung
DE102016117976B4 (de) Anzeigevorrichtung mit Touchscreen-Funktion
DE112019001907T5 (de) Elektronische vorrichtungsanzeige für bildgebung durch eine anzeige
DE112015000739T5 (de) Anzeigevorrichtung und elektronisches Gerät
US11910645B2 (en) Display panel and display device
DE102016125454A1 (de) Organische lichtemittierende Anzeigevorrichtung
DE102018126296A1 (de) Berührungsanzeigevorrichtung und Berührungsanzeigetafel
DE102020133363B4 (de) Anzeigetafel und damit versehene Anzeigevorrichtung
DE102015210047A1 (de) Touchscreen
DE102019117932A1 (de) Organische lichtemittierende mehrtafel-anzeigevorrichtung
DE102014226616A1 (de) Anzeigeschaltung mit verringertem Metallleitwiderstand
US11723255B2 (en) Display device
DE102013114174A1 (de) Anzeigevorrichtung mit integriertem berührungsempflindlichem Bildschirm
DE102019118306A1 (de) Anzeigevorrichtung mit berührungssensor
CN102089735A (zh) 触摸面板、显示装置和电子设备
DE112017005427T5 (de) Informationsverarbeitungsvorrichtung, Anzeigevorrichtung und elektronisches Gerät
DE112013001588T5 (de) Elektronische Vorrichtung mit invertierter Flüssigkristallanzeige
DE102020126958A1 (de) Anzeigevorrichtung
DE112019004840T5 (de) Fingerabdruckdetektionsvorrichtung und anzeigevorrichtung mit fingerabdruckdetektionsvorrichtung
CN109407906A (zh) 显示装置

Legal Events

Date Code Title Description
R130 Divisional application to

Ref document number: 102014019987

Country of ref document: DE

R012 Request for examination validly filed