WO2014171177A1 - タッチパネル装置、タッチパネル付き表示装置およびプログラム - Google Patents

タッチパネル装置、タッチパネル付き表示装置およびプログラム Download PDF

Info

Publication number
WO2014171177A1
WO2014171177A1 PCT/JP2014/053978 JP2014053978W WO2014171177A1 WO 2014171177 A1 WO2014171177 A1 WO 2014171177A1 JP 2014053978 W JP2014053978 W JP 2014053978W WO 2014171177 A1 WO2014171177 A1 WO 2014171177A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch panel
touch
pen
panel surface
contact
Prior art date
Application number
PCT/JP2014/053978
Other languages
English (en)
French (fr)
Inventor
岡田 厚志
之雄 水野
青木 淳
後藤 利充
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2014171177A1 publication Critical patent/WO2014171177A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • G06F3/041661Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving using detection at multiple resolutions, e.g. coarse and fine scanning; using detection within a limited area, e.g. object tracking window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes

Definitions

  • the present invention relates to a touch panel scanning process (scanning method) executed in a touch panel device, a display device with a touch panel, or the like.
  • the touch panel device is a device that can input information to the device by touching the touch panel surface with a finger or a pen.
  • capacitive touch panel devices with good detection sensitivity and excellent operability have been used in various devices.
  • a projected capacitive touch panel device that can accurately detect the coordinates of a finger or pen touching the touch panel surface is often used.
  • the projected capacitive touch panel device has a plurality of drive lines and a plurality of sense lines. Each drive line is provided with a plurality of X-axis direction sense electrodes, and each sense line is provided with a plurality of Y-axis direction sense electrodes.
  • a drive pulse signal is sequentially output to the drive line, and an electric field change between the X-axis direction sense electrode and the Y-axis direction sense electrode is detected. That is, by detecting a signal corresponding to a change in the electric field between the X-axis direction sense electrode and the Y-axis direction sense electrode in the sense line, in the projected capacitive touch panel device, a finger or a pen is touched on the touch panel surface. Detect the touching coordinates.
  • the projected capacitive touch panel device it is necessary to drive a plurality of drive lines with the drive pulse signal.
  • the detection accuracy it is necessary to increase the number of drive lines and the number of sense lines. For this reason, if the detection accuracy is to be increased, the number of drive lines driven by the drive pulse signal increases, so that the power consumption in the projected capacitive touch panel device increases.
  • Patent Document 1 Japanese Patent No. 4770899 discloses a touch panel device configured to be able to switch between a full line scan mode and a partial line scan mode.
  • power consumption is reduced while maintaining the detection accuracy of the touch panel device by driving only some of the drive lines in the partial line scan mode.
  • Patent Document 1 is a technique for detecting a double click with a finger at high speed and with high accuracy, and touches the touch panel surface with a pen or the like whose contact area on the touch panel surface is smaller than that of the finger. The case is not considered. Further, since the technique of Patent Document 1 is based on the premise that the touch panel surface is touched with a finger, in the partial line scan mode, only a part of the drive lines is selected uniformly. To drive. For this reason, in the technique of the above-mentioned patent document 1, when the number of drive lines that the touch panel device has is small, it is considered difficult to ensure detection accuracy when the touch area on the touch panel surface is touched with a pen or the like that is smaller than a finger. .
  • the present invention can detect the touch position on the touch panel surface with high accuracy even when the touch area on the touch panel surface is touched with a pen or the like smaller than a finger.
  • An object of the present invention is to realize a touch panel device, a display device with a touch panel, and a program that can reduce power consumption.
  • the touch panel device having the first configuration includes a touch panel unit and a touch panel control unit.
  • the touch panel unit has a touch panel surface.
  • the touch panel control unit generates an electric field in the entire area of the touch panel surface, and detects a change in the electric field, thereby acquiring position information on the touch panel surface of an object in contact with the touch panel surface; and
  • the partial scan mode for acquiring position information on the touch panel surface of an object in contact with the touch panel surface by generating an electric field in a partial area of the touch panel surface and detecting a change in the electric field, and the touch panel unit To control.
  • the touch panel control unit (1) If the object in contact with the touch panel surface is not a touch pen, an electric field is generated in the entire area of the touch panel surface by the full scan mode, (2) When the object in contact with the touch panel surface is a touch pen, an electric field is generated in the first partial area of the touch panel surface by the partial scan mode, (3) When the object in contact with the touch panel surface is a touch pen and a partial region of the hand, an electric field is generated in a second partial region narrower than the first partial region of the touch panel surface in the partial scan mode.
  • the touch position on the touch panel surface can be detected with high accuracy and power consumption is reduced.
  • a touch panel device, a display device with a touch panel, and a program can be realized.
  • the schematic block diagram of the display apparatus 1000 with a touch panel of 1st Embodiment. 1 is a schematic configuration diagram of a display device 1000 with a touch panel according to a first embodiment.
  • FIG. The flowchart which shows the process of the display apparatus 1000 with a touch panel. The figure for demonstrating the method to determine the start position and end position of a drive line when the touch of both the pen and the partial area
  • the flowchart which shows the process of the display apparatus with a touchscreen of the 1st modification of 1st Embodiment.
  • region of a hand is detected.
  • FIG. 1 is a schematic configuration diagram of a display device 1000 with a touch panel according to the first embodiment.
  • FIG. 2 is a schematic configuration diagram of the display device 1000 with a touch panel according to the first embodiment, and shows a configuration (one example) of the touch panel controller 1.
  • the display device 1000 with a touch panel includes a touch panel TP, a display panel LCD, a touch panel controller 1, a display panel control unit 2, and a display panel drive unit 3.
  • the touch panel controller 1 includes a control unit 11, a drive control unit 12, a transmission unit 13, a reception unit 14, and a touch position acquisition unit 15.
  • the touch panel TP is arranged so as to cover a display surface (not shown) of the display panel LCD, and a change amount of an electric field or the like generated by touching the touch panel surface with a finger or a pen (touch pen) is a predetermined physical quantity. (For example, the amount of current or the amount of voltage generated according to the electric field change) is output to the touch panel controller 1.
  • the touch panel TP is a projected capacitive touch panel.
  • the touch panel TP has m + 1 (m: natural number) drive lines D0 to Dm and n + 1 (n: natural number) sense lines S0 to Sn.
  • each drive line connects a plurality of (n + 2 in FIG. 2) X-axis direction sense electrodes (electrodes indicated by gray diamonds in FIG. 2) and each X-axis direction sense electrode. And a connecting portion.
  • the X-axis direction sense electrodes of the same drive line are arranged at substantially equal intervals in the lateral direction (this direction is referred to as the X-axis direction) so as to sandwich the connecting portion.
  • Each drive line is formed on the first electrode layer.
  • the X-axis direction sense electrode and the connecting portion are shown in gray, but this is for convenience of explanation, and the actual X-axis direction sense electrode and the connecting portion are colorless and transparent. It is.
  • Each sense line is composed of a plurality (n + 2 in FIG. 2) of Y-axis direction sense electrodes (electrodes indicated by white rhombuses in FIG. 2) and a connecting portion connecting the Y-axis direction sense electrodes.
  • the Y-axis direction sense electrodes of the same sense line are arranged at substantially equal intervals in the vertical direction (this direction is defined as the Y-axis direction) so as to sandwich the connecting portion.
  • Each sense line is formed in the second electrode layer. Note that the first electrode layer including the drive line and the second electrode layer including the sense line are disposed with an insulating layer interposed therebetween.
  • Each drive line of the touch panel TP is driven by a drive pulse signal output from the transmission unit 13 of the touch panel controller 1.
  • This drive pulse signal generates an electric field between the X-axis direction sense electrode and the Y-axis direction sense electrode, and when a finger or pen touches the touch panel surface, the X-axis direction sense electrode and the Y-axis direction sense electrode The electric field changes.
  • By detecting this electric field change in each sense line of the touch panel TP it is possible to detect (specify) the coordinates (position) with which the finger or pen is in contact with the touch panel surface.
  • the display panel LCD is, for example, a liquid crystal display panel.
  • the display panel LCD is driven and controlled by the display panel driving unit 3.
  • the display panel LCD is connected to the display panel driving unit 3 by a plurality of source lines and a plurality of gate lines, and pixels are arranged at positions where the source lines and the gate lines intersect.
  • Each pixel includes a switch element connected to the gate line and the source line, and a display element (for example, a liquid crystal element).
  • display based on the display data is performed by controlling the display element by a signal based on the gate drive control signal output to the gate line and the display data output to the source line.
  • the touch panel controller 1 includes a control unit 11, a drive control unit 12, a transmission unit 13, a reception unit 14, and a touch position acquisition unit 15.
  • the control unit 11 controls each functional unit of the touch panel controller 1.
  • Setting information related to the touch panel can be input to the control unit 11.
  • the setting information regarding the touch panel may be input by the user via a user interface (not shown), for example.
  • a user interface not shown
  • scan mode setting information For example, (1) scan mode setting information, (2) finger / pen simultaneous use mode setting information, (3) information about a pen movement range (free pen movement range), (4) )
  • the scan range for example, drive line width setting in the partial scan mode.
  • the control unit 11 outputs information for specifying the drive line to be driven to the drive control unit 12. For example, the control unit 11 outputs information indicating the start position and the end position of the drive line to the drive control unit 12 as information for specifying the drive line to be driven.
  • control unit 11 outputs to the drive control unit 12 information indicating the start position and end position of the drive line as information for specifying the drive line to be driven.
  • control unit 11 receives information about the touch position output from the touch position acquisition unit 15 as an input. And the control part 11 specifies the information for specifying the drive line to drive based on the information about the said touch position, ie, the start position and end position of a drive line.
  • control unit 11 outputs information about the touch position output from the touch position acquisition unit 15 to the display panel control unit 2.
  • the drive control unit 12 receives information (information about the start position and end position of the drive line) specifying the drive line to be driven, which is output from the control unit 11. Based on this information, the drive control unit 12 outputs a drive pulse signal from the transmission unit 13 to each drive line from the drive line specified as the start position to the drive line specified as the end position. As described above, the transmission unit 13 is driven and controlled.
  • the transmission unit 13 outputs a drive pulse signal to each drive line from the drive line specified as the start position to the drive line specified as the end position based on the command of the drive control unit 12.
  • the receiving unit 14 detects from the sense lines S0 to Sn changes in the electric field generated when an object contacts the touch panel surface of the touch panel TP. Specifically, an electric field generated between the X-axis direction sense electrode and the Y-axis direction sense electrode is generated by the drive pulse signal output from the transmission unit 13 to each drive line. When an object comes into contact with the touch panel surface of the touch panel TP, the electric field between the X-axis direction sense electrode and the Y-axis direction sense electrode arranged in the vicinity where the object is in contact changes. Then, a signal corresponding to this electric field change is input to the receiving unit 14 via the sense line. That is, the receiving unit 14 receives signals (sense signals) corresponding to changes in the electric field generated when an object contacts the touch panel surface of the touch panel TP via the sense lines S0 to Sn.
  • the reception unit 14 outputs the received sense signal to the touch position acquisition unit 15.
  • the touch position acquisition unit 15 receives a sense signal output from the reception unit 14 as an input. From the sense signal, the touch position acquisition unit 15 specifies the position (positional coordinate) where the object is in contact (touched) on the touch panel surface of the touch panel TP. Then, the touch position acquisition unit 15 outputs information related to the specified position (information about the touch position) to the control unit 11.
  • the display panel control unit 2 inputs information about the touch position output from the control unit 11.
  • the display panel control unit 2 specifies data (display data) to be displayed on the display panel LCD based on the input information about the touch position. Then, the display panel control unit 2 outputs a command signal for displaying the specified display data on the display panel LCD to the display panel driving unit 3.
  • the display panel drive unit 3 receives the command signal output from the display panel control unit 2 and controls the drive of the display panel LCD so that display data is displayed on the display panel LCD based on the command signal.
  • FIG. 3 is a flowchart showing processing of the display device 1000 with a touch panel.
  • the operation of the display device with a touch panel 1000 will be described with reference to the flowchart of FIG. (S1):
  • the full scan mode is a mode in which the entire touch panel surface of the touch panel TP is scanned. That is, the mode in which all the drive lines D0 to Dm shown in FIG. 2 are driven is the full scan mode.
  • step S ⁇ b> 1 the control unit 11 outputs information (drive line specifying information) in which the drive line start position is set to “0” and the drive line end position is set to “m” to the drive control unit 12.
  • the drive control unit 12 drives and controls the transmission unit 13 based on the drive line identification information received from the control unit 11. Specifically, the drive control unit 12 performs drive control so that drive pulse signals are output from the transmission unit 13 to the drive lines D0 to Dm, respectively.
  • step S2 In step S2, sense processing (sensing) is performed. Specifically, the touch position acquisition unit 15 detects an electric field change on the touch panel surface of the touch panel TP from signals (sense signals) received by the receiving unit 14 via the sense lines S0 to Sn.
  • step S 3 the control unit 11 detects whether or not an object is in contact with the touch panel surface of the touch panel TP based on information regarding the touch position acquired by the touch position acquisition unit 15 (whether there is a touch). As a result of detection, when it is determined that there is no object in contact with the touch panel surface of the touch panel TP (in the case of “No” in step S3), the process returns to step S1.
  • step S4 In step S ⁇ b> 4, the control unit 11 determines whether the object that is in contact with the touch panel surface of the touch panel TP is a finger based on the information regarding the touch position acquired by the touch position acquisition unit 15. As a result of the determination, if it is determined that the finger is in contact with the touch panel surface of the touch panel TP (“Yes” in step S4), the process proceeds to step S5.
  • step S4 if it is determined that the finger is not in contact with the touch panel surface of the touch panel TP (“No” in step S4), the process proceeds to step S6.
  • the control unit 11 obtains the area of the object that is in contact with the touch panel surface of the touch panel TP based on the information related to the touch position acquired by the touch position acquisition unit 15, and the touch panel based on the obtained area. It is determined whether or not the object in contact with the surface is a finger. For example, the control unit 11 sets a threshold value Th1 for pen touch detection, a threshold value Th2 for finger touch detection (> Th1), and a threshold value Th3 (> Th2) for touch detection in a part of the hand, If the area of the object in contact with the touch panel surface is A0, Th1 ⁇ A0 ⁇ Th2 In this case, it may be determined that the object in contact with the touch panel surface is a finger.
  • the control unit 11 can detect an object that is in contact with the touch panel surface based on the amplitude of the signal (sense signal) received by the receiving unit 14 via the sense lines S0 to Sn. It may be determined whether or not is a finger. Usually, the amplitude of the signal (sense signal) received by the receiving unit 14 when the object in contact with the touch panel surface is a finger is the amplitude of the sense signal when the object in contact with the touch panel surface is a pen. Since the size is about 10 times, it is determined whether or not the object in contact with the touch panel surface is a finger based on the amplitude of the signal (sense signal) received by the receiving unit 14 via the sense lines S0 to Sn. be able to. (S5): In step S ⁇ b> 5, the control unit 11 outputs information (coordinate information) related to the touch position acquired by the touch position acquisition unit 15 to the display panel control unit 2.
  • the display panel control unit 2 executes various processes based on information (coordinate information) related to the touch position output from the control unit 11. For example, when the process A is assigned to the icon displayed at the coordinate position (x1, y1) on the display screen of the display panel LCD, the coordinate position on the touch panel surface touched by the finger is the coordinate position (x1). , Y1), the display panel control unit 2 executes the process A assigned to the icon, and there is display data (data to be displayed on the display panel LCD) generated by executing the process A. A command signal is output to the display panel driving unit 3 so that the display data is displayed on the display panel LCD.
  • the display panel drive unit 3 drives and controls the display panel LCD based on the command signal received from the display panel control unit 2 so that the display data is displayed on the display panel LCD.
  • step S ⁇ b> 6 the control unit 11 determines that the object in contact with the touch panel surface of the touch panel TP is a partial region of the hand (a palm or a little finger ball ( It is determined whether or not the hand part has a wider contact area than the finger, such as the base part of the little finger). As a result of the determination, when it is determined that the region is a partial region of the hand that is in contact with the touch panel surface of the touch panel TP (“Yes” in step S6), the process proceeds to step S7.
  • step S6 if it is determined that it is not a partial region of the hand that is in contact with the touch panel surface of the touch panel TP (“No” in step S6), the process proceeds to step S11.
  • the control unit 11 obtains the area of the object that is in contact with the touch panel surface of the touch panel TP based on the information related to the touch position acquired by the touch position acquisition unit 15, and the touch panel based on the obtained area. It is determined whether or not the object in contact with the surface is a partial region of the hand. For example, the control unit 11 sets a threshold value Th1 for pen touch detection, a threshold value Th2 for finger touch detection (> Th1), and a threshold value Th3 (> Th2) for touch detection in a part of the hand, If the area of the object in contact with the touch panel surface is A0, A0 ⁇ Th2 In this case, it may be determined that the object in contact with the touch panel surface is a partial region of the hand.
  • control unit 11 and / or the touch position acquisition unit 15
  • the “partial region of the hand” is a concept including a part of the hand having a larger contact area than a finger, such as a palm or a little finger ball part (base part of the little finger), and a line on the touch panel surface with a pen. This is a concept that includes a part of the hand that comes into contact with the touch panel panel surface to support the pen when drawing.
  • step S ⁇ b> 7 the control unit 11 determines whether or not the object that is in contact with the touch panel surface of the touch panel TP is a pen (pen tip) based on the information regarding the touch position acquired by the touch position acquisition unit 15. To do. As a result of the determination, if it is determined that the pen is in contact with the touch panel surface of the touch panel TP (“Yes” in step S7), the process proceeds to step S8.
  • step S7 if it is determined that the pen is not in contact with the touch panel surface of the touch panel TP (“No” in step S7), the process proceeds to step S9.
  • the control unit 11 obtains the area of the object that is in contact with the touch panel surface of the touch panel TP based on the information related to the touch position acquired by the touch position acquisition unit 15, and the touch panel based on the obtained area. It is determined whether the object in contact with the surface is a pen (pen tip). For example, the control unit 11 sets a threshold value Th1 for pen touch detection, a threshold value Th2 for finger touch detection (> Th1), and a threshold value Th3 (> Th2) for touch detection in a part of the hand, If the area of the object in contact with the touch panel surface is A0, A0 ⁇ Th1 In this case, it may be determined that the object in contact with the touch panel surface is a pen (pen tip).
  • control unit 11 (and / or the touch position acquisition unit 15) can detect an object that is in contact with the touch panel surface based on the amplitude of the signal (sense signal) received by the receiving unit 14 via the sense lines S0 to Sn. It may be determined whether or not is a pen (pen tip).
  • step S ⁇ b> 8 the control unit 11 outputs information (coordinate information) related to the touch position acquired by the touch position acquisition unit 15 to the display panel control unit 2.
  • the display panel control unit 2 executes various processes based on information (coordinate information) related to the touch position output from the control unit 11. For example, when a straight line L1 is drawn with a pen (touch pen) between the coordinate position (x1, y1) on the display screen of the display panel LCD and the coordinate position (x2, y2), the touch panel surface touched with the pen is touched.
  • the coordinate position is the coordinate position (xk2, yk2) ((xk2, yk2) is the coordinate of the point on the straight line L1)
  • the touch position with the pen at the previous scan is the coordinate position (xk1 , Xk1) ((xk1, yk1) is the coordinates of the point on the straight line L1)
  • the display panel control unit 2 makes a straight line between the coordinate position (xk1, yk1) and the coordinate position (xk2, yk2).
  • a command signal is output to the display panel drive unit 3 so that display data for rendering (data to be displayed on the display panel LCD) is displayed on the display panel LCD.
  • the display panel drive unit 3 drives and controls the display panel LCD based on the command signal received from the display panel control unit 2 so that the display data is displayed on the display panel LCD.
  • step S9 In step S ⁇ b> 9, the control unit 11 determines from the setting information input to the control unit 11 whether it is possible to execute a partial scan. As a result of the determination, if the partial scan can be executed (“Yes” in step S9), the control unit 11 sets the scan mode to the partial scan mode. Then, the process proceeds to step S10.
  • step S10 the control unit 11 obtains information for specifying the drive line to be driven based on the information about the touch position output from the touch position acquisition unit 15, that is, the start position and the end position of the drive line. Identify. This specific method (one example) will be described with reference to FIG.
  • FIG. 4 is a diagram for explaining a method for determining the start position and the end position of the drive line when the touch of both the pen and a partial region of the hand is detected.
  • the pen tip of the touch pen is in contact with the touch panel surface of the touch panel TP, and in the region R1, a part of the hand (the little finger ball portion of the hand) is the touch panel of the touch panel TP.
  • the coordinates of the point A are (xa, ya), the point where the Y coordinate value is the maximum value in the region R1 is the B point, and the coordinates of the B point are (xb, yb).
  • the drive line number (0 to m in FIG. 2) matches the X coordinate value
  • the sense line number (0 to n in FIG. 2) matches the Y coordinate value. This will be described below.
  • the control unit 11 acquires the coordinate information acquired from the touch position acquisition unit 15 (coordinate information about the point A of the pen tip of the touch pen and the coordinate information of the partial region R1 of the hand that is in contact with the touch panel surface).
  • M1_pen ( ⁇ 0) is a value set so as to include a range in which the touch pen can move by the time of the next scan as a scan target.
  • M1_palm ( ⁇ 0) is a range in which the maximum point of the Y coordinate value of a region of a partial region of the hand that is in contact with the touch panel surface (such as the little finger ball portion) can move until the next scan. This value is set to be included as a scan target.
  • the drive position Dno at the center of the scan range R_palm and the drive line width Dwidth are as follows.
  • the range in which the pen can move during the next scan can be predicted from the positional relationship between the area of a part of the hand that is in contact with the touch panel surface (the little finger ball part of the hand) and the position of the pen. it can. That is, when a person draws a character, a figure, a line, etc. with a pen, an area of a part of a hand (such as a little fingerball part of a hand) (for example, a center of gravity of a part of a hand) is used as a fulcrum. Since the pen is moved, the movement range of the pen can be roughly predicted (estimated). Therefore, the variable M1_pen is preferably set so as to cover the predicted range (estimated range) of the pen movement range.
  • step S10 the control unit 11 specifies information for specifying the drive line to be driven, that is, the start position and the end position of the drive line. Then, the process returns to step S2.
  • step S11 the control unit 11 outputs information (coordinate information) related to the touch position acquired by the touch position acquisition unit 15 to the display panel control unit 2.
  • the display panel control unit 2 executes various processes based on information (coordinate information) related to the touch position output from the control unit 11. Then, the display panel control unit 2 outputs a command signal to the display panel drive unit 3 so that display data (data to be displayed on the display panel LCD) corresponding to the processing to be executed is displayed on the display panel LCD. .
  • the display panel drive unit 3 drives and controls the display panel LCD based on the command signal received from the display panel control unit 2 so that the display data is displayed on the display panel LCD.
  • step S12 the control unit 11 determines from the setting information input to the control unit 11 whether or not the simultaneous pen / finger detection process can be executed. As a result of the determination, when it is possible to execute the pen / finger simultaneous detection process (in the case of “Yes” in step S12), the process returns to step S2.
  • step S13 the control unit 11 obtains information for specifying the drive line to be driven based on the information about the touch position output from the touch position acquisition unit 15, that is, the start position and the end position of the drive line. Identify. This specific method (example) will be described with reference to FIG.
  • FIG. 5 is a diagram for explaining a method of determining the start position and the end position of the drive line when only the touch of the pen is detected.
  • point A when the pen tip of the touch pen is in contact with the touch panel surface of the touch panel TP (when a part of the hand is not in contact with the touch panel surface of the touch panel TP (part of the hand) If there is no detection)).
  • the coordinates of point A are (xa, ya).
  • the drive line number (0 to m in FIG. 2) matches the X coordinate value
  • the sense line number (0 to n in FIG. 2) matches the Y coordinate value. This will be described below.
  • the control unit 11 determines, from the coordinate information acquired from the touch position acquisition unit 15 (coordinate information about the point A of the pen point of the touch pen), the point A where the pen point of the touch pen is in contact with the touch panel surface.
  • M2_pen (M2_pen ⁇ M1_pen ⁇ 0) is a value set to include a range in which the touch pen can move by the time of the next scan as a scan target.
  • M2_pen ⁇ M1_pen
  • the variable M2_pen is set so that When both the pen and a part of the hand are in contact with the touch panel surface of the touch panel TP, it is considered that the distance that the pen moves is short before the next scan. On the other hand, when only the pen is in contact with the touch panel surface of the touch panel TP, the pen movement range may be wider than when both the pen and a part of the hand are in contact with the touch panel surface of the touch panel TP.
  • the value of the variable M2_pen (the value for determining the scan range when only the pen is in contact with the touch panel surface of the touch panel TP) is set as the value of the variable M1_pen (the pen and the hand). It is preferable to set a value equal to or greater than a value for determining a scan range when both of the partial areas are in contact with the touch panel surface of the touch panel TP.
  • the drive position Dno at the center of the scan range R_pen and the drive line width Dwidth are as follows.
  • step S13 the control unit 11 specifies information for specifying the drive line to be driven, that is, the start position and end position of the drive line. Then, the process returns to step S2.
  • the sensing process is executed in the full scan mode (the mode in which the entire touch panel surface of the touch panel TP is scanned). Even when touched with a smaller pen or the like, the touch position on the touch panel surface can be detected with high accuracy.
  • the touch panel is executed by executing the process in the partial scan mode. Power consumption is reduced while detecting the touch position on the surface with high accuracy.
  • the range to be scanned is the range from the drive line whose drive line position is S_pen to the drive line whose drive line position is E_pen (scan range R_pen).
  • Sense processing is executed
  • the range to be scanned is the range from the drive line whose drive line position is S_palm to the drive line whose drive line position is E_palm.
  • sense processing is executed.
  • the touch position on the touch panel surface can be detected with high accuracy by setting the range R_pen set around the contact point of the pen as the scan range, and the scan range is By limiting, power consumption can be reduced.
  • a scan range R_palm is obtained by setting a range in which the pen can be moved in the next scan based on the relationship between the contact point of the pen and the contact region of a part of the hand as the scan range R_palm.
  • the scan range can be limited to a range narrower than the scan range R_pen when only the touch of the pen is detected.
  • the boundary point between the pen touch position and the partial hand region is set so that the most distant point (point B in FIG. 4) can be detected during the next scan. The touch position of the area can be detected properly continuously.
  • the touch position on the touch panel surface can be detected with high accuracy, and the scan range can be further narrowed. As a result, the power consumption can be further reduced.
  • the scanning process in the full scan mode For example, even when a plurality of locations on the touch panel surface are touched (in the case of multi-touch), the touch (multi-touch) can be appropriately detected. For this reason, appropriate processing is executed even when the touch panel surface is touched with a finger outside the range scanned in the partial scan mode.
  • the partial scan range is changed when only the touch of the pen is detected and when both the pen and the touch of a partial area of the hand are detected.
  • the expected movement range (movement speed) of the pen is different between the case where only the touch of the pen is detected and the case where both the touch of the pen and a partial region of the hand are detected.
  • the expected pen movement range when both a pen and a partial hand touch are detected is smaller than the expected pen movement range when only a pen touch is detected
  • the scan range when both the pen and the touch of a partial region of the hand are detected is made smaller than the scan range when only the touch of the pen is detected.
  • the configuration of the display device with a touch panel of this modification is the same as the configuration of the display device 1000 with a touch panel of the first embodiment.
  • the control unit 11 of the touch panel controller 1 performs control so as to limit the sense lines to be subjected to sense processing (sensing) in the receiving unit 14.
  • the display device with a touch panel of the present modification is the same as the display device 1000 with a touch panel of the first embodiment.
  • FIG. 6 is a flowchart showing processing of the display device with a touch panel according to the present modification.
  • the flowchart of FIG. 6 is obtained by replacing step S10 with step S10 ′ and replacing step S13 with step S13 ′ in the flowchart of FIG. 3 (the flowchart showing the process of the display device with a touch panel 1000 of the first embodiment). is there. Otherwise, the flowchart of FIG. 6 is the same as the flowchart of FIG.
  • step S10 ′ the control unit 11 determines the drive line to be driven based on the information about the touch position output from the touch position acquisition unit 15, that is, the start position and end position of the drive line. Is identified. Further, the control unit 11 performs control so as to limit the sense lines to be subjected to sense processing (sensing) in the receiving unit 14.
  • FIG. 7 is a diagram for explaining a method for determining the start position and the end position of the drive line when the touch of both the pen and a partial region of the hand is detected.
  • the pen tip of the touch pen is in contact with the touch panel surface of the touch panel TP, and in the region R1, a part of the hand (the little finger ball portion of the hand) is the touch panel of the touch panel TP.
  • the coordinates of the point A are (xa, ya), the point where the Y coordinate value is the maximum value in the region R1 is the B point, and the coordinates of the B point are (xb, yb).
  • the drive line number (0 to m in FIG. 2) matches the X coordinate value
  • the sense line number (0 to n in FIG. 2) matches the Y coordinate value. This will be described below.
  • the control unit 11 acquires the coordinate information acquired from the touch position acquisition unit 15 (coordinate information about the point A of the pen tip of the touch pen and the coordinate information of the partial region R1 of the hand that is in contact with the touch panel surface).
  • M1_pen ( ⁇ 0) is a value set so as to include a range in which the touch pen can move by the time of the next scan as a scan target.
  • M1_palm ( ⁇ 0) is a range in which the maximum point of the Y coordinate value of a region of a partial region of the hand that is in contact with the touch panel surface (such as the little finger ball portion) can move until the next scan. This value is set to be included as a scan target.
  • the drive position Dno at the center of the scan range R_palm and the drive line width Dwidth are as follows.
  • the range in which the pen can move during the next scan can be predicted from the positional relationship between the area of a part of the hand that is in contact with the touch panel surface (the little finger ball part of the hand) and the position of the pen. it can. That is, when a person draws a character, a figure, a line, etc. with a pen, an area of a part of a hand (such as a little fingerball part of a hand) (for example, a center of gravity of a part of a hand) is used as a fulcrum. Since the pen is moved, the movement range of the pen can be roughly predicted (estimated). Therefore, the variable M1_pen is preferably set so as to cover the predicted range (estimated range) of the pen movement range.
  • step S10 ' the control unit 11 specifies information for specifying the drive line to be driven, that is, the start position and end position of the drive line.
  • control unit 11 limits the range of the sense line that is the target of the sense process.
  • control unit 11 determines whether the pen is drawn with the right hand from the relationship between the touch position of the pen and the touch area (touch position) of a partial area of the hand, It is determined whether the pen is drawn with the left hand.
  • FIG. 7 is a diagram for explaining a method of determining the scan area of the touch panel TP when the touch of both the pen and the partial area of the hand is detected when the user holds the pen with the right hand.
  • M1R_pen ( ⁇ 0) is a value set so as to include a range in which the touch pen can move by the time of the next scan as a scan target.
  • control unit 11 determines, based on the coordinate information acquired from the touch position acquisition unit 15, the X coordinate value in the region where a partial region of the hand (such as the little finger ball portion of the hand) is in contact with the touch panel surface of the touch panel TP.
  • M1R_palm ( ⁇ 0) is a range in which the maximum point of the X coordinate value of a region of a partial region of the hand that is in contact with the touch panel surface (such as the little finger ball portion of the hand) can move until the next scan. This value is set to be included as a scan target.
  • the range in which the pen can move during the next scan can be predicted from the positional relationship between the area of a part of the hand that is in contact with the touch panel surface (the little finger ball part of the hand) and the position of the pen. it can. That is, when a person draws a character, a figure, a line, etc. with a pen, an area of a part of a hand (such as a little fingerball part of a hand) (for example, a center of gravity of a part of a hand) is used as a fulcrum. Since the pen is moved, the movement range of the pen can be roughly predicted (estimated). Therefore, it is preferable that the variable M1_pen and / or M1R_pen is set so as to cover the predicted range (estimated range) of the pen movement range.
  • step S10 ′ the control unit 11 specifies information for specifying the drive line to be driven, that is, the start position and end position of the drive line, and the start position of the sense line that is the target of the sense process. And an end position. Then, the process returns to step S2.
  • control unit 11 determines that the pen is drawn with the left hand.
  • FIG. 8 is a diagram for explaining a method for determining the scan area of the touch panel TP when the touch of both the pen and the partial area of the hand is detected when the user holds the pen with the left hand.
  • M1L_pen ( ⁇ 0) is a value set so as to include a range in which the touch pen can move by the time of the next scan as a scan target.
  • control unit 11 determines, based on the coordinate information acquired from the touch position acquisition unit 15, the X coordinate value in the region where a partial region of the hand (such as the little finger ball portion of the hand) is in contact with the touch panel surface of the touch panel TP.
  • M1L_palm ( ⁇ 0) is a range in which the minimum point of the X coordinate value of a region of a partial region of the hand that is in contact with the touch panel surface (such as a little fingerball portion of the hand) can move until the next scan. This value is set to be included as a scan target.
  • the range in which the pen can move during the next scan can be predicted from the positional relationship between the area of a part of the hand that is in contact with the touch panel surface (the little finger ball part of the hand) and the position of the pen. it can. That is, when a person draws a character, a figure, a line, etc. with a pen, an area of a part of a hand (such as a little fingerball part of a hand) (for example, a center of gravity of a part of a hand) is used as a fulcrum. Since the pen is moved, the movement range of the pen can be roughly predicted (estimated). Therefore, it is preferable that the variable M1_pen and / or M1L_pen is set so as to cover the predicted range (estimated range) of the pen movement range.
  • step S10 ′ the control unit 11 specifies information for specifying the drive line to be driven, that is, the start position and end position of the drive line, and the start position of the sense line that is the target of the sense process. And an end position. Then, the process returns to step S2.
  • the reception unit 14 outputs a detection signal for a limited range of sense lines to the touch position acquisition unit 15.
  • the processing amount (calculation amount) in the receiving unit 14, the touch position acquisition unit 15, and / or the control unit 11 is reduced, and as a result, high-speed processing is possible.
  • the control unit 11 specifies information for identifying the drive line to be driven based on the information about the touch position output from the touch position acquisition unit 15, that is, the start position and end position of the drive line. Is identified. Further, the control unit 11 performs control so as to limit the sense lines to be subjected to sense processing (sensing) in the receiving unit 14.
  • FIG. 9 is a diagram for explaining a method of determining a scan range (a start position and an end position of a drive line, a start position and an end position of a sense line) when a pen touch is detected.
  • FIG. 9 shows a case where the pen tip of the touch pen is in contact with the touch panel surface of the touch panel TP at point A. Note that the coordinates of point A are (xa, ya).
  • the drive line number (0 to m in FIG. 2) matches the X coordinate value
  • the sense line number (0 to n in FIG. 2) matches the Y coordinate value. This will be described below.
  • the control unit 11 uses the coordinate information acquired from the touch position acquisition unit 15 (coordinate information about the point A of the pen tip of the touch pen) for the point A where the pen point of the touch pen is in contact with the touch panel surface.
  • M2_pen ( ⁇ 0) is a value set so as to include a range in which the touch pen can move by the time of the next scan as a scan target.
  • the control unit 11 determines that the touch pen nib is in contact with the touch panel surface from the coordinate information acquired from the touch position acquisition unit 15 (coordinate information about the point A of the touch pen nib).
  • M2_pen ( ⁇ 0) is a value set so as to include a range in which the touch pen can move by the time of the next scan as a scan target.
  • step S13 ′ the control unit 11 specifies information for specifying the drive line to be driven, that is, the start position and the end position of the drive line, and the start position of the sense line to be sensed. And an end position. Then, the process returns to step S2.
  • the processing is executed by limiting the range of the sense line to be sensed (sensing), so the touch position on the touch panel surface is detected with high accuracy.
  • sensing the processing is executed by limiting the range of the sense line to be sensed (sensing), so the touch position on the touch panel surface is detected with high accuracy.
  • the configuration of the display device with a touch panel of this modification is the same as the configuration of the display device 1000 with a touch panel of the first embodiment.
  • the control unit 11 of the touch panel controller 1 performs control so as to limit the sense lines to be subjected to sense processing (sensing) in the receiving unit 14.
  • the display device with a touch panel of the present modification is the same as the display device 1000 with a touch panel of the first embodiment.
  • FIGS. 10 and 11 are flowcharts showing processing of the display device with a touch panel according to the present modification.
  • FIGS. 10 and 11 are steps in which steps S14 to S17 are added to the flowchart of FIG. 3 (the flowchart showing the processing of the display device with a touch panel 1000 of the first embodiment). Otherwise, the flowcharts of FIGS. 10 and 11 are the same as the flowchart of FIG.
  • step S14 In step S14, the flag flg is set (reset) to “0”.
  • the flag flg is a flag that is set (set) to “1” in the partial scan mode and when the touch of both the pen and the partial region of the hand is detected.
  • step S15 In step S15, when a touch is not detected in step S3 (in the case of “Yes” in step S3), it is determined whether or not a time during which no touch is detected continues for a certain period of time.
  • step S1 If it is determined that the time during which no touch is detected continues for a certain period of time, the process returns to step S1.
  • step S2 if it is determined that the time during which no touch is detected does not continue for a certain period of time, the process returns to step S2.
  • step S15 by performing the above determination process, when a time during which no touch is detected continues for a certain period of time, that is, when an object that is in contact with the touch panel surface of the touch panel TP is not detected for a certain period of time, In the display device with a touch panel, the scan mode is shifted to the full scan mode. (S16): In step S16, it is determined whether or not the flag flg is “1”.
  • step S17 when the touch of both the pen and the partial region of the hand is detected in step S10, the mode shifts to the partial scan mode, and when the scan range of the partial scan mode is set, the flag flg is “ 1 "is set (set).
  • FIG. 12 is a diagram for explaining a method of determining the start position and the end position of the drive line when the touch of both the pen and the partial region of the hand is detected in the present modification.
  • the pen tip of the touch pen is in contact with the touch panel surface of the touch panel TP, and in the region R1, a part of the hand (the little finger ball portion of the hand) is the touch panel of the touch panel TP.
  • the case where it is in contact with the surface is shown.
  • the coordinates of point A are (xa, ya).
  • the drive line number (0 to m in FIG. 2) matches the X coordinate value
  • the sense line number (0 to n in FIG. 2) matches the Y coordinate value. This will be described below.
  • M1_pen ( ⁇ 0) is a value set so as to include a range in which the touch pen can move by the time of the next scan as a scan target.
  • the drive position Dno at the center of the scan range R_palm and the drive line width Dwidth are as follows.
  • the first embodiment is determined by determining the start position and the end position of the drive line when the touch of both the pen and the partial area of the hand is detected. Compared to the above, the scan range can be further narrowed. As a result, power consumption can be further reduced.
  • a part of the hand region may not fall within the scan range, but by executing the process using the flag flg, an appropriate value can be obtained. Processing can be realized.
  • step S17 the flag flg is set to “1” in step S17, and the process returns to step S2, so that a partial region of the hand is not detected in the next sense process. Even in this case, the process proceeds to S7 by the determination process in step S16.
  • step S7 to S10 it is possible to continue the processing (steps S7 to S10) when the touch of both the pen and the partial region of the hand is detected.
  • Steps S3 and S15 when there is no touch detection and no touch detection continues for a predetermined time or longer, the process returns to Step S1 and the scan process in the full scan mode is executed. become.
  • the touch position on the touch panel surface can be detected with high accuracy, and the scan range can be further narrowed, and as a result, the power consumption can be further reduced. Can do.
  • the configuration of the display device with a touch panel of this modification is the same as the configuration of the display device 1000 with a touch panel of the first embodiment.
  • the control unit 11 of the touch panel controller 1 performs control so as to limit the sense lines to be subjected to sense processing (sensing) in the receiving unit 14.
  • the display device with a touch panel of the present modification is the same as the display device 1000 with a touch panel of the first embodiment.
  • FIG. 13 and FIG. 14 are flowcharts showing processing of the display device with a touch panel according to this modification.
  • FIGS. 13 and 14 are steps in which steps S14 to S17 are added to the flowchart of FIG. 6 (the flowchart showing the processing of the display device with a touch panel of the first modification of the first embodiment). Otherwise, the flowcharts of FIGS. 13 and 14 are the same as the flowchart of FIG.
  • step S14 In step S14, the flag flg is set (reset) to “0”.
  • the flag flg is a flag that is set (set) to “1” in the partial scan mode and when the touch of both the pen and the partial region of the hand is detected.
  • step S15 In step S15, when a touch is not detected in step S3 (in the case of “Yes” in step S3), it is determined whether or not a time during which no touch is detected continues for a certain period of time.
  • step S1 If it is determined that the time during which no touch is detected continues for a certain period of time, the process returns to step S1.
  • step S2 if it is determined that the time during which no touch is detected does not continue for a certain period of time, the process returns to step S2.
  • step S15 by performing the above determination process, when a time during which no touch is detected continues for a certain period of time, that is, when an object that is in contact with the touch panel surface of the touch panel TP is not detected for a certain period of time, In the display device with a touch panel, the scan mode is shifted to the full scan mode. (S16): In step S13, it is determined whether or not the flag flg is “1”.
  • step S17 the process shifts to the partial scan mode when the touch of both the pen and the partial region of the hand is detected in step S10 ′, and when the scan range of the partial scan mode is set, the flag flg is set. It is set (set) to “1”.
  • FIG. 15 is a diagram for explaining a method of determining the start position and the end position of the drive line when the touch of both the pen and a partial region of the hand is detected in the present modification.
  • the pen tip of the touch pen is in contact with the touch panel surface of the touch panel TP, and in a region R1, a part of the hand (such as the little finger ball portion) is touched with the touch panel surface of the touch panel TP. It shows the case of contact.
  • the coordinates of point A are (xa, ya).
  • the drive line number (0 to m in FIG. 2) matches the X coordinate value
  • the sense line number (0 to n in FIG. 2) matches the Y coordinate value. This will be described below.
  • the control unit 11 acquires the coordinate information acquired from the touch position acquisition unit 15 (the coordinate information about the point A of the pen tip of the touch pen and the coordinate information of the partial region R1 of the hand that is in contact with the touch panel surface).
  • the coordinate information acquired from the touch position acquisition unit 15 the coordinate information about the point A of the pen tip of the touch pen and the coordinate information of the partial region R1 of the hand that is in contact with the touch panel surface.
  • S_palm ya-M1_pen
  • M1_pen ( ⁇ 0) is a value set so as to include a range in which the touch pen can move by the time of the next scan as a scan target.
  • the drive position Dno at the center of the scan range R_palm and the drive line width Dwidth are as follows.
  • step S10 ′ the control unit 11 specifies information for specifying the drive line to be driven, that is, the start position and end position of the drive line.
  • control unit 11 limits the range of the sense line that is the target of the sense process.
  • control unit 11 determines whether the pen is drawn with the right hand from the relationship between the touch position of the pen and the touch area (touch position) of a partial area of the hand, It is determined whether the pen is drawn with the left hand.
  • FIG. 15 is a diagram for explaining a method of determining the scan area of the touch panel TP when the touch of both the pen and the partial area of the hand is detected when the user holds the pen with the right hand.
  • the control unit 11 acquires the coordinate information acquired from the touch position acquisition unit 15 (the coordinate information about the point A of the pen tip of the touch pen and the coordinate information of the partial region R1 of the hand that is in contact with the touch panel surface).
  • the coordinate information acquired from the touch position acquisition unit 15 the coordinate information about the point A of the pen tip of the touch pen and the coordinate information of the partial region R1 of the hand that is in contact with the touch panel surface.
  • SS_palm xa-M1R_pen
  • ES_palm xa + M1R_pen Set to the value obtained by.
  • M1R_pen ( ⁇ 0) is a value set so as to include a range in which the touch pen can move by the time of the next scan as a scan target.
  • the range in which the pen can move during the next scan can be predicted from the positional relationship between the area of a part of the hand that is in contact with the touch panel surface (the little finger ball part of the hand) and the position of the pen. it can. That is, when a person draws a character, a figure, a line, etc. with a pen, an area of a part of a hand (such as a little fingerball part of a hand) (for example, a center of gravity of a part of a hand) is used as a fulcrum. Since the pen is moved, the movement range of the pen can be roughly predicted (estimated). Therefore, it is preferable that the variable M1_pen and / or M1R_pen is set so as to cover the predicted range (estimated range) of the pen movement range.
  • step S10 ′ the control unit 11 specifies information for specifying the drive line to be driven, that is, the start position and end position of the drive line, and the start position of the sense line that is the target of the sense process. And an end position. Then, the process returns to step S2.
  • control unit 11 determines that the pen is drawn with the left hand.
  • FIG. 16 is a diagram for explaining a method of determining the scan area of the touch panel TP when the touch of both the pen and the partial area of the hand is detected when the user holds the pen with the left hand.
  • M1L_pen ( ⁇ 0) is a value set so as to include a range in which the touch pen can move by the time of the next scan as a scan target.
  • the range in which the pen can move during the next scan can be predicted from the positional relationship between the area of a part of the hand that is in contact with the touch panel surface (the little finger ball part of the hand) and the position of the pen. it can. That is, when a person draws a character, a figure, a line, etc. with a pen, an area of a part of a hand (such as a little fingerball part of a hand) (for example, a center of gravity of a part of a hand) is used as a fulcrum. Since the pen is moved, the movement range of the pen can be roughly predicted (estimated). Therefore, it is preferable that the variable M1_pen and / or M1L_pen is set so as to cover the predicted range (estimated range) of the pen movement range.
  • step S10 ′ the control unit 11 specifies information for specifying the drive line to be driven, that is, the start position and end position of the drive line, and the start position of the sense line that is the target of the sense process. And an end position. Then, the process returns to step S2.
  • the reception unit 14 outputs a detection signal for a limited range of sense lines to the touch position acquisition unit 15.
  • the processing amount (calculation amount) in the receiving unit 14, the touch position acquisition unit 15, and / or the control unit 11 is reduced, and as a result, high-speed processing is possible.
  • the processing is executed by limiting the range of the sense line to be sensed (sensing), so the touch position on the touch panel surface is detected with high accuracy.
  • sensing the processing is executed by limiting the range of the sense line to be sensed (sensing), so the touch position on the touch panel surface is detected with high accuracy.
  • the scan range can be further narrowed. As a result, power consumption can be further reduced.
  • a part of the hand region may not enter the scan range, but by executing processing using the flag flg. Appropriate processing can be realized.
  • step S17 the flag flg is set to “1” in step S17, and the process returns to step S2, so that a partial region of the hand is not detected in the next sense process. Even in this case, the process proceeds to S7 by the determination process in step S16.
  • step S7 to S9 and S10 ' it is possible to continue the processing (steps S7 to S9 and S10 ') when the touch of both the pen and the partial region of the hand is detected.
  • Steps S3 and S15 when there is no touch detection and no touch detection continues for a predetermined time or longer, the process returns to Step S1 and the scan process in the full scan mode is executed. become.
  • the touch position on the touch panel surface can be detected with high accuracy, and the scan range can be further narrowed, and as a result, the power consumption can be further reduced. Can do.
  • the scan range may be dynamically changed in the partial scan mode.
  • the control unit 11 calculates a pen trajectory and / or a pen drawing speed (pen moving speed), and scans based on the calculated pen trajectory and / or pen drawing speed (pen moving speed).
  • the range (drive line start position, end position, and / or sense line start position, end position) may be determined.
  • the control unit 11 may predict a position (range) in which the pen proceeds next from the calculated pen trajectory, and set the scan range so that the predicted range is included. .
  • control unit 11 sets the scan range (drive line start position, end position, and / or sense line start position, end position) so that the scan range becomes wider as the pen moving speed increases. You may make it do.
  • a range to be scanned when a pen touch is detected (drive line start position, end position, and / or sense line start position, end position) may be set by the user.
  • the user sets the range to be scanned when the touch of both the pen and a partial area of the hand is detected (drive line start position, end position, and / or sense line start position, end position). You may be able to do it.
  • the control unit 11 scans when a pen touch is detected (start of drive line) Position, end position, and / or sense line start position, end position).
  • the user is caused to perform pen drawing in a state in which a part of the hand is in contact with the touch panel surface on the touch panel surface of the touch panel TP, and the control unit 11 controls the pen and the hand based on the pen drawn range.
  • a range to be scanned when both touches in a partial area are detected (drive line start position, end position, and / or sense line start position, end position) may be set.
  • the mode is shifted to the full scan mode.
  • the present invention is not limited to this.
  • the mode may be shifted to the full scan mode.
  • step S3 in FIG. 3 and FIG. 6 it is determined that there is no object in contact with the touch panel surface of the touch panel TP and there is no object in contact with the touch panel surface of the touch panel TP for a certain period of time. If it has elapsed, the process may return to step S1.
  • a part or all of the display device with a touch panel of the above embodiment may be realized as an integrated circuit (for example, LSI, system LSI, etc.).
  • Part or all of the processing of each functional block in the above embodiment may be realized by a program.
  • a part or all of the processing of each functional block in the above embodiment is performed by a central processing unit (CPU) in the computer.
  • a program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM.
  • each process of the above embodiment may be realized by hardware, or may be realized by software (including a case where it is realized together with an OS (operating system), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware.
  • OS operating system
  • middleware middleware
  • predetermined library predetermined library
  • execution order of the processing methods in the above embodiment is not necessarily limited to the description of the above embodiment, and the execution order can be changed without departing from the gist of the invention.
  • a computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention.
  • the computer-readable recording medium include a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a large capacity DVD, a next generation DVD, and a semiconductor memory.
  • the computer program is not limited to the one recorded on the recording medium, but may be transmitted via a telecommunication line, a wireless or wired communication line, a network represented by the Internet, or the like.
  • the touch panel device having the first configuration includes a touch panel unit and a touch panel control unit.
  • the touch panel unit has a touch panel surface.
  • the touch panel control unit generates an electric field in the entire area of the touch panel surface, and detects a change in the electric field, thereby acquiring position information on the touch panel surface of an object in contact with the touch panel surface; and
  • the partial scan mode for acquiring position information on the touch panel surface of an object in contact with the touch panel surface by generating an electric field in a partial area of the touch panel surface and detecting a change in the electric field, and the touch panel unit To control.
  • the touch panel control unit (1) If the object in contact with the touch panel surface is not a touch pen, an electric field is generated in the entire area of the touch panel surface by the full scan mode, (2) When the object in contact with the touch panel surface is a touch pen, an electric field is generated in the first partial area of the touch panel surface by the partial scan mode, (3) When the object in contact with the touch panel surface is a touch pen and a partial region of the hand, an electric field is generated in a second partial region narrower than the first partial region of the touch panel surface in the partial scan mode.
  • a full scan mode a mode in which the entire touch panel surface of the touch panel unit is scanned. Even when the touch area is touched with a pen (touch pen) smaller than a finger, the touch position on the touch panel surface can be detected with high accuracy.
  • this touch panel device when a touch of both a pen and a partial area of the hand is detected, an electric field is generated in a second partial area narrower than the first partial area on the touch panel surface by the partial scan mode.
  • this touch panel device it is possible to reduce the power consumption while detecting the touch position on the touch panel surface with high accuracy.
  • the “partial region of the hand” is a concept including a part of the hand having a larger contact area than a finger, such as a palm or a little finger ball part (base part of the little finger), and a line on the touch panel surface with a pen. This is a concept that includes a part of the hand that contacts the touch panel surface to support the pen when drawing.
  • the entire region of the touch panel surface is a region on the touch panel surface that can generate an electric field, and does not necessarily match the region that occupies the entire area of the physical touch panel surface.
  • the touch panel device of the second configuration is the first configuration, and the touch panel control unit includes a drive unit, a reception unit, and a touch position acquisition unit.
  • the touch panel unit includes m + 1 (m: integer, m ⁇ 0) drive lines, and n + 1 (n: integer, n ⁇ 0) multiple sense lines arranged orthogonal to the drive lines on the touch panel surface. .
  • the drive unit drives the drive line.
  • the receiving unit receives a signal corresponding to the electric field change on the touch panel surface from the sense line.
  • the touch position acquisition unit acquires information related to the contact position of the object in contact with the touch panel surface based on the signal received by the reception unit.
  • the touch panel unit has m + 1 (m: integer, m ⁇ 0) drive lines and n + 1 (n: integer, n ⁇ 0) arranged on the touch panel surface so as to be orthogonal to the drive lines. Since a plurality of sense lines are provided, the drive unit can generate an electric field on the touch panel surface by driving the drive lines with a pulse drive signal, for example. In this touch panel device, the touch position acquisition unit acquires information on the contact position of the object that is in contact with the touch panel surface based on the signal received by the reception unit (the signal corresponding to the change in the electric field on the touch panel surface). be able to.
  • the touch panel device of the third configuration is the second configuration, (1) When the object in contact with the touch panel surface is not a touch pen, the drive unit drives all m + 1 drive lines to generate an electric field in the entire area of the touch panel surface, (2) When the object in contact with the touch panel surface is a touch pen, the drive unit drives k1 (k1: natural number, k1 ⁇ m + 1) drive lines to the first partial area of the touch panel surface. Generate an electric field, (3) When the object in contact with the touch panel surface is a touch pen and a partial region of the hand, the driving unit drives k2 (k2: natural number, k2 ⁇ k1) drive lines, An electric field is generated in the second partial region.
  • the drive range can be set by designating the drive line to be driven by the drive unit.
  • the touch panel device of the fourth configuration is the second or third configuration, (1) If the object in contact with the touch panel surface is not a touch pen, The receiving unit receives signals from all n + 1 sense lines, The touch position acquisition unit acquires information on the contact position of the object in contact with the touch panel surface based on the signals from the n + 1 sense lines, (2) When the object in contact with the touch panel surface is a touch pen, The receiving unit receives signals from p1 (p1: natural number, p1 ⁇ n + 1) sense lines, The touch position acquisition unit acquires information on the contact position of the object in contact with the touch panel surface based on the signal from the p1 sense lines, (3) When the object in contact with the touch panel surface is a touch pen and a partial region of the hand, The receiving unit receives signals from p2 (p2: natural number, p2 ⁇ p1) sense lines, The touch position acquisition unit acquires information related to the contact position of the object that is in contact with the touch panel surface based on signals from the p2 sense lines.
  • the processing is executed by limiting the range of the sense line to be sensed (sensing), so the contact position (touch position) of the object on the touch panel surface is detected with high accuracy.
  • sensing the processing is executed by limiting the range of the sense line to be sensed (sensing), so the contact position (touch position) of the object on the touch panel surface is detected with high accuracy.
  • a touch panel device is the touch panel device according to any one of the second to fourth configurations, wherein the touch panel control unit is a touch pen acquired by the touch position acquisition unit when the object in contact with the touch panel surface is a touch pen.
  • the moving speed on the touch panel surface of the touch pen is acquired from the information on the touch position, and the first partial area and / or the second partial area is set to a wider range as the moving speed is higher.
  • the faster the touch pen moves the wider the scan range on the touch panel surface. Therefore, even when the touch pen moves faster, the touch position of the object on the touch panel surface (touch Position) can be detected with high accuracy, and the processing can be executed with low power consumption.
  • the display device with a touch panel having a sixth configuration is a display device with a touch panel including a touch panel device having any one of the first to fifth configurations, a display panel unit, and a display panel driving unit.
  • the display panel unit has a display surface and displays data on the display surface.
  • the display panel driving unit acquires data to be displayed on the display surface based on information on the contact position of the object on the touch panel surface acquired by the touch panel device, and displays the display panel so that the data is displayed on the display surface. Drive control.
  • the program having the seventh configuration is a program for causing a computer to execute a method for controlling a touch panel device including a touch panel unit having a touch panel surface and a touch panel control unit.
  • the touch panel control unit generates an electric field in the entire area of the touch panel surface, and detects a change in the electric field, thereby acquiring position information on the touch panel surface of an object in contact with the touch panel surface; and
  • the partial scan mode for acquiring position information on the touch panel surface of an object in contact with the touch panel surface by generating an electric field in a partial area of the touch panel surface and detecting a change in the electric field, and the touch panel unit To control.
  • the method for controlling the touch panel device includes a mode setting step and a scan range setting step.
  • the scan range setting step sets a scan range that is a range in which an electric field is generated on the touch panel surface.
  • the mode setting step set the mode to full scan mode
  • the scan range setting step the scan range is set to the entire area of the touch panel surface.
  • the mode setting step sets the mode to partial scan mode
  • the scan range is set in the first partial area of the touch panel surface.
  • the mode setting step sets the mode to partial scan mode
  • the scan range setting step sets the scan range to a second partial region that is narrower than the first partial region on the touch panel surface.
  • the touch panel device, the display device with a touch panel, and the program according to the present invention detect the touch position on the touch panel surface with high accuracy even when the touch area on the touch panel surface is touched with a pen or the like smaller than a finger.
  • the power consumption can be reduced, so that it is useful in the industrial field related to touch panel devices and can be implemented in this field.

Abstract

タッチパネル面における接触面積が指よりも小さいペン等でタッチされた場合であっても、タッチパネル面上のタッチ位置を高精度に検出することができるとともに、消費電力を低減させるタッチパネル付き表示装置を実現する。タッチパネル付き表示装置(1000)は、タッチパネル(TP)と、タッチパネルコントローラ(1)と、表示パネル(LCD)と、表示パネル制御部(2)と、表示パネル駆動部(3)と、を備える。タッチパネルコントローラ(1)は、ペンのタッチが検出されていない場合、全面スキャンモードにより、タッチパネル(TP)のタッチパネル面の全部の領域に電界を発生させ、ペンのタッチが検出された場合、部分スキャンモードにより、タッチパネル面の第1の部分領域に電界を発生させ、ペンのタッチと手の一部領域のタッチパネルの両方が検出された場合、部分スキャンモードにより、タッチパネル面の第1の部分領域よりも狭い第2の部分領域に電界を発生させる。

Description

タッチパネル装置、タッチパネル付き表示装置およびプログラム
 本発明は、タッチパネル装置、タッチパネル付き表示装置等において実行されるタッチパネルのスキャン処理(スキャン方法)に関する。
 タッチパネル装置は、タッチパネル面に指やペンで触れることにより、機器に情報を入力することができる装置である。近年、検出感度が良く、操作性に優れた静電容量式のタッチパネル装置が、様々な機器に用いられている。特に、タッチパネル面において指やペンが接触している座標を精度よく検出することができる投影型静電容量式のタッチパネル装置が多く用いられている。
 投影型静電容量式のタッチパネル装置は、複数のドライブラインと、複数のセンスラインを有している。各ドライブラインには、複数のX軸方向センス電極が設けられており、各センスラインには、複数のY軸方向センス電極が設けられている。投影型静電容量式のタッチパネル装置では、ドライブラインに、順番に、駆動パルス信号を出力し、X軸方向センス電極とY軸方向センス電極との間の電界変化を検出する。つまり、X軸方向センス電極とY軸方向センス電極との間の電界変化に対応した信号をセンスラインにおいて検出することで、投影型静電容量式のタッチパネル装置では、タッチパネル面において指やペンが接触している座標を検出する。
 このように、投影型静電容量式のタッチパネル装置では、複数のドライブラインを駆動パルス信号により駆動する必要がある。そして、検出精度を上げるためには、ドライブライン数とセンスライン数を多くする必要がある。このため、検出精度を高くしようとすると、駆動パルス信号により駆動するドライブライン数が多くなるため、投影型静電容量式のタッチパネル装置での消費電力が高くなる。
 これに対応するために、例えば、特許文献1(特許第4770889号公報)には、全ラインスキャンモードと、一部ラインスキャンモードとを切り替えられるように構成されたタッチパネル装置の開示がある。このタッチパネル装置では、一部ラインスキャンモードにおいて、全ドライブラインのうち、一部のドライブラインのみを駆動することで、タッチパネル装置の検出精度を維持させつつ、消費電力を削減している。
 しかしながら、上記特許文献1の技術は、指でのダブルクリック等を高速、かつ、高精度に検出するための技術であり、タッチパネル面での接触面積が指よりも小さいペン等でタッチパネル面をタッチした場合について、考慮されていない。また、上記特許文献1の技術では、タッチパネル面を指でタッチすることを前提としているので、一部ラインスキャンモードにおいて、一律に、全ドライブラインのうちの一部のドライブラインのみを選択して駆動する。このため、上記特許文献1の技術では、タッチパネル装置が有するドライブライン数が少ない場合、タッチパネル面における接触面積が指よりも小さいペン等でタッチした場合の検出精度の確保が困難であると考えられる。
 そこで、本発明は、上記課題に鑑み、タッチパネル面における接触面積が指よりも小さいペン等でタッチされた場合であっても、タッチパネル面上のタッチ位置を高精度に検出することができるとともに、消費電力を低減させることができるタッチパネル装置、タッチパネル付き表示装置、および、プログラムを実現することを目的とする。
 上記課題を解決するために、第1の構成のタッチパネル装置は、タッチパネル部と、タッチパネル制御部と、を備える。
 タッチパネル部は、タッチパネル面を有する。
 タッチパネル制御部は、タッチパネル面の全部の領域に電界を発生させ、当該電界の変化を検出することで、タッチパネル面に接触している物体のタッチパネル面上の位置情報を取得する全面スキャンモードと、タッチパネル面の一部の領域に電界を発生させ、当該電界の変化を検出することで、タッチパネル面に接触している物体のタッチパネル面上の位置情報を取得する部分スキャンモードと、により、タッチパネル部を制御する。
 そして、タッチパネル制御部は、
(1)タッチパネル面に接触している物体がタッチペンではない場合、全面スキャンモードにより、タッチパネル面の全部の領域に電界を発生させ、
(2)タッチパネル面に接触している物体がタッチペンである場合、部分スキャンモードにより、タッチパネル面の第1の部分領域に電界を発生させ、
(3)タッチパネル面に接触している物体がタッチペンおよび手の一部領域である場合、部分スキャンモードにより、タッチパネル面の第1の部分領域よりも狭い第2の部分領域に電界を発生させる。
 本発明によれば、タッチパネル面における接触面積が指よりも小さいペン等でタッチされた場合であっても、タッチパネル面上のタッチ位置を高精度に検出することができるとともに、消費電力を低減させることができるタッチパネル装置、タッチパネル付き表示装置、および、プログラムを実現することができる。
第1実施形態のタッチパネル付き表示装置1000の概略構成図。 第1実施形態に係るタッチパネル付き表示装置1000の概略構成図。 タッチパネル付き表示装置1000の処理を示すフローチャート。 ペンと手の一部領域の両方のタッチが検出された場合のドライブラインの開始位置と終了位置とを決定する方法を説明するための図。 ペンのタッチのみが検出された場合のドライブラインの開始位置と終了位置とを決定する方法を説明するための図。 第1実施形態の第1変形例のタッチパネル付き表示装置の処理を示すフローチャート。 ペンと手の一部領域の両方のタッチが検出された場合のドライブラインの開始位置と終了位置とを決定する方法を説明するための図。 ユーザが左手でペンを持っている場合において、ペンと手の一部領域の両方のタッチが検出された場合のタッチパネルTPのスキャン領域の決定方法について説明するための図。 ペンのタッチが検出された場合のスキャン範囲を決定する方法を説明するための図。 第1実施形態の第2変形例のタッチパネル付き表示装置の処理を示すフローチャート。 第1実施形態の第2変形例のタッチパネル付き表示装置の処理を示すフローチャート。 第1実施形態の第2変形例において、ペンと手の一部領域の両方のタッチが検出された場合のドライブラインの開始位置と終了位置とを決定する方法を説明するための図。 第1実施形態の第3変形例のタッチパネル付き表示装置の処理を示すフローチャート。 第1実施形態の第3変形例のタッチパネル付き表示装置の処理を示すフローチャート。 ユーザが右手でペンを持っている場合において、ペンと手の一部領域の両方のタッチが検出された場合のタッチパネルTPのスキャン領域の決定方法について説明するための図(第1実施形態の第3変形例)。 ユーザが左手でペンを持っている場合において、ペンと手の一部領域の両方のタッチが検出された場合のタッチパネルTPのスキャン領域の決定方法について説明するための図(第1実施形態の第3変形例)。
 [第1実施形態]
 第1実施形態について、図面を参照しながら、以下、説明する。
 <1.1:タッチパネル付き表示装置の構成>
 図1は、第1実施形態に係るタッチパネル付き表示装置1000の概略構成図である。
 図2は、第1実施形態に係るタッチパネル付き表示装置1000の概略構成図であり、タッチパネルコントローラ1の構成(一例)を示した図である。
 タッチパネル付き表示装置1000は、図1に示すように、タッチパネルTPと、表示パネルLCDと、タッチパネルコントローラ1と、表示パネル制御部2と、表示パネル駆動部3と、を備える。
 タッチパネルコントローラ1は、図2に示すように、制御部11と、駆動制御部12と、送信部13と、受信部14と、タッチ位置取得部15と、を備える。
 タッチパネルTPは、表示パネルLCDの表示面(不図示)を覆うように配置され、タッチパネル面上において、指やペン(タッチペン)等でタッチされることで発生する電界等の変化量を所定の物理量(例えば、電界変化に応じて発生する電流量や電圧量)としてタッチパネルコントローラ1に出力する。以下では、タッチパネルTPが、投影型静電容量式のタッチパネルであるとして説明する。
 タッチパネルTPは、図2に示すように、m+1個(m:自然数)のドライブラインD0~Dmと、n+1個(n:自然数)のセンスラインS0~Snを有している。
 各ドライブラインは、図2に示すように、複数(図2では、n+2個)のX軸方向センス電極(図2において、灰色の菱形で示した電極)と、各X軸方向センス電極を接続する連結部とから構成される。同一ドライブラインのX軸方向センス電極は、図2に示すように、連結部を挟むように、横方向(この方向をX軸方向とする。)に略等間隔に配置されている。そして、各ドライブラインは、第1電極層に形成される。なお、図2において、X軸方向センス電極および連結部は、灰色に着色して図示しているが、これは説明便宜のためであり、実際のX軸方向センス電極および連結部は、無色透明である。
 各センスラインは、複数(図2では、n+2個)のY軸方向センス電極(図2において、白色の菱形で示した電極)と、各Y軸方向センス電極を接続する連結部とから構成される。同一センスラインのY軸方向センス電極は、図2に示すように、連結部を挟むように、縦方向(この方向をY軸方向とする。)に略等間隔に配置されている。そして、各センスラインは、第2電極層に形成される。なお、ドライブラインを含む第1電極層と、センスラインを含む第2電極層とは、絶縁層を挟んで配置されている。
 タッチパネルTPの各ドライブラインは、タッチパネルコントローラ1の送信部13から出力される駆動パルス信号により駆動される。この駆動パルス信号により、X軸方向センス電極とY軸方向センス電極との間の電界が発生し、タッチパネル面において指やペンが接触すると、X軸方向センス電極とY軸方向センス電極との間の電界が変化する。この電界変化を、タッチパネルTPの各センスラインにおいて検出することで、タッチパネル面において指やペンが接触している座標(位置)を検出(特定)することができる。
 表示パネルLCDは、例えば、液晶表示パネルである。表示パネルLCDは、表示パネル駆動部3により駆動制御される。具体的には、表示パネルLCDは、表示パネル駆動部3と複数のソース線および複数ゲート線で接続されており、ソース線とゲート線とが交差する位置に画素が配置されている。各画素は、ゲート線およびソース線に接続されているスイッチ素子と、表示素子(例えば、液晶素子)とを含む。各画素では、ゲート線に出力されるゲート駆動制御信号およびソース線に出力される表示データに基づく信号により、表示素子が制御されることで、表示データに基づく表示がなされる。
 タッチパネルコントローラ1は、図2に示すように、制御部11と、駆動制御部12と、送信部13と、受信部14と、タッチ位置取得部15と、を備える。
 制御部11は、タッチパネルコントローラ1の各機能部を制御する。制御部11には、タッチパネルに関する設定情報(スキャンモード設定、指/ペン同時使用モードの設定)を入力することができる。このタッチパネルに関する設定情報は、例えば、ユーザインターフェース(不図示)を介して、ユーザが入力するものであってもよい。タッチパネルに関する設定情報としては、例えば、(1)スキャンモードの設定情報、(2)指/ペン同時使用モードの設定情報、(3)ペンの移動範囲(フリーペン移動範囲)についての情報、(4)部分スキャンモード時のスキャン範囲(例えば、ドライブライン幅設定)についての情報等がある。
 制御部11は、駆動制御部12に対して、駆動するドライブラインを特定するための情報を出力する。制御部11は、駆動するドライブラインを特定するための情報として、例えば、ドライブラインの開始位置と終了位置とを示す情報を駆動制御部12に出力する。
 なお、以下では、制御部11が、駆動制御部12に、駆動するドライブラインを特定するための情報として、ドライブラインの開始位置と終了位置とを示す情報を出力ものとして、説明する。
 また、制御部11は、タッチ位置取得部15から出力されるタッチ位置についての情報を入力とする。そして、制御部11は、当該タッチ位置についての情報に基づいて、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置と終了位置とを特定する。
 また、制御部11は、タッチ位置取得部15から出力されるタッチ位置についての情報を表示パネル制御部2に出力する。
 駆動制御部12は、制御部11から出力される駆動するドライブラインを特定する情報(ドライブラインの開始位置と終了位置についての情報)を入力とする。駆動制御部12は、当該情報に基づいて、開始位置に指定されたドライブラインから、終了位置に指定されたドライブラインまでの各ドライブラインに対して、送信部13から駆動パルス信号が出力されるように、送信部13を駆動制御する。
 送信部13は、駆動制御部12の指令に基づいて、開始位置に指定されたドライブラインから、終了位置に指定されたドライブラインまでの各ドライブラインに対して、駆動パルス信号を出力する。
 受信部14は、タッチパネルTPのタッチパネル面に物体が接触することで発生する電界の変化をセンスラインS0~Snから検出する。具体的には、送信部13から、各ドライブラインに出力された駆動パルス信号により、X軸方向センス電極とY軸方向センス電極との間に発生する電界が発生する。タッチパネルTPのタッチパネル面に物体が接触すると、当該物体が接触している近傍に配置されている、X軸方向センス電極とY軸方向センス電極との間の電界が変化する。そして、この電界変化に対応した信号が、センスラインを介して、受信部14に入力される。つまり、受信部14は、タッチパネルTPのタッチパネル面に物体が接触することで生ずる電界の変化に対応した信号(センス信号)を、センスラインS0~Snを介して、受信する。
 そして、受信部14は、受信したセンス信号をタッチ位置取得部15に出力する。
 タッチ位置取得部15は、受信部14から出力されるセンス信号を入力とする。タッチ位置取得部15は、当該センス信号から、タッチパネルTPのタッチパネル面において、物体が接触している(タッチしている)位置(位置座標)を特定する。そして、タッチ位置取得部15は、特定した位置に関する情報(タッチ位置についての情報)を制御部11に出力する。
 表示パネル制御部2は、制御部11から出力されるタッチ位置についての情報を入力する。表示パネル制御部2は、入力されたタッチ位置についての情報に基づいて、表示パネルLCDに表示させるデータ(表示データ)を特定する。そして、表示パネル制御部2は、特定した表示データを表示パネルLCDに表示させるための指令信号を表示パネル駆動部3に出力する。
 表示パネル駆動部3は、表示パネル制御部2から出力される指令信号を入力とし、当該指令信号に基づいて、表示データが表示パネルLCDに表示されるように、表示パネルLCDを駆動制御する。
 <1.2:タッチパネル付き表示装置の動作>
 以上のように構成されたタッチパネル付き表示装置1000の動作について、以下、説明する。
 図3は、タッチパネル付き表示装置1000の処理を示すフローチャートである。以下では、図3のフローチャートを参照しながら、タッチパネル付き表示装置1000の動作について説明する。
(S1):
 タッチパネル付き表示装置1000が起動されると、タッチパネル付き表示装置1000は、初期状態として、全面スキャンモードに設定される。全面スキャンモードとは、タッチパネルTPのタッチパネル面の全面をスキャンするモードである。つまり、図2に示した、ドライブラインD0~Dmの全てのドライブラインが駆動されるモードが、全面スキャンモードである。
 ステップS1では、制御部11は、ドライブラインの開始位置を「0」に、ドライブラインの終了位置を「m」に設定した情報(ドライブライン特定情報)を駆動制御部12に出力する。駆動制御部12は、制御部11から受信したドライブライン特定情報に基づいて、送信部13を駆動制御する。具体的には、駆動制御部12は、送信部13から、ドライブラインD0~Dmに、それぞれ、駆動パルス信号が出力されるように、駆動制御する。
(S2):
 ステップS2では、センス処理(センシング)が実行される。具体的には、タッチ位置取得部15は、受信部14がセンスラインS0~Snを介して受信した信号(センス信号)から、タッチパネルTPのタッチパネル面における電界変化を検出する。これにより、タッチ位置取得部15は、物体がタッチパネルTPのタッチパネル面に接触している場合(タッチがある場合)、当該物体が接触している位置(タッチ位置)を検出(取得)する。
(S3):
 ステップS3では、制御部11は、タッチ位置取得部15により取得されたタッチ位置に関する情報に基づいて、タッチパネルTPのタッチパネル面に物体が接触しているか否か(タッチの有無)を検出する。検出の結果、タッチパネルTPのタッチパネル面に接触している物体がないと判定された場合(ステップS3で「No」の場合)、処理は、ステップS1に戻る。
 一方、タッチパネルTPのタッチパネル面に接触している物体があると判定された場合(ステップS3で「Yes」の場合)、処理は、ステップS4に進む。
(S4):
 ステップS4では、制御部11は、タッチ位置取得部15により取得されたタッチ位置に関する情報に基づいて、タッチパネルTPのタッチパネル面に接触している物体が指であるか否かを判定する。判定の結果、タッチパネルTPのタッチパネル面に接触している指であると判定された場合(ステップS4で「Yes」の場合)、処理は、ステップS5に進む。
 一方、タッチパネルTPのタッチパネル面に接触している指ではないと判定された場合(ステップS4で「No」の場合)、処理は、ステップS6に進む。
 なお、制御部11は、例えば、タッチ位置取得部15により取得されたタッチ位置に関する情報に基づいて、タッチパネルTPのタッチパネル面に接触している物体の面積を求め、求めた面積に基づいて、タッチパネル面に接触している物体が指であるか否かを判定する。例えば、制御部11は、ペンのタッチ検出用の閾値Th1、指のタッチ検出用の閾値Th2(>Th1)、手の一部領域のタッチ検出用の閾値Th3(>Th2)とし、タッチパネルTPのタッチパネル面に接触している物体の面積をA0とすると、
  Th1<A0<Th2
である場合、タッチパネル面に接触している物体が指であると判定すればよい。
 あるいは、制御部11(および/またはタッチ位置取得部15)は、受信部14がセンスラインS0~Snを介して受信した信号(センス信号)の振幅に基づいて、タッチパネル面に接触している物体が指であるか否かを判定してもよい。通常、タッチパネル面に接触している物体が指である場合に受信部14が受信する信号(センス信号)の振幅は、タッチパネル面に接触している物体がペンである場合のセンス信号の振幅の10倍程度の大きさとなるため、受信部14がセンスラインS0~Snを介して受信した信号(センス信号)の振幅により、タッチパネル面に接触している物体が指であるか否かを判定することができる。
(S5):
 ステップS5では、制御部11は、タッチ位置取得部15により取得されたタッチ位置に関する情報(座標情報)を、表示パネル制御部2に出力する。
 表示パネル制御部2では、制御部11から出力されたタッチ位置に関する情報(座標情報)に基づいて、各種処理が実行される。例えば、表示パネルLCDの表示画面上の座標位置(x1,y1)に表示されたアイコンに処理Aが割り当てられている場合、指でタッチされたタッチパネル面上の座標位置が、上記座標位置(x1,y1)を含む場合、表示パネル制御部2は、上記アイコンに割り当てられた処理Aが実行し、処理Aを実行することで発生する表示データ(表示パネルLCDに表示させるべきデータ)がある場合、当該表示データが表示パネルLCDに表示されるように、表示パネル駆動部3に指令信号を出力する。
 そして、表示パネル駆動部3は、表示パネル制御部2から受信した指令信号に基づいて、表示データが表示パネルLCDに表示されるように、表示パネルLCDを駆動制御する。
 なお、制御部11が、タッチ位置取得部15により取得されたタッチ位置に関する情報(座標情報)を、表示パネル制御部2に出力した後、処理は、ステップS1に戻る。
(S6):
 ステップS6では、制御部11は、タッチ位置取得部15により取得されたタッチ位置に関する情報に基づいて、タッチパネルTPのタッチパネル面に接触している物体が手の一部領域(手のひらや小指球部分(小指の付け根部分)等の指よりも接触面積が広い手の部位)であるか否かを判定する。判定の結果、タッチパネルTPのタッチパネル面に接触している手の一部領域であると判定された場合(ステップS6で「Yes」の場合)、処理は、ステップS7に進む。
 一方、タッチパネルTPのタッチパネル面に接触している手の一部領域ではないと判定された場合(ステップS6で「No」の場合)、処理は、ステップS11に進む。
 なお、制御部11は、例えば、タッチ位置取得部15により取得されたタッチ位置に関する情報に基づいて、タッチパネルTPのタッチパネル面に接触している物体の面積を求め、求めた面積に基づいて、タッチパネル面に接触している物体が手の一部領域であるか否かを判定する。例えば、制御部11は、ペンのタッチ検出用の閾値Th1、指のタッチ検出用の閾値Th2(>Th1)、手の一部領域のタッチ検出用の閾値Th3(>Th2)とし、タッチパネルTPのタッチパネル面に接触している物体の面積をA0とすると、
  A0≧Th2
である場合、タッチパネル面に接触している物体が手の一部領域であると判定すればよい。
 あるいは、制御部11(および/またはタッチ位置取得部15)は、受信部14がセンスラインS0~Snを介して受信した信号(センス信号)の振幅に基づいて、タッチパネル面に接触している物体が手の一部領域であるか否かを判定してもよい。
 なお、「手の一部領域」とは、手のひらや小指球部分(小指の付け根部分)等の指よりも接触面積が広い手の部位を含む概念であり、また、ペンでタッチパネル面上に線を描画するときにペンを支えるためにタッチパネルパネル面と接触する手の部位を含む概念である。
(S7):
 ステップS7では、制御部11は、タッチ位置取得部15により取得されたタッチ位置に関する情報に基づいて、タッチパネルTPのタッチパネル面に接触している物体がペン(ペン先)であるか否かを判定する。判定の結果、タッチパネルTPのタッチパネル面に接触しているペンであると判定された場合(ステップS7で「Yes」の場合)、処理は、ステップS8に進む。
 一方、タッチパネルTPのタッチパネル面に接触しているペンではないと判定された場合(ステップS7で「No」の場合)、処理は、ステップS9に進む。
 なお、制御部11は、例えば、タッチ位置取得部15により取得されたタッチ位置に関する情報に基づいて、タッチパネルTPのタッチパネル面に接触している物体の面積を求め、求めた面積に基づいて、タッチパネル面に接触している物体がペン(ペン先)であるか否かを判定する。例えば、制御部11は、ペンのタッチ検出用の閾値Th1、指のタッチ検出用の閾値Th2(>Th1)、手の一部領域のタッチ検出用の閾値Th3(>Th2)とし、タッチパネルTPのタッチパネル面に接触している物体の面積をA0とすると、
  A0≦Th1
である場合、タッチパネル面に接触している物体がペン(ペン先)であると判定すればよい。
 あるいは、制御部11(および/またはタッチ位置取得部15)は、受信部14がセンスラインS0~Snを介して受信した信号(センス信号)の振幅に基づいて、タッチパネル面に接触している物体がペン(ペン先)であるか否かを判定してもよい。
(S8):
 ステップS8では、制御部11は、タッチ位置取得部15により取得されたタッチ位置に関する情報(座標情報)を、表示パネル制御部2に出力する。
 表示パネル制御部2では、制御部11から出力されたタッチ位置に関する情報(座標情報)に基づいて、各種処理が実行される。例えば、表示パネルLCDの表示画面上の座標位置(x1,y1)から座標位置(x2,y2)までの間に直線L1をペン(タッチペン)で描画する場合、ペンでタッチされたタッチパネル面上の座標位置が、座標位置(xk2,yk2)((xk2,yk2)は、直線L1上の点の座標)であり、前回のスキャン時(全面スキャン時)のペンでのタッチ位置が座標位置(xk1,xk1)((xk1,yk1)は、直線L1上の点の座標)である場合、表示パネル制御部2は、座標位置(xk1,yk1)から座標位置(xk2,yk2)との間を直線で描画するための表示データ(表示パネルLCDに表示させるべきデータ)が、表示パネルLCDに表示されるように、表示パネル駆動部3に指令信号を出力する。
 そして、表示パネル駆動部3は、表示パネル制御部2から受信した指令信号に基づいて、表示データが表示パネルLCDに表示されるように、表示パネルLCDを駆動制御する。
 なお、制御部11が、タッチ位置取得部15により取得されたタッチ位置に関する情報(座標情報)を、表示パネル制御部2に出力した後、処理は、ステップS9に進む。
(S9):
 ステップS9では、制御部11は、制御部11に入力されている設定情報から、部分スキャンを実行することが可能か否かを判定する。判定の結果、部分スキャンを実行することが可能である場合(ステップS9で「Yes」の場合)、制御部11は、スキャンモードを、部分スキャンモードに設定する。そして、処理は、ステップS10に進む。
 一方、部分スキャンを実行することができない場合(部分スキャンモードへの移行が不許可の場合)(ステップS9で「No」の場合)、処理は、ステップS1に戻る。
(S10):
 ステップS10では、制御部11は、タッチ位置取得部15から出力されるタッチ位置についての情報に基づいて、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置と終了位置とを特定する。この具体的な方法(一例)について、図4を用いて、説明する。
 図4は、ペンと手の一部領域の両方のタッチが検出された場合のドライブラインの開始位置と終了位置とを決定する方法を説明するための図である。なお、図4では、A点において、タッチペンのペン先がタッチパネルTPのタッチパネル面と接触しており、かつ、領域R1において、手の一部領域(手の小指球部分等)がタッチパネルTPのタッチパネル面と接触している場合を示している。なお、A点の座標を(xa,ya)とし、領域R1の中でY座標値が最大値となる点をB点とし、B点の座標を(xb,yb)とする。また、説明便宜のため、ドライブライン番号(図2の0~m)と、X座標値とは一致し、センスライン番号(図2の0~n)と、Y座標値とは一致するものとして、以下説明する。
 図4の場合、制御部11は、タッチ位置取得部15から取得した座標情報(タッチペンのペン先のA点についての座標情報とタッチパネル面に接触している手の一部領域R1の座標情報)から、タッチペンのペン先がタッチパネル面と接触しているA点のY座標値yaを取得し、ドライブラインの開始位置S_palmを、
  S_palm=ya-M1_pen
により取得した値に設定する。
 ここで、M1_pen(≧0)は、次のスキャン時までにタッチペンが移動できる範囲をスキャン対象として含むように設定される値である。
 また、制御部11は、タッチ位置取得部15から取得した座標情報から、手の一部領域(手の小指球部分等)がタッチパネルTPのタッチパネル面と接触している領域のうち、Y座標値が最大となる点(図4のB点がこれに相当。)のY座標値ybを取得し、ドライブラインの終了位置E_palmを、
  E_palm=yb+M1_palm
により取得した値に設定する。ここで、M1_palm(≧0)は、次のスキャン時までにタッチパネル面と接触している手の一部領域(手の小指球部分等)の領域のY座標値の最大点が移動できる範囲をスキャン対象として含むように設定される値である。
 これにより、ペンと手の一部領域の両方のタッチが検出された場合のスキャン範囲R_palmは、ドライブラインの番号がS_palm(=ya-M1_pen)であるドライブラインから、ドライブラインの番号がE_palm(=yb+M1_palm)であるドライブラインまでとなる。そして、スキャン範囲R_palmの中心のドライブ位置Dnoと、ドライブライン幅Dwidthは、以下のようになる。
  Dno=(S_palm+E_palm)/2
  Dwidth=(E_palm-S_palm)/2
 なお、タッチパネル面に接触している手の一部領域(手の小指球部分等)の領域と、ペンの位置との位置関係から、次のスキャン時に、ペンが移動できる範囲を予測することができる。つまり、通常、人間がペンで文字、図、線等を描画する場合、手の一部領域(手の小指球部分等)の領域(例えば、手の一部領域の重心点)を支点として、ペンを動かすため、ペンの移動範囲は、おおよそ予測(推定)することができる。したがって、上記変数M1_penは、上記ペンの移動範囲の予測範囲(推定範囲)をカバーするように設定することが好ましい。
 上記のようにして、ステップS10では、制御部11により、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置と終了位置とが特定される。そして、処理は、ステップS2に戻る。
(S11):
 ステップS11では、制御部11は、タッチ位置取得部15により取得されたタッチ位置に関する情報(座標情報)を、表示パネル制御部2に出力する。
 表示パネル制御部2では、制御部11から出力されたタッチ位置に関する情報(座標情報)に基づいて、各種処理が実行される。そして、表示パネル制御部2は、実行する処理に応じた表示データ(表示パネルLCDに表示させるべきデータ)が、表示パネルLCDに表示されるように、表示パネル駆動部3に指令信号を出力する。
 そして、表示パネル駆動部3は、表示パネル制御部2から受信した指令信号に基づいて、表示データが表示パネルLCDに表示されるように、表示パネルLCDを駆動制御する。
 なお、制御部11が、タッチ位置取得部15により取得されたタッチ位置に関する情報(座標情報)を、表示パネル制御部2に出力した後、処理は、ステップS12に進む。
(S12):
 ステップS12では、制御部11は、制御部11に入力されている設定情報から、ペン/指同時検出処理を実行することが可能か否かを判定する。判定の結果、ペン/指同時検出処理を実行することが可能である場合(ステップS12で「Yes」の場合)、処理は、ステップS2に戻る。
 一方、ペン/指同時検出処理を実行することができない場合(ペン/指同時検出処理が不許可の場合)(ステップS12で「No」の場合)、処理は、ステップS13に進む。
(S13):
 ステップS13では、制御部11は、タッチ位置取得部15から出力されるタッチ位置についての情報に基づいて、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置と終了位置とを特定する。この具体的な方法(一例)について、図5を用いて、説明する。
 図5は、ペンのタッチのみが検出された場合のドライブラインの開始位置と終了位置とを決定する方法を説明するための図である。なお、図5では、A点において、タッチペンのペン先がタッチパネルTPのタッチパネル面と接触している場合(手の一部領域がタッチパネルTPのタッチパネル面と接触していない場合(手の一部領域の検出がない場合))を示している。なお、A点の座標を(xa,ya)とする。また、説明便宜のため、ドライブライン番号(図2の0~m)と、X座標値とは一致し、センスライン番号(図2の0~n)と、Y座標値とは一致するものとして、以下説明する。
 図5の場合、制御部11は、タッチ位置取得部15から取得した座標情報(タッチペンのペン先のA点についての座標情報)から、タッチペンのペン先がタッチパネル面と接触しているA点のY座標値yaを取得し、ドライブラインの開始位置S_penを、
  S_pen=ya-M2_pen
により取得した値に設定する。ここで、M2_pen(M2_pen≧M1_pen≧0)は、次のスキャン時までにタッチペンが移動できる範囲をスキャン対象として含むように設定される値である。ここで、
  M2_pen≧M1_pen
となるように、変数M2_penが設定される。ペンと手の一部領域の両方が、タッチパネルTPのタッチパネル面に接触している場合、次のスキャン時までに、ペンが移動する距離が短いと考えられる。一方、ペンのみがタッチパネルTPのタッチパネル面に接触している場合、ペンと手の一部領域の両方が、タッチパネルTPのタッチパネル面に接触している場合よりも、ペンの移動範囲は広いことが想定されるので、上記のように、変数M2_penの値(ペンのみがタッチパネルTPのタッチパネル面に接触している場合のスキャン範囲を決定するための値)を、変数M1_penの値(ペンと手の一部領域の両方がタッチパネルTPのタッチパネル面に接触している場合のスキャン範囲を決定するための値)以上の値にすることが好ましい。
 また、制御部11は、ドライブラインの終了位置E_palmを、
  E_pen=ya+M2_pen
により取得した値に設定する。
 これにより、ペンのタッチのみが検出された場合のスキャン範囲R_penは、ドライブラインの番号がS_pen(=ya-M2_pen)であるドライブラインから、ドライブラインの番号がE_pen(=ya+M2_pen)であるドライブラインまでとなる。そして、スキャン範囲R_penの中心のドライブ位置Dnoと、ドライブライン幅Dwidthは、以下のようになる。
  Dno=(S_pen+E_pen)/2
  Dwidth=(E_pen-S_pen)/2
 上記のようにして、ステップS13では、制御部11により、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置と終了位置とが特定される。そして、処理は、ステップS2に戻る。
 以上のように、タッチパネル付き表示装置1000では、初期状態では、全面スキャンモード(タッチパネルTPのタッチパネル面の全面をスキャンするモード)によりセンス処理(スキャン)を実行するので、タッチパネル面における接触面積が指よりも小さいペン等でタッチされた場合であっても、タッチパネル面上のタッチ位置を高精度に検出することができる。
 そして、タッチパネル付き表示装置1000では、ペンのタッチのみが検出された場合、あるいは、ペンと手の一部領域の両方のタッチが検出された場合、部分スキャンモードによる処理を実行することで、タッチパネル面上のタッチ位置を高精度に検出しつつ、消費電力を低減させる。
 つまり、タッチパネル付き表示装置1000では、
(1)ペンのみがタッチパネル面にタッチされている場合、スキャンする範囲を、ドライブライン位置がS_penであるドライブラインから、ドライブライン位置がE_penであるドライブラインまでの範囲(スキャン範囲R_pen)として、センス処理(スキャン)を実行し、
(2)ペンと手の一部領域の両方がタッチパネル面にタッチされている場合、スキャンする範囲を、ドライブライン位置がS_palmであるドライブラインから、ドライブライン位置がE_palmであるドライブラインまでの範囲(スキャン範囲R_palm)として、センス処理(スキャン)を実行する。
 ペンがタッチパネル面にタッチされている場合、引き続き、ペンによる操作や描画が行われる可能性が高く、次のスキャン時にペンでタッチされる位置は、現スキャン時のペンのタッチ位置の近傍である確率が高い。このため、タッチパネル付き表示装置1000では、ペンの接触点を中心に設定した上記範囲R_penをスキャン範囲とすることで、タッチパネル面上のタッチ位置を高精度に検出することができるともに、スキャン範囲を限定したことで、消費電力を低減させることができる。
 さらに、ペンと手の一部領域の両方がタッチパネル面にタッチされている場合、引き続き、ペンによる操作や描画が行われる可能性が高く、次のスキャン時にペンでタッチされる位置は、現スキャン時のペンのタッチ位置の近傍である確率が高く、さらに、ペンのタッチ位置と手の一部領域のタッチ位置とから、ペンの移動可能範囲を高い確率で予測することができる。
 タッチパネル付き表示装置1000では、ペンの接触点と手の一部領域の接触領域との関係から、次のスキャン時にペンが移動できる範囲を推定した範囲をスキャン範囲R_palmとすることで、スキャン範囲を、上記のペンのタッチのみが検出された場合のスキャン範囲R_penよりもさらに狭い範囲に限定することができる。そして、タッチパネル付き表示装置1000では、例えば、図4を用いて説明したように、ペンのタッチ位置と手の一部領域の境界点(手の一部領域R1に含まれる、ペンのタッチ位置から最も離れた点(図4のB点))を次のスキャン時にも検出できるように、スキャン範囲R_palm(例えば、図4の領域R_palm)が設定されるので、ペンのタッチ位置と手の一部領域のタッチ位置を継続的に適切に検出することができる。
 これにより、タッチパネル付き表示装置1000では、タッチパネル面上のタッチ位置を高精度に検出することができるともに、さらにスキャン範囲を狭くすることができ、その結果、消費電力をさらに低減させることができる。
 また、タッチパネル付き表示装置1000では、ペンのタッチが検出されなくなった場合、(または、一定時間、タッチが検出されない場合)、あるいは、指によるタッチが検出された場合、全面スキャンモードによるスキャン処理(センス処理)が実行されるので、例えば、タッチパネル面の複数箇所をタッチされた場合(マルチタッチの場合)であっても、適切に、当該タッチ(マルチタッチ)を検出することができる。このため、部分スキャンモードにおいてスキャンされる範囲外において、指で、タッチパネル面にタッチされた場合であっても、適切な処理が実行される。
 また、タッチパネル付き表示装置1000では、ペンのタッチのみが検出された場合と、ペンと手の一部領域のタッチの両方が検出された場合とで、部分スキャンする範囲を変更している。これは、ペンのタッチのみが検出された場合と、ペンと手の一部領域のタッチの両方が検出された場合とで、予想されるペンの移動範囲(移動速度)が異なるためである。つまり、ペンと手の一部領域のタッチの両方が検出された場合に予想されるペンの移動範囲は、ペンのタッチのみが検出された場合に予想されるペンの移動範囲よりも小さいため、ペンと手の一部領域のタッチの両方が検出された場合のスキャン範囲を、ペンのタッチのみが検出された場合のスキャン範囲よりも小さくする。これにより、タッチパネル付き表示装置1000では、低消費電力化の効果を維持しつつ、ペンのトレース(追跡)を確実に成功させることができる。
 ≪第1変形例≫
 次に、第1実施形態の第1変形例について、説明する。
 本変形例のタッチパネル付き表示装置の構成は、第1実施形態のタッチパネル付き表示装置1000の構成と同様である。
 本変形例のタッチパネル付き表示装置では、タッチパネルコントローラ1の制御部11が受信部14でのセンス処理(センシング)の対象とするセンスラインを限定するように制御する。それ以外については、本変形例のタッチパネル付き表示装置は、第1実施形態のタッチパネル付き表示装置1000と同様である。
 図6は、本変形例のタッチパネル付き表示装置の処理を示すフローチャートである。
 図6のフローチャートは、図3のフローチャート(第1実施形態のタッチパネル付き表示装置1000の処理を示すフローチャート)において、ステップS10をステップS10’に置換し、ステップS13をステップS13’に置換したものである。それ以外については、図6のフローチャートは、図3のフローチャートと同様である。
 本変形例において、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
 以下では、図6のフローチャートを参照しながら、本変形例のタッチパネル付き表示装置の動作について説明する。なお、図6のフローチャートにおいて、図3のフローチャートと同様の処理については、詳細な説明を省略する。
(S10’):
 ステップS10’では、制御部11は、タッチ位置取得部15から出力されるタッチ位置についての情報に基づいて、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置と終了位置とを特定する。さらに、制御部11は、受信部14でのセンス処理(センシング)の対象とするセンスラインを限定するように制御する。
 この具体的な方法(一例)について、図7を用いて、説明する。
 図7は、ペンと手の一部領域の両方のタッチが検出された場合のドライブラインの開始位置と終了位置とを決定する方法を説明するための図である。なお、図7では、A点において、タッチペンのペン先がタッチパネルTPのタッチパネル面と接触しており、かつ、領域R1において、手の一部領域(手の小指球部分等)がタッチパネルTPのタッチパネル面と接触している場合を示している。なお、A点の座標を(xa,ya)とし、領域R1の中でY座標値が最大値となる点をB点とし、B点の座標を(xb,yb)とする。また、説明便宜のため、ドライブライン番号(図2の0~m)と、X座標値とは一致し、センスライン番号(図2の0~n)と、Y座標値とは一致するものとして、以下説明する。
 図7の場合、制御部11は、タッチ位置取得部15から取得した座標情報(タッチペンのペン先のA点についての座標情報とタッチパネル面に接触している手の一部領域R1の座標情報)から、タッチペンのペン先がタッチパネル面と接触しているA点のY座標値yaを取得し、ドライブラインの開始位置S_palmを、
  S_palm=ya-M1_pen
により取得した値に設定する。
 ここで、M1_pen(≧0)は、次のスキャン時までにタッチペンが移動できる範囲をスキャン対象として含むように設定される値である。
 また、制御部11は、タッチ位置取得部15から取得した座標情報から、手の一部領域(手の小指球部分等)がタッチパネルTPのタッチパネル面と接触している領域のうち、Y座標値が最大となる点(図7のB点がこれに相当。)のY座標値ybを取得し、ドライブラインの終了位置E_palmを、
  E_palm=yb+M1_palm
により取得した値に設定する。ここで、M1_palm(≧0)は、次のスキャン時までにタッチパネル面と接触している手の一部領域(手の小指球部分等)の領域のY座標値の最大点が移動できる範囲をスキャン対象として含むように設定される値である。
 これにより、ペンと手の一部領域の両方のタッチが検出された場合のスキャン範囲R_palmは、ドライブラインの番号がS_palm(=ya-M1_pen)であるドライブラインから、ドライブラインの番号がE_palm(=yb+M1_palm)であるドライブラインまでとなる。そして、スキャン範囲R_palmの中心のドライブ位置Dnoと、ドライブライン幅Dwidthは、以下のようになる。
  Dno=(S_palm+E_palm)/2
  Dwidth=(E_palm-S_palm)/2
 なお、タッチパネル面に接触している手の一部領域(手の小指球部分等)の領域と、ペンの位置との位置関係から、次のスキャン時に、ペンが移動できる範囲を予測することができる。つまり、通常、人間がペンで文字、図、線等を描画する場合、手の一部領域(手の小指球部分等)の領域(例えば、手の一部領域の重心点)を支点として、ペンを動かすため、ペンの移動範囲は、おおよそ予測(推定)することができる。したがって、上記変数M1_penは、上記ペンの移動範囲の予測範囲(推定範囲)をカバーするように設定することが好ましい。
 上記のようにして、ステップS10’では、制御部11により、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置と終了位置とが特定される。
 また、制御部11は、センス処理の対象とするセンスラインの範囲を限定する。
 制御部11は、タッチ位置取得部15から取得した座標情報から、ペンのタッチ位置と手の一部領域のタッチ領域(タッチ位置)との関係から、右手でペン描画されているのか、それとも、左手でペン描画されているのかを判定する。
 まず、右手でペン描画されていると判定された場合について、図7を用いて、説明する。
 図7は、ユーザが右手でペンを持っている場合において、ペンと手の一部領域の両方のタッチが検出された場合のタッチパネルTPのスキャン領域の決定方法について説明するための図である。
 図7の場合、制御部11は、タッチ位置取得部15から取得した座標情報(タッチペンのペン先のA点についての座標情報とタッチパネル面に接触している手の一部領域R1の座標情報)から、タッチペンのペン先がタッチパネル面と接触しているA点のX座標値xaを取得し、センス処理の対象とするセンスラインの開始位置SS_palmを、
  SS_palm=xa-M1R_pen
により取得した値に設定する。
 ここで、M1R_pen(≧0)は、次のスキャン時までにタッチペンが移動できる範囲をスキャン対象として含むように設定される値である。
 また、制御部11は、タッチ位置取得部15から取得した座標情報から、手の一部領域(手の小指球部分等)がタッチパネルTPのタッチパネル面と接触している領域のうち、X座標値が最大となる点(図7のC点がこれに相当。)のX座標値xcを取得し、センス処理の対象とするセンスラインの終了位置ES_palmを、
  ES_palm=xc+M1R_palm
により取得した値に設定する。ここで、M1R_palm(≧0)は、次のスキャン時までにタッチパネル面と接触している手の一部領域(手の小指球部分等)の領域のX座標値の最大点が移動できる範囲をスキャン対象として含むように設定される値である。
 これにより、ペンと手の一部領域の両方のタッチが検出された場合のセンス処理の対象とするセンスラインのスキャン範囲RS_palmは、センスラインの番号がSS_palm(=xa-M1R_pen)であるセンスラインから、センスラインの番号がES_palm(=xc+M1R_palm)であるセンスラインまでとなる。
 なお、タッチパネル面に接触している手の一部領域(手の小指球部分等)の領域と、ペンの位置との位置関係から、次のスキャン時に、ペンが移動できる範囲を予測することができる。つまり、通常、人間がペンで文字、図、線等を描画する場合、手の一部領域(手の小指球部分等)の領域(例えば、手の一部領域の重心点)を支点として、ペンを動かすため、ペンの移動範囲は、おおよそ予測(推定)することができる。したがって、上記変数M1_penおよび/またはM1R_penは、上記ペンの移動範囲の予測範囲(推定範囲)をカバーするように設定することが好ましい。
 上記のようにして、ステップS10’では、制御部11により、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置および終了位置と、センス処理の対象となるセンスラインの開始位置および終了位置と、が特定される。そして、処理は、ステップS2に戻る。
 次に、制御部11により、左手でペン描画されていると判定された場合について、図8を用いて、説明する。
 図8は、ユーザが左手でペンを持っている場合において、ペンと手の一部領域の両方のタッチが検出された場合のタッチパネルTPのスキャン領域の決定方法について説明するための図である。
 図8の場合、制御部11は、タッチ位置取得部15から取得した座標情報(タッチペンのペン先のA点についての座標情報とタッチパネル面に接触している手の一部領域R1’の座標情報)から、タッチペンのペン先がタッチパネル面と接触しているA点のX座標値xaを取得し、センス処理の対象とするセンスラインの終了位置ES_palmを、
  ES_palm=xa+M1L_pen
により取得した値に設定する。
 ここで、M1L_pen(≧0)は、次のスキャン時までにタッチペンが移動できる範囲をスキャン対象として含むように設定される値である。
 また、制御部11は、タッチ位置取得部15から取得した座標情報から、手の一部領域(手の小指球部分等)がタッチパネルTPのタッチパネル面と接触している領域のうち、X座標値が最小となる点(図8のCL点がこれに相当。)のX座標値xc’を取得し、センス処理の対象とするセンスラインの開始位置SS_palmを、
  SS_palm=xc’―M1L_palm
により取得した値に設定する。ここで、M1L_palm(≧0)は、次のスキャン時までにタッチパネル面と接触している手の一部領域(手の小指球部分等)の領域のX座標値の最小点が移動できる範囲をスキャン対象として含むように設定される値である。
 これにより、ペンと手の一部領域の両方のタッチが検出された場合のセンス処理の対象とするセンスラインのスキャン範囲RS_palmは、センスラインの番号がSS_palm(=xc’-M1L_palm)であるセンスラインから、センスラインの番号がES_palm(=xa+M1L_pen)であるセンスラインまでとなる。
 なお、タッチパネル面に接触している手の一部領域(手の小指球部分等)の領域と、ペンの位置との位置関係から、次のスキャン時に、ペンが移動できる範囲を予測することができる。つまり、通常、人間がペンで文字、図、線等を描画する場合、手の一部領域(手の小指球部分等)の領域(例えば、手の一部領域の重心点)を支点として、ペンを動かすため、ペンの移動範囲は、おおよそ予測(推定)することができる。したがって、上記変数M1_penおよび/またはM1L_penは、上記ペンの移動範囲の予測範囲(推定範囲)をカバーするように設定することが好ましい。
 上記のようにして、ステップS10’では、制御部11により、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置および終了位置と、センス処理の対象となるセンスラインの開始位置および終了位置と、が特定される。そして、処理は、ステップS2に戻る。
 上記のように処理が実行されることで、受信部14では、限定された範囲のセンスラインについての検出信号が、タッチ位置取得部15に出力される。これにより、受信部14、タッチ位置取得部15、および/または、制御部11での処理量(演算量)が少なくなり、その結果、高速処理が可能となる。
(S13’):
 ステップS13’では、制御部11は、タッチ位置取得部15から出力されるタッチ位置についての情報に基づいて、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置と終了位置とを特定する。さらに、制御部11は、受信部14でのセンス処理(センシング)の対象とするセンスラインを限定するように制御する。
 この具体的な方法(一例)について、図9を用いて、説明する。
 図9は、ペンのタッチが検出された場合のスキャン範囲(ドライブラインの開始位置と終了位置、センスラインの開始位置と終了位置)を決定する方法を説明するための図である。なお、図9では、A点において、タッチペンのペン先がタッチパネルTPのタッチパネル面と接触している場合を示している。なお、A点の座標を(xa,ya)とする。また、説明便宜のため、ドライブライン番号(図2の0~m)と、X座標値とは一致し、センスライン番号(図2の0~n)と、Y座標値とは一致するものとして、以下説明する。
 図9の場合、制御部11は、タッチ位置取得部15から取得した座標情報(タッチペンのペン先のA点についての座標情報)から、タッチペンのペン先がタッチパネル面と接触しているA点のY座標値yaを取得し、ドライブラインの開始位置S_penおよびドライブラインの終了位置E_penを、
  S_pen=ya-M2_pen
  E_pen=ya+M2_pen
により取得した値に設定する。
 ここで、M2_pen(≧0)は、次のスキャン時までにタッチペンが移動できる範囲をスキャン対象として含むように設定される値である。
 これにより、ペンのタッチが検出された場合のスキャン範囲R_penは、ドライブラインの番号がS_pen(=ya-M2_pen)であるドライブラインから、ドライブラインの番号がE_pen(=yb+M2_pen)であるドライブラインまでとなる。
 また、図9の場合、制御部11は、タッチ位置取得部15から取得した座標情報(タッチペンのペン先のA点についての座標情報)から、タッチペンのペン先がタッチパネル面と接触しているA点のX座標値xaを取得し、センス処理の対象とするセンスラインの開始位置SS_penおよびセンスラインの終了位置ES_penを、
  SS_pen=xa-M2_pen
  SS_pen=xa+M2_pen
により取得した値に設定する。
 ここで、M2_pen(≧0)は、次のスキャン時までにタッチペンが移動できる範囲をスキャン対象として含むように設定される値である。
 これにより、ペンのタッチが検出された場合のセンス処理の対象とするセンスラインのスキャン範囲RS_penは、センスラインの番号がSS_pen(=xa-M2_pen)であるセンスラインから、センスラインの番号がES_pen(=xa+M2_pen)であるセンスラインまでとなる。
 上記のようにして、ステップS13’では、制御部11により、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置および終了位置と、センス処理の対象となるセンスラインの開始位置および終了位置と、が特定される。そして、処理は、ステップS2に戻る。
 以上のように、本変形例のタッチパネル付き表示装置では、センス処理(センシング)の対象とするセンスラインの範囲を限定して処理が実行されるので、タッチパネル面上のタッチ位置を高精度に検出することができるともに、低消費電力で、さらに高速な処理を実現することができる。
 ≪第2変形例≫
 次に、第1実施形態の第2変形例について、説明する。
 本変形例のタッチパネル付き表示装置の構成は、第1実施形態のタッチパネル付き表示装置1000の構成と同様である。
 本変形例のタッチパネル付き表示装置では、タッチパネルコントローラ1の制御部11が受信部14でのセンス処理(センシング)の対象とするセンスラインを限定するように制御する。それ以外については、本変形例のタッチパネル付き表示装置は、第1実施形態のタッチパネル付き表示装置1000と同様である。
 図10、図11は、本変形例のタッチパネル付き表示装置の処理を示すフローチャートである。
 図10、図11のフローチャートは、図3のフローチャート(第1実施形態のタッチパネル付き表示装置1000の処理を示すフローチャート)において、ステップS14~S17を追加したものである。それ以外については、図10、図11のフローチャートは、図3のフローチャートと同様である。
 本変形例において、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
 以下では、図10、11のフローチャートを参照しながら、本変形例のタッチパネル付き表示装置の動作について説明する。なお、図10、11のフローチャートにおいて、図3のフローチャートと同様の処理については、詳細な説明を省略する。
(S14):
 ステップS14では、フラグflgを「0」に設定(リセット)する。なお、フラグflgは、部分スキャンモードであり、かつ、ペンと手の一部領域の両方のタッチを検出したときに「1」に設定(セット)されるフラグである。上記処理の後、処理は、ステップS2に進む。
(S15):
 ステップS15では、ステップS3で、タッチが検出されなかった場合(ステップS3で「Yes」の場合)において、タッチが検出されない時間が一定時間継続しているか否かを判定する。
 タッチが検出されない時間が一定時間継続していると判定された場合、処理は、ステップS1に戻る。
 一方、タッチが検出されない時間が一定時間継続していないと判定された場合、処理は、ステップS2に戻る。
 ステップS15において、上記判定処理を行うことで、タッチが検出されない時間が一定時間継続している場合、つまり、一定時間タッチパネルTPのタッチパネル面に接触している物体が検出されない場合、本変形例のタッチパネル付き表示装置では、スキャンモードが、全面スキャンモードに移行されることになる。
(S16):
 ステップS16では、フラグflgが「1」であるか否かが判定される。
 そして、フラグflgが「1」である場合、つまり、部分スキャンモードであり、かつ、ペンと手の一部領域の両方のタッチが前回以前のセンス処理で検出されている場合、処理は、ステップS7に進む。
 一方、フラグflgが「1」ではない場合、処理は、ステップS11に進む。
(S17):
 ステップS17では、ステップS10にて、ペンと手の一部領域の両方のタッチが検出された場合の部分スキャンモードに移行し、当該部分スキャンモードのスキャン範囲が設定された場合、フラグflgが「1」に設定(セット)される。
 なお、ここで、本変形例において、ステップS10で設定されるスキャン範囲について、図12を用いて説明する。
 図12は、本変形例において、ペンと手の一部領域の両方のタッチが検出された場合のドライブラインの開始位置と終了位置とを決定する方法を説明するための図である。
 なお、図12では、A点において、タッチペンのペン先がタッチパネルTPのタッチパネル面と接触しており、かつ、領域R1において、手の一部領域(手の小指球部分等)がタッチパネルTPのタッチパネル面と接触している場合を示している。なお、A点の座標を(xa,ya)とする。また、説明便宜のため、ドライブライン番号(図2の0~m)と、X座標値とは一致し、センスライン番号(図2の0~n)と、Y座標値とは一致するものとして、以下説明する。
 図12の場合、制御部11は、タッチ位置取得部15から取得した座標情報(タッチペンのペン先のA点についての座標情報とタッチパネル面に接触している手の一部領域R1の座標情報)から、タッチペンのペン先がタッチパネル面と接触しているA点のY座標値yaを取得し、ドライブラインの開始位置S_palmおよびドライブラインの開始位置E_palmを、
  S_palm=ya-M1_pen
  E_palm=ya+M1_pen
により取得した値に設定する。
 ここで、M1_pen(≧0)は、次のスキャン時までにタッチペンが移動できる範囲をスキャン対象として含むように設定される値である。
 これにより、ペンと手の一部領域の両方のタッチが検出された場合のスキャン範囲R_palmは、ドライブラインの番号がS_palm(=ya-M1_pen)であるドライブラインから、ドライブラインの番号がE_palm(=yb+M1_pen)であるドライブラインまでとなる。そして、スキャン範囲R_palmの中心のドライブ位置Dnoと、ドライブライン幅Dwidthは、以下のようになる。
  Dno=(S_palm+E_palm)/2
  Dwidth=(E_palm-S_palm)/2
 このように、本変形例のタッチパネル付き表示装置では、ペンと手の一部領域の両方のタッチが検出された場合のドライブラインの開始位置と終了位置とを決定することで、第1実施形態に比べて、さらに、スキャン範囲を狭くすることができる。その結果、消費電力をさらに低減することができる。
 なお、本変形例のタッチパネル付き表示装置では、図12に示すように、手の一部領域が、スキャン範囲に入らないことがあるが、フラグflgを用いた処理を実行することで、適切な処理が実現できる。
 つまり、図10のフローチャートに示すように、ステップS17で、フラグflgが「1」に設定され、処理は、ステップS2に戻るので、次のセンス処理で、手の一部領域が検出されなかった場合であっても、ステップS16の判定処理により、処理がS7へと進む。
 したがって、ペンと手の一部領域の両方のタッチが検出された場合の処理(ステップS7~S10)を継続させることができる。
 そして、ステップS3、S15で、タッチの検出がなく、かつ、タッチの検出がない状態が一定時間以上継続した場合に、処理が、ステップS1に戻り、全面スキャンモードによるスキャン処理が実行されることになる。
 したがって、本変形例のタッチパネル付き表示装置では、ペンと手の一部領域の両方のタッチが検出された場合において、一定時間内に、ペンのタッチが検出されるときは、ペンと手の一部領域の両方のタッチが検出された場合の部分スキャンモードによる処理を継続することができる。
 これにより、本変形例のタッチパネル付き表示装置では、タッチパネル面上のタッチ位置を高精度に検出することができるともに、さらにスキャン範囲を狭くすることができ、その結果、消費電力をさらに低減させることができる。
 ≪第3変形例≫
 次に、第1実施形態の第3変形例について、説明する。
 本変形例のタッチパネル付き表示装置の構成は、第1実施形態のタッチパネル付き表示装置1000の構成と同様である。
 本変形例のタッチパネル付き表示装置では、タッチパネルコントローラ1の制御部11が受信部14でのセンス処理(センシング)の対象とするセンスラインを限定するように制御する。それ以外については、本変形例のタッチパネル付き表示装置は、第1実施形態のタッチパネル付き表示装置1000と同様である。
 図13、図14は、本変形例のタッチパネル付き表示装置の処理を示すフローチャートである。
 図13、図14のフローチャートは、図6のフローチャート(第1実施形態の第1変形例のタッチパネル付き表示装置の処理を示すフローチャート)において、ステップS14~S17を追加したものである。それ以外については、図13、図14のフローチャートは、図6のフローチャートと同様である。
 本変形例において、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
 以下では、図13、14のフローチャートを参照しながら、本変形例のタッチパネル付き表示装置の動作について説明する。なお、図13、14のフローチャートにおいて、図6のフローチャートと同様の処理については、詳細な説明を省略する。
(S14):
 ステップS14では、フラグflgを「0」に設定(リセット)する。なお、フラグflgは、部分スキャンモードであり、かつ、ペンと手の一部領域の両方のタッチを検出したときに「1」に設定(セット)されるフラグである。上記処理の後、処理は、ステップS2に進む。
(S15):
 ステップS15では、ステップS3で、タッチが検出されなかった場合(ステップS3で「Yes」の場合)において、タッチが検出されない時間が一定時間継続しているか否かを判定する。
 タッチが検出されない時間が一定時間継続していると判定された場合、処理は、ステップS1に戻る。
 一方、タッチが検出されない時間が一定時間継続していないと判定された場合、処理は、ステップS2に戻る。
 ステップS15において、上記判定処理を行うことで、タッチが検出されない時間が一定時間継続している場合、つまり、一定時間タッチパネルTPのタッチパネル面に接触している物体が検出されない場合、本変形例のタッチパネル付き表示装置では、スキャンモードが、全面スキャンモードに移行されることになる。
(S16):
 ステップS13では、フラグflgが「1」であるか否かが判定される。
 そして、フラグflgが「1」である場合、つまり、部分スキャンモードであり、かつ、ペンと手の一部領域の両方のタッチが前回以前のセンス処理で検出されている場合、処理は、ステップS7に進む。
 一方、フラグflgが「1」ではない場合、処理は、ステップS11に進む。
(S17):
 ステップS17では、ステップS10’にて、ペンと手の一部領域の両方のタッチが検出された場合の部分スキャンモードに移行し、当該部分スキャンモードのスキャン範囲が設定された場合、フラグflgが「1」に設定(セット)される。
 なお、ここで、本変形例において、ステップS10’で設定されるスキャン範囲について、図15を用いて説明する。
 図15は、本変形例において、ペンと手の一部領域の両方のタッチが検出された場合のドライブラインの開始位置と終了位置とを決定する方法を説明するための図である。
 図15では、A点において、タッチペンのペン先がタッチパネルTPのタッチパネル面と接触しており、かつ、領域R1において、手の一部領域(手の小指球部分等)がタッチパネルTPのタッチパネル面と接触している場合を示している。なお、A点の座標を(xa,ya)とする。また、説明便宜のため、ドライブライン番号(図2の0~m)と、X座標値とは一致し、センスライン番号(図2の0~n)と、Y座標値とは一致するものとして、以下説明する。
 図15の場合、制御部11は、タッチ位置取得部15から取得した座標情報(タッチペンのペン先のA点についての座標情報とタッチパネル面に接触している手の一部領域R1の座標情報)から、タッチペンのペン先がタッチパネル面と接触しているA点のY座標値yaを取得し、ドライブラインの開始位置S_palmおよびドライブラインの開始位置E_palmを、
  S_palm=ya-M1_pen
  E_palm=ya+M1_pen
により取得した値に設定する。
 ここで、M1_pen(≧0)は、次のスキャン時までにタッチペンが移動できる範囲をスキャン対象として含むように設定される値である。
 これにより、ペンと手の一部領域の両方のタッチが検出された場合のスキャン範囲R_palmは、ドライブラインの番号がS_palm(=ya-M1_pen)であるドライブラインから、ドライブラインの番号がE_palm(=yb+M1_pen)であるドライブラインまでとなる。そして、スキャン範囲R_palmの中心のドライブ位置Dnoと、ドライブライン幅Dwidthは、以下のようになる。
  Dno=(S_palm+E_palm)/2
  Dwidth=(E_palm-S_palm)/2
 上記のようにして、ステップS10’では、制御部11により、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置と終了位置とが特定される。
 また、制御部11は、センス処理の対象とするセンスラインの範囲を限定する。
 制御部11は、タッチ位置取得部15から取得した座標情報から、ペンのタッチ位置と手の一部領域のタッチ領域(タッチ位置)との関係から、右手でペン描画されているのか、それとも、左手でペン描画されているのかを判定する。
 まず、右手でペン描画されていると判定された場合について、図15を用いて、説明する。
 図15は、ユーザが右手でペンを持っている場合において、ペンと手の一部領域の両方のタッチが検出された場合のタッチパネルTPのスキャン領域の決定方法について説明するための図である。
 図15の場合、制御部11は、タッチ位置取得部15から取得した座標情報(タッチペンのペン先のA点についての座標情報とタッチパネル面に接触している手の一部領域R1の座標情報)から、タッチペンのペン先がタッチパネル面と接触しているA点のX座標値xaを取得し、センス処理の対象とするセンスラインの開始位置SS_palmおよび終了位置ES_palmを、
  SS_palm=xa-M1R_pen
  ES_palm=xa+M1R_pen
により取得した値に設定する。
 ここで、M1R_pen(≧0)は、次のスキャン時までにタッチペンが移動できる範囲をスキャン対象として含むように設定される値である。
 上記処理により、ペンと手の一部領域の両方のタッチが検出された場合のセンス処理の対象とするセンスラインのスキャン範囲RS_palmは、センスラインの番号がSS_palm(=xa-M1R_pen)であるセンスラインから、センスラインの番号がES_palm(=xc+M1R_pen)であるセンスラインまでとなる。
 なお、タッチパネル面に接触している手の一部領域(手の小指球部分等)の領域と、ペンの位置との位置関係から、次のスキャン時に、ペンが移動できる範囲を予測することができる。つまり、通常、人間がペンで文字、図、線等を描画する場合、手の一部領域(手の小指球部分等)の領域(例えば、手の一部領域の重心点)を支点として、ペンを動かすため、ペンの移動範囲は、おおよそ予測(推定)することができる。したがって、上記変数M1_penおよび/またはM1R_penは、上記ペンの移動範囲の予測範囲(推定範囲)をカバーするように設定することが好ましい。
 上記のようにして、ステップS10’では、制御部11により、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置および終了位置と、センス処理の対象となるセンスラインの開始位置および終了位置と、が特定される。そして、処理は、ステップS2に戻る。
 次に、制御部11により、左手でペン描画されていると判定された場合について、図16を用いて、説明する。
 図16は、ユーザが左手でペンを持っている場合において、ペンと手の一部領域の両方のタッチが検出された場合のタッチパネルTPのスキャン領域の決定方法について説明するための図である。
 図16の場合、制御部11は、タッチ位置取得部15から取得した座標情報(タッチペンのペン先のA点についての座標情報とタッチパネル面に接触している手の一部領域R1’の座標情報)から、タッチペンのペン先がタッチパネル面と接触しているA点のX座標値xaを取得し、センス処理の対象とするセンスラインの開始位置SS_palmおよび終了位置ES_palmを、
  SS_palm=xa-M1L_pen
  ES_palm=xa+M1L_pen
により取得した値に設定する。
 ここで、M1L_pen(≧0)は、次のスキャン時までにタッチペンが移動できる範囲をスキャン対象として含むように設定される値である。
 上記処理により、ペンと手の一部領域の両方のタッチが検出された場合のセンス処理の対象とするセンスラインのスキャン範囲RS_palmは、センスラインの番号がSS_palm(=xc’-M1L_pen)であるセンスラインから、センスラインの番号がES_palm(=xa+M1L_pen)であるセンスラインまでとなる。
 なお、タッチパネル面に接触している手の一部領域(手の小指球部分等)の領域と、ペンの位置との位置関係から、次のスキャン時に、ペンが移動できる範囲を予測することができる。つまり、通常、人間がペンで文字、図、線等を描画する場合、手の一部領域(手の小指球部分等)の領域(例えば、手の一部領域の重心点)を支点として、ペンを動かすため、ペンの移動範囲は、おおよそ予測(推定)することができる。したがって、上記変数M1_penおよび/またはM1L_penは、上記ペンの移動範囲の予測範囲(推定範囲)をカバーするように設定することが好ましい。
 上記のようにして、ステップS10’では、制御部11により、駆動するドライブラインを特定するための情報、すなわち、ドライブラインの開始位置および終了位置と、センス処理の対象となるセンスラインの開始位置および終了位置と、が特定される。そして、処理は、ステップS2に戻る。
 上記のように処理が実行されることで、受信部14では、限定された範囲のセンスラインについての検出信号が、タッチ位置取得部15に出力される。これにより、受信部14、タッチ位置取得部15、および/または、制御部11での処理量(演算量)が少なくなり、その結果、高速処理が可能となる。
 以上のように、本変形例のタッチパネル付き表示装置では、センス処理(センシング)の対象とするセンスラインの範囲を限定して処理が実行されるので、タッチパネル面上のタッチ位置を高精度に検出することができるともに、低消費電力で、さらに高速な処理を実現することができる。
 また、本変形例のタッチパネル付き表示装置では、上記のように、ペンと手の一部領域の両方のタッチが検出された場合のドライブラインの開始位置と終了位置とを決定することで、第1実施形態の第1変形例に比べて、さらに、スキャン範囲を狭くすることができる。その結果、消費電力をさらに低減することができる。
 なお、本変形例のタッチパネル付き表示装置では、図15、図16に示すように、手の一部領域が、スキャン範囲に入らないことがあるが、フラグflgを用いた処理を実行することで、適切な処理が実現できる。
 つまり、図13のフローチャートに示すように、ステップS17で、フラグflgが「1」に設定され、処理は、ステップS2に戻るので、次のセンス処理で、手の一部領域が検出されなかった場合であっても、ステップS16の判定処理により、処理がS7へと進む。
 したがって、ペンと手の一部領域の両方のタッチが検出された場合の処理(ステップS7~S9およびS10’)を継続させることができる。
 そして、ステップS3、S15で、タッチの検出がなく、かつ、タッチの検出がない状態が一定時間以上継続した場合に、処理が、ステップS1に戻り、全面スキャンモードによるスキャン処理が実行されることになる。
 したがって、本変形例のタッチパネル付き表示装置では、ペンと手の一部領域の両方のタッチが検出された場合において、一定時間内に、ペンのタッチが検出されるときは、ペンと手の一部領域の両方のタッチが検出された場合の部分スキャンモードによる処理を継続することができる。
 これにより、本変形例のタッチパネル付き表示装置では、タッチパネル面上のタッチ位置を高精度に検出することができるともに、さらにスキャン範囲を狭くすることができ、その結果、消費電力をさらに低減させることができる。
 [他の実施形態]
 上記実施形態および/または変形例において、部分スキャンモードにおいて、スキャン範囲を動的に変更するようにしてもよい。例えば、制御部11は、ペンの軌跡および/またはペンの描画速度(ペンの移動速度)を算出し、算出したペンの軌跡および/またはペンの描画速度(ペンの移動速度)に基づいて、スキャン範囲(ドライブラインの開始位置、終了位置、および/または、センスラインの開始位置、終了位置)を決定するようにしてもよい。具体的には、制御部11は、算出したペンの軌跡から、次にペンが進む位置(範囲)を予測し、その予測した範囲が含まれるように、スキャン範囲を設定するようにしてもよい。
 また、制御部11は、ペンの移動速度が速いほど、スキャン範囲が広くなるように、スキャン範囲(ドライブラインの開始位置、終了位置、および/または、センスラインの開始位置、終了位置)を設定するようにしてもよい。
 また、ペンのタッチが検出された場合にスキャンする範囲(ドライブラインの開始位置、終了位置、および/または、センスラインの開始位置、終了位置)を、ユーザが設定できるようにしてもよい。
 また、ペンと手の一部領域の両方のタッチが検出された場合にスキャンする範囲(ドライブラインの開始位置、終了位置、および/または、センスラインの開始位置、終了位置)を、ユーザが設定できるようにしてもよい。
 また、ユーザに、タッチパネルTPのタッチパネル面上でペン描画を実行させ、そのペン描画された範囲に基づいて、制御部11が、ペンのタッチが検出された場合にスキャンする範囲(ドライブラインの開始位置、終了位置、および/または、センスラインの開始位置、終了位置)を設定するようにしてもよい。
 また、ユーザに、タッチパネルTPのタッチパネル面上で手の一部領域がタッチパネル面に接触した状態でペン描画を実行させ、そのペン描画された範囲に基づいて、制御部11が、ペンと手の一部領域の両方のタッチが検出された場合にスキャンする範囲(ドライブラインの開始位置、終了位置、および/または、センスラインの開始位置、終了位置)を設定するようにしてもよい。
 また、上記実施形態(変形例を含む)では、ペンのタッチが検出されて、部分スキャンモードでのスキャンが実行されていた場合に、ペンのタッチが一度非検出となると、全面スキャンモードに移行する場合について、説明したが、これに限定されることはない。例えば、ペンのタッチが検出されて、部分スキャンモードでのスキャンが実行されていた場合に、ペンのタッチが一定時間検出されない場合に、全面スキャンモードに移行するようにしてもよい。
 例えば、図3、図6のステップS3の処理において、タッチパネルTPのタッチパネル面に接触している物体がないと判定され、かつ、タッチパネルTPのタッチパネル面に接触している物体がない状態が一定時間経過した場合、処理が、ステップS1に戻るようにしてもよい。
 また、上記実施形態のタッチパネル付き表示装置の一部または全部は、集積回路(例えば、LSI、システムLSI等)として実現されるものであってもよい。
 上記実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
 また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。
 また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
 前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、大容量DVD、次世代DVD、半導体メモリを挙げることができる。
 上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
 なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
 [付記]
 なお、本発明は、以下のようにも表現することができる。
 第1の構成のタッチパネル装置は、タッチパネル部と、タッチパネル制御部と、を備える。
 タッチパネル部は、タッチパネル面を有する。
 タッチパネル制御部は、タッチパネル面の全部の領域に電界を発生させ、当該電界の変化を検出することで、タッチパネル面に接触している物体のタッチパネル面上の位置情報を取得する全面スキャンモードと、タッチパネル面の一部の領域に電界を発生させ、当該電界の変化を検出することで、タッチパネル面に接触している物体のタッチパネル面上の位置情報を取得する部分スキャンモードと、により、タッチパネル部を制御する。
 そして、タッチパネル制御部は、
(1)タッチパネル面に接触している物体がタッチペンではない場合、全面スキャンモードにより、タッチパネル面の全部の領域に電界を発生させ、
(2)タッチパネル面に接触している物体がタッチペンである場合、部分スキャンモードにより、タッチパネル面の第1の部分領域に電界を発生させ、
(3)タッチパネル面に接触している物体がタッチペンおよび手の一部領域である場合、部分スキャンモードにより、タッチパネル面の第1の部分領域よりも狭い第2の部分領域に電界を発生させる。
 このタッチパネル装置では、タッチパネル面にタッチペンが接触していない場合、全面スキャンモード(タッチパネル部のタッチパネル面の全面をスキャンするモード)により、タッチパネル面の全部の領域に電界を発生させるので、タッチパネル面における接触面積が指よりも小さいペン(タッチペン)等でタッチされた場合であっても、タッチパネル面上のタッチ位置を高精度に検出することができる。
 そして、このタッチパネル装置では、ペンのタッチのみが検出された場合、部分スキャンモードにより、タッチパネル面上の第1の部分領域に電界を発生させる。
 さらに、このタッチパネル装置では、ペンと手の一部領域の両方のタッチが検出された場合、部分スキャンモードにより、タッチパネル面上の第1の部分領域よりも狭い第2の部分領域に電界を発生させる。
 これにより、このタッチパネル装置では、タッチパネル面上のタッチ位置を高精度に検出しつつ、消費電力を低減させることができる。
 なお、「手の一部領域」とは、手のひらや小指球部分(小指の付け根部分)等の指よりも接触面積が広い手の部位を含む概念であり、また、ペンでタッチパネル面上に線を描画するときにペンを支えるためにタッチパネル面と接触する手の部位を含む概念である。
 また、「タッチパネル面の全部の領域」とは、電界を発生させることができるタッチパネル面上の領域であり、物理的なタッチパネル面の全面積を占める領域とは、必ずしも一致していなくてもよい。
 第2の構成のタッチパネル装置は、第1の構成において、タッチパネル制御部は、駆動部と、受信部と、タッチ位置取得部と、を備える。
 タッチパネル部は、m+1本(m:整数、m≧0)のドライブラインと、タッチパネル面において、ドライブラインと直交するように配置されたn+1本(n:整数、n≧0)複数のセンスラインと、を備える。
 駆動部は、ドライブラインを駆動する。
 受信部は、タッチパネル面上の電界変化に対応した信号を、センスラインから受信する。
 タッチ位置取得部は、受信部が受信した信号に基づいて、タッチパネル面に接触している物体の接触位置に関する情報を取得する。
 このタッチパネル装置では、タッチパネル部が、m+1本(m:整数、m≧0)のドライブラインと、タッチパネル面において、ドライブラインと直交するように配置されたn+1本(n:整数、n≧0)複数のセンスラインと、を備えるので、駆動部が、例えば、パルス駆動信号により、ドライブラインを駆動させることで、タッチパネル面に電界を発生させることができる。そして、このタッチパネル装置では、タッチ位置取得部は、受信部が受信した信号(タッチパネル面の電界変化に対応した信号)に基づいて、タッチパネル面に接触している物体の接触位置に関する情報を取得することができる。
 第3の構成のタッチパネル装置は、第2の構成において、
(1)タッチパネル面に接触している物体がタッチペンではない場合、駆動部は、m+1本全てのドライブラインを駆動することで、タッチパネル面の全部の領域に電界を発生させ、
(2)タッチパネル面に接触している物体がタッチペンである場合、駆動部は、k1本(k1:自然数、k1<m+1)のドライブラインを駆動することで、タッチパネル面の第1の部分領域に電界を発生させ、
(3)タッチパネル面に接触している物体がタッチペンおよび手の一部領域である場合、駆動部は、k2本(k2:自然数、k2≦k1)のドライブラインを駆動することで、タッチパネル面の第2の部分領域に電界を発生させる。
 これにより、このタッチパネル装置では、駆動部により、駆動するドライブラインを指定することで、タッチパネル面のスキャン範囲(電界を発生させる範囲)を設定することができる。
 第4の構成のタッチパネル装置は、第2または第3の構成において、
(1)タッチパネル面に接触している物体がタッチペンではない場合、
 受信部は、n+1本全てのセンスラインからの信号を受信し、
 タッチ位置取得部は、n+1本のセンスラインからの信号に基づいて、タッチパネル面に接触している物体の接触位置に関する情報を取得し、
(2)タッチパネル面に接触している物体がタッチペンである場合、
 受信部は、p1本(p1:自然数、p1<n+1)のセンスラインからの信号を受信し、
 タッチ位置取得部は、p1本のセンスラインからの信号に基づいて、タッチパネル面に接触している物体の接触位置に関する情報を取得し、
(3)タッチパネル面に接触している物体がタッチペンおよび手の一部領域である場合、
 受信部は、p2本(p2:自然数、p2≦p1)のセンスラインからの信号を受信し、
 タッチ位置取得部は、p2本のセンスラインからの信号に基づいて、タッチパネル面に接触している物体の接触位置に関する情報を取得する。
 これにより、このタッチパネル装置では、センス処理(センシング)の対象とするセンスラインの範囲を限定して処理が実行されるので、タッチパネル面上の物体の接触位置(タッチ位置)を高精度に検出することができるともに、低消費電力で、さらに高速な処理を実現することができる。
 第5の構成のタッチパネル装置は、第2から第4のいずれかの構成において、タッチパネル制御部は、タッチパネル面に接触している物体がタッチペンである場合、タッチ位置取得部により取得されるタッチペンの接触位置に関する情報から、タッチペンのタッチパネル面上の移動速度を取得し、移動速度が速い程、第1の部分領域および/または第2の部分領域を広い範囲に設定する。
 これにより、このタッチパネル装置では、タッチペンの移動速度が速い程、おけるタッチパネル面上のスキャン範囲を広くするので、タッチペンの移動速度が速い場合であっても、タッチパネル面上の物体の接触位置(タッチ位置)を高精度に検出することができるともに、低消費電力で、処理を実行することができる。
 第6の構成のタッチパネル付き表示装置は、第1から第5のいずれかの構成のタッチパネル装置と、表示パネル部と、表示パネル駆動部と、を備えるタッチパネル付き表示装置である。
 表示パネル部は、表示面を有し、表示面にデータの表示を行う。
 表示パネル駆動部は、タッチパネル装置により取得されたタッチパネル面上の物体の接触位置に関する情報に基づいて、表示面に表示させるデータを取得し、当該データが表示面に表示されるように表示パネルを駆動制御する。
 これにより、第1から第5のいずれかの構成のタッチパネル装置を用いた表示装置を実現することができる。
 第7の構成のプログラムは、タッチパネル面を有するタッチパネル部と、タッチパネル制御部と、を備えるタッチパネル装置を制御する方法をコンピュータに実行させるためのプログラムである。
 タッチパネル制御部は、タッチパネル面の全部の領域に電界を発生させ、当該電界の変化を検出することで、タッチパネル面に接触している物体のタッチパネル面上の位置情報を取得する全面スキャンモードと、タッチパネル面の一部の領域に電界を発生させ、当該電界の変化を検出することで、タッチパネル面に接触している物体のタッチパネル面上の位置情報を取得する部分スキャンモードと、により、タッチパネル部を制御する。
 タッチパネル装置を制御する方法は、モード設定ステップと、スキャン範囲設定ステップと、を備える。
 モード設定ステップは、全面スキャンモードおよび部分スキャンモードのいずれかのモードに設定する。
 スキャン範囲設定ステップは、タッチパネル面において電界を発生させる範囲であるスキャン範囲を設定する。
(1)タッチパネル面に接触している物体がタッチペンではない場合、
 モード設定ステップは、モードを全面スキャンモードに設定し、
 スキャン範囲設定ステップは、スキャン範囲を、タッチパネル面の全部の領域に設定する。
(2)タッチパネル面に接触している物体がタッチペンである場合、
 モード設定ステップは、モードを部分スキャンモードに設定し、
 スキャン範囲設定ステップは、スキャン範囲を、タッチパネル面の第1の部分領域に設定する。
(3)タッチパネル面に接触している物体がタッチペンおよび手の一部領域である場合、
 モード設定ステップは、モードを部分スキャンモードに設定し、
 スキャン範囲設定ステップは、スキャン範囲を、タッチパネル面の第1の部分領域よりも狭い第2の部分領域に設定する。
 これにより、第1の構成のタッチパネル装置と同様の効果を奏するプログラムを実現することができる。
 本発明に係るタッチパネル装置、タッチパネル付き表示装置、および、プログラムは、タッチパネル面における接触面積が指よりも小さいペン等でタッチされた場合であっても、タッチパネル面上のタッチ位置を高精度に検出することができるとともに、消費電力を低減させることができるので、タッチパネル機器関連産業分野において、有用であり、当該分野において実施することができる。
1000 タッチパネル付き表示装置
TP タッチパネル
LCD 表示パネル
1 タッチパネルコントローラ
11 制御部
12 駆動制御部
13 送信部
14 受信部
15 タッチ位置取得部
2 表示パネル制御部
3 表示パネル駆動部

Claims (7)

  1.  タッチパネル面を有するタッチパネル部と、
     前記タッチパネル面の全部の領域に電界を発生させ、当該電界の変化を検出することで、前記タッチパネル面に接触している物体の前記タッチパネル面上の位置情報を取得する全面スキャンモードと、前記タッチパネル面の一部の領域に電界を発生させ、当該電界の変化を検出することで、前記タッチパネル面に接触している物体の前記タッチパネル面上の位置情報を取得する部分スキャンモードと、により、前記タッチパネル部を制御するタッチパネル制御部と、
    を備え、
     前記タッチパネル制御部は、
    (1)前記タッチパネル面に接触している物体がタッチペンではない場合、前記全面スキャンモードにより、前記タッチパネル面の全部の領域に電界を発生させ、
    (2)前記タッチパネル面に接触している物体がタッチペンである場合、前記部分スキャンモードにより、前記タッチパネル面の第1の部分領域に電界を発生させ、
    (3)前記タッチパネル面に接触している物体がタッチペンおよび手の一部領域である場合、前記部分スキャンモードにより、前記タッチパネル面の前記第1の部分領域よりも狭い第2の部分領域に電界を発生させる、
     タッチパネル装置。
  2.  タッチパネル部は、m+1本(m:整数、m≧0)のドライブラインと、前記タッチパネル面において、前記ドライブラインと直交するように配置されたn+1本(n:整数、n≧0)複数のセンスラインと、を備え、
     前記タッチパネル制御部は、
     前記ドライブラインを駆動する駆動部と、
     前記タッチパネル面上の電界変化に対応した信号を、前記センスラインから受信する受信部と、
     前記受信部が受信した信号に基づいて、前記タッチパネル面に接触している物体の接触位置に関する情報を取得するタッチ位置取得部と、
    を備える、
     請求項1に記載のタッチパネル装置。
  3. (1)前記タッチパネル面に接触している物体がタッチペンではない場合、前記駆動部は、m+1本全ての前記ドライブラインを駆動することで、前記タッチパネル面の全部の領域に電界を発生させ、
    (2)前記タッチパネル面に接触している物体がタッチペンである場合、前記駆動部は、k1本(k1:自然数、k1<m+1)の前記ドライブラインを駆動することで、前記タッチパネル面の前記第1の部分領域に電界を発生させ、
    (3)前記タッチパネル面に接触している物体がタッチペンおよび手の一部領域である場合、前記駆動部は、k2本(k2:自然数、k2≦k1)の前記ドライブラインを駆動することで、前記タッチパネル面の前記第2の部分領域に電界を発生させる、
     請求項2に記載のタッチパネル装置。
  4. (1)前記タッチパネル面に接触している物体がタッチペンではない場合、
     前記受信部は、n+1本全ての前記センスラインからの信号を受信し、
     前記タッチ位置取得部は、前記n+1本の前記センスラインからの信号に基づいて、前記タッチパネル面に接触している物体の接触位置に関する情報を取得し、
    (2)前記タッチパネル面に接触している物体がタッチペンである場合、
     前記受信部は、p1本(p1:自然数、p1<n+1)の前記センスラインからの信号を受信し、
     前記タッチ位置取得部は、前記p1本の前記センスラインからの信号に基づいて、前記タッチパネル面に接触している物体の接触位置に関する情報を取得し、
    (3)前記タッチパネル面に接触している物体がタッチペンおよび手の一部領域である場合、
     前記受信部は、p2本(p2:自然数、p2≦p1)の前記センスラインからの信号を受信し、
     前記タッチ位置取得部は、前記p2本の前記センスラインからの信号に基づいて、前記タッチパネル面に接触している物体の接触位置に関する情報を取得する、
     請求項2または3に記載のタッチパネル装置。
  5.  前記タッチパネル制御部は、
     前記タッチパネル面に接触している物体がタッチペンである場合、前記タッチ位置取得部により取得される前記タッチペンの前記接触位置に関する情報から、前記タッチペンの前記タッチパネル面上の移動速度を取得し、前記移動速度が速い程、前記第1の部分領域および/または前記第2の部分領域を広い範囲に設定する、
     請求項2から4のいずれかに記載のタッチパネル装置。
  6.  請求項1から5のいずれかに記載のタッチパネル装置と、
     表示面を有し、前記表示面にデータの表示を行う表示パネル部と、
     前記タッチパネル装置により取得された前記タッチパネル面上の物体の接触位置に関する情報に基づいて、前記表示面に表示させるデータを取得し、当該データが前記表示面に表示されるように前記表示パネルを駆動制御する表示パネル駆動部と、
    を備えるタッチパネル付き表示装置。
  7.  タッチパネル面を有するタッチパネル部と、
     前記タッチパネル面の全部の領域に電界を発生させ、当該電界の変化を検出することで、前記タッチパネル面に接触している物体の前記タッチパネル面上の位置情報を取得する全面スキャンモードと、前記タッチパネル面の一部の領域に電界を発生させ、当該電界の変化を検出することで、前記タッチパネル面に接触している物体の前記タッチパネル面上の位置情報を取得する部分スキャンモードと、により、前記タッチパネル部を制御するタッチパネル制御部と、
    を備えるタッチパネル装置を制御する方法をコンピュータに実行させるためのプログラムであって、
     前記方法は、
     前記全面スキャンモードおよび前記部分スキャンモードのいずれかのモードに設定するモード設定ステップと、
     前記タッチパネル面において電界を発生させる範囲であるスキャン範囲を設定するスキャン範囲設定ステップと、
    を備え、
    (1)前記タッチパネル面に接触している物体がタッチペンではない場合、
     前記モード設定ステップは、前記モードを前記全面スキャンモードに設定し、
     前記スキャン範囲設定ステップは、前記スキャン範囲を、前記タッチパネル面の全部の領域に設定し、
    (2)前記タッチパネル面に接触している物体がタッチペンである場合、
     前記モード設定ステップは、前記モードを前記部分スキャンモードに設定し、
     前記スキャン範囲設定ステップは、前記スキャン範囲を、前記タッチパネル面の第1の部分領域に設定し、
    (3)前記タッチパネル面に接触している物体がタッチペンおよび手の一部領域である場合、
     前記モード設定ステップは、前記モードを前記部分スキャンモードに設定し、
     前記スキャン範囲設定ステップは、前記スキャン範囲を、前記タッチパネル面の前記第1の部分領域よりも狭い第2の部分領域に設定する、
     タッチパネル装置を制御する方法をコンピュータに実行させるためのプログラム。
PCT/JP2014/053978 2013-04-19 2014-02-20 タッチパネル装置、タッチパネル付き表示装置およびプログラム WO2014171177A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013088347 2013-04-19
JP2013-088347 2013-04-19

Publications (1)

Publication Number Publication Date
WO2014171177A1 true WO2014171177A1 (ja) 2014-10-23

Family

ID=51731138

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/053978 WO2014171177A1 (ja) 2013-04-19 2014-02-20 タッチパネル装置、タッチパネル付き表示装置およびプログラム

Country Status (1)

Country Link
WO (1) WO2014171177A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023231411A1 (zh) * 2022-05-31 2023-12-07 Oppo广东移动通信有限公司 通信控制方法、装置、触控屏、触控系统和触控设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231006A (ja) * 1996-02-28 1997-09-05 Nec Home Electron Ltd 携帯情報処理装置
JP2007018372A (ja) * 2005-07-08 2007-01-25 Nintendo Co Ltd ポインティングデバイスの入力調整プログラムおよび入力調整装置
JP2009258903A (ja) * 2008-04-15 2009-11-05 Mitsubishi Electric Corp タッチパネル装置
JP2011003033A (ja) * 2009-06-18 2011-01-06 Fuji Xerox Co Ltd 情報処理装置及びプログラム
JP2011242906A (ja) * 2010-05-17 2011-12-01 Panasonic Corp タッチパネル装置
JP2012164274A (ja) * 2011-02-09 2012-08-30 Dainippon Printing Co Ltd コンピュータ装置、入力システム、及びプログラム
WO2012117437A1 (ja) * 2011-02-28 2012-09-07 三菱電機株式会社 タッチパネル装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231006A (ja) * 1996-02-28 1997-09-05 Nec Home Electron Ltd 携帯情報処理装置
JP2007018372A (ja) * 2005-07-08 2007-01-25 Nintendo Co Ltd ポインティングデバイスの入力調整プログラムおよび入力調整装置
JP2009258903A (ja) * 2008-04-15 2009-11-05 Mitsubishi Electric Corp タッチパネル装置
JP2011003033A (ja) * 2009-06-18 2011-01-06 Fuji Xerox Co Ltd 情報処理装置及びプログラム
JP2011242906A (ja) * 2010-05-17 2011-12-01 Panasonic Corp タッチパネル装置
JP2012164274A (ja) * 2011-02-09 2012-08-30 Dainippon Printing Co Ltd コンピュータ装置、入力システム、及びプログラム
WO2012117437A1 (ja) * 2011-02-28 2012-09-07 三菱電機株式会社 タッチパネル装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023231411A1 (zh) * 2022-05-31 2023-12-07 Oppo广东移动通信有限公司 通信控制方法、装置、触控屏、触控系统和触控设备

Similar Documents

Publication Publication Date Title
CN107741824B (zh) 对可重定位触摸表面上的姿态朝向的检测
US10073493B2 (en) Device and method for controlling a display panel
JP5738707B2 (ja) タッチパネル
JP6177876B2 (ja) タッチパネルシステム
JP5250135B1 (ja) タッチパネルシステム、電子情報機器及び指示体位置検出方法
US9201587B2 (en) Portable device and operation method thereof
AU2017203910A1 (en) Glove touch detection
KR20170067669A (ko) 전자기기의 터치 위치 예측 방법 및 장치
US20110225535A1 (en) Information processing apparatus
JP6005563B2 (ja) タッチパネル装置、制御方法
TWI354223B (ja)
CN105653177A (zh) 终端设备界面的可点击元素的选择方法和终端设备
KR101373648B1 (ko) 커서 제어 장치, 커서 제어 방법 및 커서 제어 프로그램
JP2015230693A (ja) 情報処理装置、入力方法、コンピュータプログラム、及び記録媒体
US20130027342A1 (en) Pointed position determination apparatus of touch panel, touch panel apparatus, electronics apparatus including the same, method of determining pointed position on touch panel, and computer program storage medium
WO2014171177A1 (ja) タッチパネル装置、タッチパネル付き表示装置およびプログラム
JP2010049318A (ja) 移動制御プログラム
US10712872B2 (en) Input apparatus and program
US20200125231A1 (en) Touch panel device, touch panel device control method, program, and storage medium storing the program
US20150091831A1 (en) Display device and display control method
JP6505317B2 (ja) 表示制御装置
JP2020060930A (ja) 入力装置
CN103543921A (zh) 信息处理设备和信息处理方法
CN104035632B (zh) 一种信息处理方法及电子设备
JP5805473B2 (ja) 操作装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14785703

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14785703

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP