WO2015060279A1 - 携帯端末用表示装置 - Google Patents

携帯端末用表示装置 Download PDF

Info

Publication number
WO2015060279A1
WO2015060279A1 PCT/JP2014/077897 JP2014077897W WO2015060279A1 WO 2015060279 A1 WO2015060279 A1 WO 2015060279A1 JP 2014077897 W JP2014077897 W JP 2014077897W WO 2015060279 A1 WO2015060279 A1 WO 2015060279A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
unit
control unit
detection unit
display device
Prior art date
Application number
PCT/JP2014/077897
Other languages
English (en)
French (fr)
Inventor
石浦豊
Original Assignee
株式会社村田製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社村田製作所 filed Critical 株式会社村田製作所
Priority to JP2015543855A priority Critical patent/JP6015866B2/ja
Publication of WO2015060279A1 publication Critical patent/WO2015060279A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Definitions

  • the present invention relates to a mobile terminal display device including a display unit such as a liquid crystal display and a touch panel.
  • a portable terminal including a touch panel including a sensor that detects contact of a user's finger and a frame and a display unit that displays various screens is known.
  • the smartphone shown in Patent Document 1 changes the display content of the display in accordance with the contact position of the user's finger received on the touch panel, and realizes a so-called GUI (Graphical User Interface).
  • GUI Graphic User Interface
  • the user can operate the smartphone as shown in Patent Document 1 with one thumb while holding the smartphone with one hand.
  • the smartphone shown in Patent Document 1 may be difficult to operate with just the thumb while being held with one hand.
  • the smartphone shown in Patent Document 1 when a user holds a smartphone with the left hand and performs an operation on the touch panel with the thumb of the left hand, the user may not reach the top of the touch panel.
  • the upper right portion of the touch panel is farthest from the gripped portion, so that the thumb is difficult to reach.
  • the touch panel becomes larger, the range that the finger cannot reach increases. Furthermore, a user with a small hand has a wider range of fingers than other users.
  • an object of the present invention is to provide a display device for a portable terminal that can be easily operated by a user with only one hand.
  • the display device for a portable terminal controls a display unit, a housing, a first detection unit that detects a position where a touch operation is performed on the display unit, and the display content of the display unit.
  • a control unit that performs processing according to the position where the touch operation detected by the detection unit is performed.
  • the mobile terminal display device of the present invention includes an operation reception unit disposed within a predetermined range from an outer edge of the housing, and a second detection unit that detects a position where a touch operation is performed on the operation reception unit,
  • the display unit has a display area outside the predetermined range of the casing, and the control unit operates according to a position where the touch operation detected by the second detection unit is performed.
  • An image for designation for designating an input position is displayed on the display unit, and the control unit accepts a decision operation via the second detection unit, and an operation designated by the designation image when the decision operation is accepted Performs processing according to the input position.
  • the first detection unit detects an operation of the user trying to touch the display unit as a touch operation. That is, the touch operation includes not only actual contact with the display unit but also non-contact.
  • the non-contact touch operation is detected by, for example, attaching a capacitive touch panel or a photosensor to the display unit.
  • the display unit has a display area outside a predetermined range in the casing of the display device for mobile terminals.
  • the predetermined range is set to a range where the thumb of the gripped hand reaches when the user grips the casing with one hand. That is, the display unit has a display area in a range where the thumb of the gripped hand does not reach when the user grips the casing with one hand.
  • the operation reception unit is arranged within a range where the thumb can reach. The user can perform an operation on the operation receiving unit because the operation receiving unit is disposed within a range that the thumb can reach.
  • the designation image is a pointer
  • the operation input position designated by the pointer is a display position or a pointing position of the pointer.
  • the pointer is displayed on the display unit according to the position of the touch operation on the operation receiving unit.
  • the user can operate the portable terminal display device by changing the display position of the pointer by performing a touch operation on the operation reception unit.
  • the designation image is not limited to a pointer.
  • the designation image may be an image indicating that an operation input is performed.
  • the determination operation is, for example, a tap operation, a double tap operation, or a long press touch operation (an operation that keeps touching for a predetermined time) on the operation reception unit.
  • the display device for a portable terminal displays the designation image by accepting the operation input by the operation accepting unit arranged in a range where the thumb can reach, so that the operation input position designated by the designation image can be reached by the thumb. Even if there is no range, the determination operation is accepted at the operation input position. Therefore, the user can give the determination operation within the display area where the thumb does not reach, and cause the portable terminal display device to execute the process.
  • the display device for portable terminals may include a pressing detection unit that detects a pressing operation on the operation receiving unit, and the control unit may receive the pressing operation as a determining operation via the pressing detection unit.
  • the mobile terminal display device can prevent an operation not intended by the user by accepting the pressing operation as the determining operation.
  • the pressing detection unit may detect a pressing amount of the pressing operation, and the control unit may perform a process according to the pressing amount detected by the pressing detection unit.
  • the control unit performs the first process when the pressing amount is greater than or equal to the first threshold value and less than the second threshold value (however, greater than the first threshold value), and when the pressing amount is greater than or equal to the second threshold value, Two processes are performed.
  • the display device for portable terminals can process in steps based on the pressing amount.
  • the display device for a portable terminal may perform continuous processing such as adjusting the luminance of the display unit instead of stepwise.
  • the second detection unit may include a piezoelectric film formed of a chiral polymer.
  • Chiral polymer has a helical structure in the main chain.
  • the piezoelectric film when the piezoelectric film is pressed and a shear stress is applied to the crystal of the chiral polymer, and the shear deformation occurs due to the stress, a charge is generated on the film surface. Since the piezoelectric characteristics of the chiral polymer are due to the molecular structure, it is less pyroelectric than a ferroelectric polymer such as PVDF (polyvinylidene fluoride). Therefore, a piezoelectric film formed of a chiral polymer is suitable as a configuration of an operation receiving unit that transmits the temperature of a finger.
  • PVDF polyvinylidene fluoride
  • the chiral polymer may be polylactic acid, and the polylactic acid is preferably polylactic acid stretched at least in a uniaxial direction.
  • Polylactic acid has a high piezoelectric output constant among chiral polymers.
  • uniaxially stretched L-type polylactic acid (PLLA) can increase the piezoelectric output constant among polylactic acids.
  • the operation receiving unit can receive a pressing operation with high sensitivity.
  • the display unit and the operation receiving unit may be arranged in different areas, or may be arranged on the same plane side of the casing.
  • the display device for a mobile terminal controls the display content of the display unit, the housing, the detection unit that detects a position where the touch operation is performed on the display unit, and the display unit, and detects the detection unit A control unit that performs processing according to the position where the touch operation is performed.
  • the control unit displays an image for accepting an operation within a predetermined range from the outer edge of the housing, and the control unit accepts the operation received at the position where the touch operation detected by the detection unit is performed.
  • a designation image for designating an operation input position is displayed according to the image for use, and the control unit accepts a decision operation via the detection unit, and the designation image designates when the decision operation is accepted Performs processing according to the operation input position.
  • the display device for a portable terminal can be designated by touching the operation acceptance image without including the operation acceptance unit and the second detection unit to display the designation image. Display the image. For example, when an operation acceptance image indicating the right direction is touched, the display position of the designation image moves to the right. Therefore, the user can give an operation input even at an operation input position that is within the reach of the finger.
  • the user can operate with one hand while holding the mobile terminal display device with one hand.
  • FIG. 1 is an external perspective view of a mobile terminal 1 according to Embodiment 1.
  • FIG. FIG. 2A is a cross-sectional view of the mobile terminal 1 according to the first embodiment, taken along line AA
  • FIG. 2B is a plan view of the electrostatic sensor 12.
  • 2 is a cross-sectional view of the mobile terminal 1 according to Embodiment 1 taken along the line BB.
  • FIG. 1 is a block diagram illustrating a part of the configuration of a mobile terminal 1 according to a first embodiment.
  • (A) And (B) is a figure for demonstrating the operation pad 200L and the pointer 920, respectively.
  • (A) And (B) is a figure for demonstrating the usage example of operation pad 200R, respectively.
  • FIG. 4 is a flowchart showing the operation of the control unit 14 of the mobile terminal 1.
  • 4 is a flowchart showing the operation of the control unit 14 of the mobile terminal 1.
  • 6 is an external perspective view of a mobile terminal 2 according to Embodiment 2.
  • FIG. FIG. 6 is a cross-sectional view taken along the line CC of the mobile terminal 2 according to the second embodiment.
  • 6 is a block diagram showing a part of the configuration of a mobile terminal 2 according to Embodiment 2.
  • FIG. It is a figure for demonstrating the cross key 930L and the cross key 930R which are displayed on the portable terminal 2.
  • FIG. 4 is a flowchart showing the operation of the control unit 14 of the mobile terminal 1. It is a figure for demonstrating 2 A of portable terminals which concern on the modification of the portable terminal.
  • FIG. 1 is an external perspective view of the mobile terminal 1.
  • 2A is a cross-sectional view taken along the line AA of the mobile terminal 1
  • FIG. 2B is a plan view of the electrostatic sensor 12.
  • FIG. 3 is a cross-sectional view of the mobile terminal 1 taken along the line BB.
  • FIG. 4 is a block diagram illustrating a part of the configuration of the mobile terminal 1.
  • the mobile terminal 1 includes a housing 30 having a substantially rectangular parallelepiped shape.
  • the surface side of the housing 30 is opened at three locations.
  • the X direction shown in FIG. 1 is the width direction of the housing 30, the Y direction is the height direction, and the Z direction is the thickness direction.
  • the width of the housing 30 is shorter than the height of the housing 30 is shown.
  • the housing 30 may have the same width and height, or the width may be longer than the height.
  • the display input unit 10, the operation pad 200 ⁇ / b> L, and the operation pad 200 ⁇ / b> R are exposed to the outside through three opening portions of the housing 30. That is, the display input unit 10, the operation pad 200 ⁇ / b> L, and the operation pad 200 ⁇ / b> R are respectively arranged on the front surface (+ Z side surface) side of the housing 30.
  • the display input unit 10 is arranged on the upper part (the + Y side in FIG. 1) of the surface of the housing 30.
  • the operation pad 200L and the operation pad 200R are respectively disposed on the lower portion ( ⁇ Y side in FIG. 1) of the surface of the housing 30.
  • the operation pad 200L and the operation pad 200R are arranged in order in the width direction.
  • the display input unit 10 has a display area arranged farther from the corner EDG of the housing 30 than the operation pad 200L and the operation pad 200R.
  • the center position CTR of the display input unit 10 has a longer distance from the corner EDG than the positions of the operation pad 200L and the operation pad 200R.
  • the housing 30 has the display input unit 10 and the arithmetic circuit module 40 disposed therein.
  • the arithmetic circuit module 40 and the display input unit 10 are sequentially arranged in the thickness direction.
  • the arithmetic circuit module 40 realizes each functional unit of the mobile terminal 1.
  • the arithmetic circuit module 40 includes a position detection unit 13, a position detection unit 13L, a position detection unit 13R, a piezoelectric sensor result detection unit 21L, a piezoelectric sensor result detection unit 21R, a control unit 14, and a display.
  • the control unit 15 is realized.
  • a set of the control unit 14 and the display control unit 15 corresponds to the control unit of the present invention.
  • the display input unit 10 includes a display unit 11 and an electrostatic sensor 12.
  • the display unit 11 includes a liquid crystal panel 111, a front polarizing plate 112, a back polarizing plate 113, and a backlight 114, as shown in FIG.
  • the backlight 114, the back polarizing plate 113, the liquid crystal panel 111, the electrostatic sensor 12, and the front polarizing plate 112 are arranged so as to overlap each other in the thickness direction.
  • the electrostatic sensor 12 includes a base film 121, a plurality of capacitance detection electrodes 122, and a plurality of capacitance detection electrodes 123.
  • the base film 121 is made of a material having translucency and a predetermined dielectric constant.
  • Each of the plurality of capacitance detection electrodes 122 and the plurality of capacitance detection electrodes 123 has a long shape and is made of a light-transmitting conductive material.
  • the plurality of capacitance detection electrodes 122 are arranged on the first main surface (the surface on the + Z side) of the base film 121 at a predetermined interval.
  • the plurality of capacitance detection electrodes 123 are arrayed on the second main surface (the surface on the ⁇ Z side) of the base film 121 at a predetermined interval.
  • the arrangement direction of the plurality of capacitance detection electrodes 122 and the arrangement direction of the plurality of capacitance detection electrodes 123 are approximately when viewed from the normal direction of the first main surface or the second main surface of the base film 121. It is set to be orthogonal.
  • the position detection unit 13 detects the touch position by specifying a set of the capacitance detection electrode 122 and the capacitance detection electrode 123 whose capacitance has changed. That is, the set of the position detection unit 13 and the electrostatic sensor 12 corresponds to the first detection unit of the present invention.
  • the change in capacitance can be detected even if the finger is not actually in contact with the surface polarizing plate 112.
  • the touch position can be detected by using an optical sensor that detects the approach of the finger to the surface polarizing plate 112 instead of the electrostatic sensor 12.
  • the light output from the backlight 114 sequentially passes through the rear polarizing plate 113, the liquid crystal panel 111, the electrostatic sensor 12, and the front polarizing plate 112.
  • the liquid crystal panel 111 transmits the received light as it is or with the vibration direction changed (polarized) as controlled by the display control unit 15.
  • the display content of the display unit 11 is changed by controlling the backlight 114 and the liquid crystal panel 111.
  • the control unit 14 performs various processes according to the touch position received by the electrostatic sensor 12 of the display input unit 10. Information on processing related to display is output from the control unit 14 to the display control unit 15.
  • the display control unit 15 controls the display unit 11 of the display input unit 10 so that the display content according to the processing information related to the display output from the control unit 14 is obtained.
  • the mobile terminal 1 realizes a so-called GUI (; Graphical User Interface).
  • the operation pad 200L and the operation pad 200R are only different in arrangement and have the same configuration. Further, the piezoelectric sensor result detection unit 21L and the piezoelectric sensor result detection unit 21R have the same functions that are realized only by the difference in the connected piezoelectric sensor 20.
  • the position detection unit 13L and the position detection unit 13R are different from each other only in the connected electrostatic sensor 12A, and have the same functions. Therefore, only the combination of the operation pad 200L, the piezoelectric sensor result detection unit 21L, and the position detection unit 13L will be described. Note that the combination of the electrostatic sensor 12A and the position detection unit 13L of the operation pad 200L or the combination of the electrostatic sensor 12A and the position detection unit 13R of the operation pad 200R corresponds to a second detection unit of the present invention.
  • the operation pad 200L includes an electrostatic sensor 12A, a piezoelectric sensor 20, a protective film 124, and an insulating film 125 as shown in FIG.
  • the piezoelectric sensor 20, the insulating film 125, the electrostatic sensor 12A, and the protective film 124 are sequentially stacked in the thickness direction. However, the arrangement of the piezoelectric sensor 20 and the electrostatic sensor 12A may be reversed.
  • the electrostatic sensor 12A includes a base film 121A, a plurality of capacitance detection electrodes 122A, and a plurality of capacitance detection electrodes 123A.
  • the electrostatic sensor 12A is different from the electrostatic sensor 12 in that the planar shape is different.
  • the position detection unit 13L is different from the position detection unit 13 in that the touch position on the electrostatic sensor 12A is detected.
  • the position detection unit 13L outputs information of the detected touch position to the control unit 14.
  • the protective film 124 has an insulating property and covers the electrostatic sensor 12A.
  • the insulating film 125 is disposed to insulate the electrostatic sensor 12 ⁇ / b> A from the piezoelectric sensor 20.
  • the piezoelectric sensor 20 includes a piezoelectric film 201, a piezoelectric detection electrode 202, and a piezoelectric detection electrode 203 as shown in FIG.
  • the piezoelectric film 201, the piezoelectric detection electrode 202, and the piezoelectric detection electrode 203 each have a flat film shape.
  • the piezoelectric film 201 has substantially the same planar shape as the base film 121A of the electrostatic sensor 12A.
  • the piezoelectric detection electrode 202 is formed on the first main surface (+ Z side surface) of the piezoelectric film 201.
  • the piezoelectric detection electrode 203 is formed on the second main surface (the surface on the ⁇ Z side) of the piezoelectric film 201.
  • the piezoelectric film 201 is made of, for example, uniaxially stretched polylactic acid and has translucency. For example, when the piezoelectric film 201 is pressed in the ⁇ Z direction, electric charges are generated on the first main surface and the second main surface. A potential difference between the piezoelectric detection electrode 202 and the piezoelectric detection electrode 203 is generated by generating charges on the first main surface and the second main surface of the piezoelectric film 201.
  • the level of the potential difference (for example, mV) corresponds to the pressing amount (or the pressing amount, for example, several tens of ⁇ m) of the piezoelectric film 201.
  • the piezoelectric sensor 20 outputs a potential difference between the piezoelectric detection electrode 202 and the piezoelectric detection electrode 203 as a sensor signal.
  • the sensor signal output from the piezoelectric sensor 20 is input to the piezoelectric sensor result detection unit 21L as shown in FIG.
  • the piezoelectric sensor result detection unit 21L obtains the level LSS (mV) of the input sensor signal.
  • the piezoelectric sensor result detection unit 21L determines whether or not there is a pressing operation on the operation pad 200L according to the obtained level LSS. For example, if the level LSS is less than 20 mV, the piezoelectric sensor result detection unit 21L determines that no pressing operation has been performed on the operation pad 200L.
  • the piezoelectric sensor result detection unit 21L determines that a pressing operation has been performed on the operation pad 200L. Since the piezoelectric sensor result detection unit 21L determines the presence or absence of the pressing operation based on the threshold value, it becomes easy to distinguish the touch operation and the pressing operation on the operation pad 200L. The piezoelectric sensor result detection unit 21L outputs information on the presence or absence of a pressing operation to the control unit 14.
  • control unit 14 receives information on the touch position on the operation pad 200L and information on the presence or absence of a pressing operation. Similarly, the control unit 14 also receives information on a touch position on the operation pad 200R and information on the presence or absence of a pressing operation.
  • the control unit 14 performs various processes based on information input from the position detection unit 13, the position detection unit 13L, the position detection unit 13R, the piezoelectric sensor result detection unit 21L, and the piezoelectric sensor result detection unit 21R.
  • the user holds the portable terminal 1 at the lower part of the housing 30 as shown in FIG.
  • the user performs an operation by touching the icon 903 displayed on the display input unit 10 with the thumb LTHS while holding the mobile terminal 1.
  • the position detection unit 13 corresponding to the display input unit 10 outputs touch position information to the control unit 14.
  • the control part 14 performs the process according to a touch position.
  • the control unit 14 performs processing associated with the icon 903 displayed at the touch position (for example, execution of an application or display of a submenu).
  • GUI can be realized by such a portable terminal 1.
  • FIGS. 5A and 5B are diagrams for explaining the operation pad 200L and the pointer 920 (corresponding to the designation image of the present invention), respectively.
  • FIGS. 6A and 6B are diagrams for explaining usage examples of the operation pad 200R.
  • FIGS. 7A, 7B, and 8 are flowcharts showing the operation of the control unit 14, respectively.
  • the control unit 14 executes the processing of the flowchart of FIG. 7A, the processing of the flowchart of FIG. 7B, and the processing of the flowchart of FIG. 8 in parallel.
  • the flowchart shown in FIG. 7A shows the operation of the control unit 14 regarding the display processing of the pointer 920.
  • the control unit 14 determines whether or not a touch operation is performed on the operation pad 200L (S11). Specifically, the control unit 14 acquires information on the touch position from the position detection unit 13L, and determines whether or not a touch operation is performed on the operation pad 200L. When the touch operation is performed on the operation pad 200L (S11: YES), the control unit 14 proceeds to step S12. When the touch operation on the operation pad 200L is not performed (S11: NO), the control unit 14 stands by.
  • the control unit 14 determines whether the pointer 920 is already displayed (S12). However, whether or not the pointer 920 is displayed is obtained by inquiring the display control unit 15 (S12). When the pointer 920 is displayed (S12: YES), the control unit 14 proceeds to step S14. If the pointer 920 is not displayed (S12: NO), the control unit 14 proceeds to step S13.
  • the control unit 14 When the pointer 920 is not displayed (S12: NO), the control unit 14 outputs information on processing for initially displaying the pointer 920 to the display control unit 15 (S13). Then, the display control unit 15 displays a pointer 920 at a predetermined position (for example, the center position CTR) as shown in FIG. 5A, for example. Then, the control unit 14 proceeds to step S14.
  • a predetermined position for example, the center position CTR
  • the control unit 14 determines whether the operation accepted by the operation pad 200L is a pan operation (S14).
  • the control unit 14 determines that the pan operation is performed on the operation pad 200L when the position detection unit 13L continues to detect the touch position where the position detection unit 13L changes, for example, for 0.2 seconds (S14: YES). Proceed to step S15. That is, the pan operation is an operation of moving the finger while touching the operation pad 200L.
  • the control unit 14 determines that the pan operation is not performed (S14: NO), and ends the process (end).
  • the case where the pan operation is not performed is a case where the tap operation is performed, or a case where the finger leaves the operation pad 200L after the pan operation.
  • control unit 14 determines that the operation received on the operation pad 200L is a pan operation (S14: YES)
  • the control unit 14 obtains a movement vector in order to change the display position of the pointer 920 (S15).
  • the movement vector corresponds to the change of the touch position.
  • the control unit 14 obtains the touch position information again from the position detection unit 13L after waiting for 0.1 seconds, for example, and obtains a change in the touch position. Then, the control unit 14 obtains a change in the touch position (for example, a vector of 1 cm in the + Y direction) as a movement vector.
  • control part 14 outputs the information of the process which changes the display position of the pointer 920 based on the calculated
  • a predetermined ratio for example, less than 1 time or 1 time or more.
  • the control part 14 will return to step S14, after finishing step S16. That is, the control unit 14 changes the display position of the pointer 920 according to the change in the touch position while the pan operation is performed. Accordingly, as illustrated in FIG. 5B, for example, when the thumb LTHB slides along the locus 921 (continuous pan operation) on the operation pad 200L, the mobile terminal 1 moves the pointer 920 (t) along the locus 922. The display is moved to the position of the pointer 920 (t + 1).
  • the control unit 14 outputs, to the display control unit 15, information on processing for turning off the display of the pointer 920 when the touch position information is not input from the position detection unit 13 ⁇ / b> L for a predetermined time (for example, 5 seconds) or longer.
  • FIG. 7B shows the operation of the control unit 14 that accepts a pressing operation on the operation pad 200L as a determining operation.
  • the control unit 14 determines whether or not there is a pressing operation (S21). Specifically, the control unit 14 acquires information on the presence or absence of the pressing operation from the piezoelectric sensor result detection unit 21L, and determines whether or not the pressing operation is performed on the operation pad 200L. If the control unit 14 determines that the pressing operation is performed on the operation pad 200L (S21: YES), the control unit 14 proceeds to step S22. When it is determined that the pressing operation is not performed on the operation pad 200L (S21: NO), the control unit 14 stands by.
  • the control unit 14 determines that a pressing operation is performed on the operation pad 200L (S21: YES)
  • the control unit 14 acquires the display position of the pointer 920 (S22).
  • the display position of the pointer 920 is obtained by inquiring the display control unit 15.
  • control unit 14 performs processing according to the position pointed to by the pointer 920 (corresponding to the operation input position designated by the designation image of the present invention) (S23). For example, when the pointer 920 (t + 1) is displayed so as to point to the icon 902 as shown in FIG. 5B, the control unit 14 performs processing (application execution or the like) associated with the icon 902. Do.
  • the control unit 14 performs a process according to the display position of the pointer 920.
  • the user moves the pointer 920 within the display area of the display unit 11 by panning the operation pad 200L, gives a pressing operation to the operation pad 200L as a determination operation, and performs processing according to the display position of the pointer 920. It can be executed by the mobile terminal 1. Accordingly, by operating the operation pad 200L, the user can give an operation input only to the thumb LTHB to the icons 901, 902, and the menu icons 911 to 914 that the thumb LTHS does not reach.
  • the mobile terminal 1 does not perform processing corresponding to the icon 904 unless a pressing operation is given as a determination operation. Therefore, the portable terminal 1 can prevent execution of processing due to a user's erroneous operation. Moreover, since the pressing operation is clearly different from the tap operation or the like, the mobile terminal 1 can easily prevent the erroneous recognition of the determination operation compared to the case where the tap operation or the like is the pressing operation.
  • step S16 the control unit 14 does not output information on the process of changing the display position of the pointer 920 in accordance with the change in the touch position, but moves the pointer 920 to the display position in accordance with the input touch position itself.
  • Information on a process for displaying may be output.
  • the control unit 14 converts the touch position on the operation pad 200L into a display position on the display input unit 10, and outputs information on processing for displaying the pointer 920 at the converted display position.
  • the conversion from the touch position to the display position is performed, for example, by referring to a position conversion table in which the control unit 14 associates the touch position with the display position.
  • the position conversion table is stored in the mobile terminal 1 in advance.
  • the mobile terminal 1 displays the pointer 920 at the right position (+ X side position) of the display input unit 10.
  • the above-described position conversion table may associate only the touch position on the operation pad 200L with the upper display position of the display input unit 10 (for example, the upper display position from the center position CTR).
  • the mobile terminal 1 does not display the pointer 920 in the entire display area of the display input unit 10 but displays the pointer 920 only in the upper display area of the display input unit 10. That is, the pointer 920 is displayed only in a range where the finger is difficult to reach.
  • the pointer 920 is displayed as the designation image, but the designation image is not limited to the pointer 920.
  • the designation image may be an image indicating that an operation input is performed.
  • control unit 14 may acquire level LSS information from the piezoelectric sensor result detection unit 21L, and perform processing according to the display position of the pointer 920 and the acquired level LSS.
  • the control unit 14 executes an application associated with the icon indicated by the pointer 920, and when the level LSS is 40 mV to 60 mV, Information on processing for enlarging or reducing the display screen around the position indicated by the pointer 920 may be output to the display control unit 15.
  • the control unit 14 may output, for example, processing information for changing the drawing speed of enlargement or reduction of the display screen with the position indicated by the pointer 920 as the center.
  • the association between the level LSS and the process to be executed may be set in the mobile terminal 1 in advance, or may be set by the user through the GUI.
  • control unit 14 may perform processing using a continuous amount according to the level LSS, instead of changing the processing step by step according to the level LSS.
  • control unit 14 may output information on processing for setting the luminance of the backlight 114 to a value corresponding to the level LSS, or a volume value of a speaker (not shown) may be set to a value corresponding to the level LSS. Good.
  • the piezoelectric sensor 20 detects that a tap operation, a double tap operation, or a long press operation (an operation that keeps touching for a predetermined time) is performed on the operation pad 200L, and performs a tap operation, a double tap operation, or You may perform the process according to the display position of the pointer 920 when long press operation is performed.
  • the portable terminal 1 performs processing for the menu icons 911 to 914 in accordance with the operation received on the operation pad 200R.
  • the control unit 14 determines whether or not a touch operation is performed on the operation pad 200R (S31). Specifically, the control unit 14 acquires information on the touch position from the position detection unit 13R corresponding to the operation pad 200R, and determines whether or not a touch operation is performed on the operation pad 200R. When the touch operation is performed on the operation pad 200R (S31: YES), the control unit 14 proceeds to step S32. When the touch operation on the operation pad 200R is not performed (S31: NO), the control unit 14 stands by.
  • the control unit 14 When the touch operation is performed on the operation pad 200R (S31: YES), the control unit 14 outputs information of processing for highlighting the menu icon corresponding to the touch position to the display control unit 15 (S32).
  • the menu icon to be highlighted is obtained by the control unit 14 referring to a menu icon conversion table in which the touch position on the operation pad 200R and the menu icons 911 to 914 are associated with each other.
  • the menu icon conversion table is stored in the mobile terminal 1 in advance.
  • the mobile terminal 1 displays the shape of the menu icon 913 corresponding to the position 923 in a large size.
  • FIG. 6B when the lower left position 924 on the operation pad 200R is subsequently touched, the mobile terminal 1 does not highlight the menu icon 913, and the menu icon 912 corresponding to the position 924 is displayed. To highlight.
  • This highlighting also corresponds to the designation image of the present invention.
  • the display position of the highlighted menu icon also corresponds to the operation input position designated by the designation image of the present invention.
  • the control unit 14 determines whether or not there is a pressing operation (S33). Specifically, the control unit 14 acquires information on the presence or absence of a pressing operation from the piezoelectric sensor result detection unit 21R, and determines whether or not the pressing operation is performed on the operation pad 200R. If the control unit 14 determines that a pressing operation has been performed on the operation pad 200R (S33: YES), the control unit 14 proceeds to step S34. When it is determined that the pressing operation is not performed on the operation pad 200R (S33: NO), the control unit 14 ends the process (end).
  • control unit 14 determines that the pressing operation is performed on the operation pad 200R (S33: YES)
  • the control unit 14 performs a process according to the highlighted menu icon (S34).
  • the control unit 14 asks the display control unit 15 to obtain the highlighted menu icon.
  • the control unit 14 executes the application associated with the menu icon 912 (S34).
  • the control unit 14 may acquire level LSS information from the piezoelectric sensor result detection unit 21R and perform processing according to the acquired level LSS. For example, when the menu icon 912 is highlighted and the acquired level LSS is 20 mV to 40 mV, the control unit 14 outputs and acquires processing information for displaying an application setting screen associated with the menu icon 912. When the level LSS is 40 mV to 60 mV, the processing information for displaying the submenu associated with the menu icon 912 is output. When the menu icon 912 is highlighted and the acquired level LSS is 60 mV or higher, the control unit 14 hides the menu icons 911 to 914 and displays the area where the menu icons 911 to 914 are displayed. Information on processing for displaying other icons may be output.
  • the user can give an operation to the menu icons 911 to 914 in one operation by pressing the operation pad 200R while touching it.
  • the piezoelectric film 201 is a film formed from a chiral polymer.
  • polylactic acid (PLA) particularly L-type polylactic acid (PLLA) is used as the chiral polymer.
  • PLLA is uniaxially stretched.
  • the uniaxially stretched PLLA generates an electric charge when the flat surface of the piezoelectric film is pressed. At this time, the amount of generated charge depends on the amount of displacement by which the flat plate surface is displaced in the direction perpendicular to the flat plate surface by the pressing amount (pushing amount).
  • PLLA is suitable for the piezoelectric sensor 20 because it belongs to a very high piezoelectric constant among polymers.
  • PLLA Since PLLA generates piezoelectricity by molecular orientation treatment such as stretching, it is not necessary to perform poling treatment like other polymers such as PVDF and piezoelectric ceramics. That is, the piezoelectricity of PLLA that does not belong to a ferroelectric material is derived from a helical structure that is a characteristic structure of molecules. For this reason, the pyroelectricity generated in other ferroelectric piezoelectric materials does not occur in PLLA. Therefore, the PLLA is suitable for a configuration in which the temperature of a finger is transmitted by a touch operation like the piezoelectric sensor 20 (display input unit 10).
  • the piezoelectric sensor 20 may use a piezoelectric film 201 made of, for example, PVDF.
  • FIG. 9 is an external perspective view of the mobile terminal 2.
  • FIG. 10 is a cross-sectional view taken along the line CC.
  • FIG. 11 is a block diagram illustrating a part of the configuration of the mobile terminal 2.
  • the mobile terminal 2 is different from the mobile terminal 1 in that the mobile terminal 1 receives an operation from the user with the display input unit 10, the operation pad 200L, and the operation pad 200R, whereas the display input unit 10A receives an operation from the user. Is different. A description of the same configuration as that of the mobile terminal 1 is omitted.
  • the mobile terminal 2 includes a display input unit 10A, a housing 30A, and an arithmetic circuit module 40A.
  • the mobile terminal 2 has one opening on the surface as shown in FIG.
  • the area of the opening is slightly smaller than the surface of the housing 30A.
  • the area of the display input unit 10A is substantially the same as the area of the opening on the surface of the housing 30A.
  • the display input unit 10A includes a display unit 11A, an electrostatic sensor 12B, a piezoelectric sensor 20A, and an insulating film 125A.
  • the display unit 11 ⁇ / b> A is different from the display unit 11 in that the area is larger than the area of the display unit 11.
  • the area of the display unit 11A is substantially the same as the area of the opening on the surface of the housing 30A. That is, the areas of the liquid crystal panel 111A, the front polarizing plate 112A, the rear polarizing plate 113A, and the backlight 114A are substantially the same as the area of the opening on the surface of the housing 30A.
  • the piezoelectric sensor 20A is different from the piezoelectric sensor 20 in that it has a larger area than the piezoelectric sensor 20 and has translucency.
  • the piezoelectric sensor 20A has substantially the same area as the opening on the surface of the housing 30A. That is, the areas of the piezoelectric film 201A, the piezoelectric detection electrode 202A, and the piezoelectric detection electrode 203A are substantially the same as the area of the opening on the surface of the housing 30A.
  • the piezoelectric film 201A is made of PLLA and has translucency.
  • the piezoelectric detection electrode 202A and the piezoelectric detection electrode 203A are each formed of any one of an organic electrode mainly composed of ITO, ZnO, and polythiophene, an organic electrode mainly composed of polyaniline, a silver nanowire electrode, and a carbon nanotube electrode. , Has translucency.
  • the backlight 114A, the back polarizing plate 113A, the liquid crystal panel 111A, the piezoelectric sensor 20A, the insulating film 125A, the electrostatic sensor 12B, and the surface polarizing plate 112A are arranged so as to overlap each other in the thickness direction.
  • the piezoelectric sensor 20A and the electrostatic sensor 12B may be arranged in reverse.
  • the piezoelectric sensor 20A Since the piezoelectric sensor 20A has translucency, even if it is arranged on the + Z side with respect to the arrangement of the backlight 114A, transmission of light is not hindered.
  • PLLA is made of a chiral polymer and therefore has a higher light transmissivity than PVDF or the like. Therefore, the piezoelectric film 201A made of PLLA is suitable for a configuration in which the piezoelectric film 201A is arranged on the + Z side from the arrangement of the backlight 114A.
  • the touch position on the display input unit 10A is detected by a combination of the electrostatic sensor 12B and the position detection unit 13A.
  • the pressing operation and the pressing amount for the display input unit 10A are detected by a pair of the piezoelectric sensor 20A and the piezoelectric sensor result detection unit 21A.
  • Information on the touch position in the display area of the display input unit 10A, the presence / absence of a pressing operation, and the pressing amount (level LSS) is input to the control unit 14 as illustrated in FIG.
  • the control unit 14 performs various processes based on the input information.
  • Such a portable terminal 2 can realize the following GUI.
  • FIG. 12 is a diagram for explaining the cross key 930L and the cross key 930R displayed on the mobile terminal 2.
  • FIG. FIG. 13 is a flowchart showing the operation of the control unit 14 of the mobile terminal 2.
  • the portable terminal 2 displays the cross key 930L and the cross key 930R in a range where the user's finger can reach in the display area of the display input unit 10A.
  • the mobile terminal 2 displays the cross key 930L and the cross key 930R in the lower ( ⁇ Y side) area of the display input unit 10A.
  • the cross key 930L and the cross key 930R include a key 931L, a key 931R, a key 931C, a key 931U, and a key 931B (hereinafter, collectively referred to as a key 931).
  • the control unit 14 determines which display area the touch position belongs to (S41). Note that the display area to which the touch position belongs is obtained by the control unit 14 inquiring of the display control unit 15.
  • step S51 When the touch position belongs to the display area of the cross key 930L (S41: display area of the cross key 930L), the control unit 14 proceeds to step S51. If the touch position belongs to the display area of the cross key 930R (S41: display area of the cross key 930R), the control unit 14 proceeds to step S61. When the touch position belongs to a region other than the display area of the cross key 930L and the cross key 930R (S41: display area other than the cross key), the control unit 14 proceeds to step S42.
  • the touch position belongs to a region other than the display area of the cross key 930L and the cross key 930R (S41: display area other than the cross key), for example, the process associated with the icon displayed at the touch position (S42).
  • the control unit 14 determines whether or not the key 931C of the cross key 930L is touched (S51). If the controller 14 determines that the key 931C of the cross key 930L has been touched (S51: YES), the controller 14 proceeds to step S53. If the controller 14 determines that a key 931 other than the key 931C of the cross key 930L has been touched (S51: NO), the process proceeds to step S52.
  • control unit 14 determines that a key 931 other than the key 931C of the cross key 930L is touched (S51: NO)
  • the control unit 14 outputs processing information for changing the display position of the pointer 920 according to the touched key 931. (S52).
  • the control unit 14 when the touched key is the key 931L of the cross key 930L, the control unit 14 outputs processing information for changing the display position of the pointer 920 to the left position by 1 mm.
  • the control unit 14 when the information on the touch position that overlaps the display position of the key 931L of the cross key 930L is continuously input from the position detection unit 13A (for example, for 0.3 seconds), the control unit 14 further sets the display position of the pointer 920 to 1 mm. Information on processing to be displayed by changing to the left position may be output. Thereby, the user can continue to move the display position of the pointer 920 to the left by continuing to touch the key 931L of the cross key 930L.
  • step S51 and step S52 when the key 931U of the cross key 930L is touched, the control unit 14 changes the display position of the pointer 920 upward, and when the key 931R of the cross key 930L is touched, When the display position is changed to the right and the key 931 ⁇ / b> B of the cross key 930 ⁇ / b> L is touched, the display position of the pointer 920 is changed downward to output processing information.
  • the control unit 14 determines whether or not there is a pressing operation on the display input unit 10A (S53). Specifically, the control unit 14 acquires information on the presence or absence of a pressing operation from the piezoelectric sensor result detection unit 21A, and determines whether or not there is a pressing operation. When the control unit 14 determines that the pressing operation is performed on the display input unit 10A (S53: YES), the control unit 14 proceeds to step S54. When it is determined that the pressing operation is not performed on the display input unit 10A (S53: NO), the control unit 14 ends the process (end).
  • control unit 14 determines that the pressing operation is performed on the display input unit 10A (S53: YES)
  • the control unit 14 performs processing according to the display position of the pointer 920 (S54).
  • the control unit 14 executes the application associated with the icon 902.
  • the control unit 14 determines whether or not the key 931C of the cross key 930R is touched (S61). If the controller 14 determines that the key 931C of the cross key 930R has been touched (S61: YES), the controller 14 proceeds to step S63. If the control unit 14 determines that any key 931 other than the key 931C of the cross key 930R has been touched (S61: NO), the process proceeds to step S62.
  • controller 14 determines that a key 931 other than the key 931C of the cross key 930R is touched (S61: NO)
  • the controller 14 selects any one of the menu icons 911 to 914 according to the touched key 931.
  • Information on processing to be highlighted is output (S62).
  • the control unit 14 outputs processing information for highlighting the menu icon 911.
  • the control unit 14 highlights the menu icon displayed at the left position from the menu icon. The information of is output.
  • the control unit 14 moves right, up, or from the menu icon. Outputs processing information for highlighting the menu icon displayed at the lower position.
  • the control unit 14 determines whether or not there is a pressing operation on the display input unit 10A (S63). Specifically, the control unit 14 acquires information on the presence or absence of a pressing operation from the piezoelectric sensor result detection unit 21A, and determines whether or not there is a pressing operation. When the control unit 14 determines that the pressing operation is performed on the display input unit 10A (S63: YES), the control unit 14 proceeds to step S64. When it is determined that the pressing operation is not performed on the display input unit 10A (S63: NO), the control unit 14 ends the process (end).
  • control unit 14 When it is determined that there is a pressing operation on the display input unit 10A (S63: YES), the control unit 14 performs a process according to the highlighted menu icon (S64).
  • Operation input can be performed on the icons 901, the icons 902, and the menu icons 911 to 914. Further, similarly to the mobile terminal 1, the user can perform an operation input on the menu icons 911 to 914 with one operation.
  • control part 14 may perform the process according to the level LSS acquired from 21 A of piezoelectric sensor result detection parts in step S54 and step S64.
  • FIG. 14 is a diagram for explaining a mobile terminal 2A according to a modification of the mobile terminal 2.
  • the mobile terminal 2A is different from the mobile terminal 2 in that the cross key 930L and the cross key 930R are not displayed and the pointer 920 is not always displayed.
  • the portable terminal 2A displays a pointer 920 when a position 925 is pressed and a level LSS of a predetermined size or more is detected.
  • the position 925 is not limited to the position shown in FIG. 14 and may be any position in the display input unit 10A.
  • the mobile terminal 2A changes the display position of the pointer 920 according to the change in the touch position.
  • the mobile terminal 2A When the mobile terminal 2A detects a larger level LSS, the mobile terminal 2A performs a process associated with each of the icon 901, the icon 902, and the menu icons 911 to 914 indicated by the pointer 920.

Abstract

 携帯端末用表示装置は、前記筐体の外縁から所定の範囲内に配置される操作受付部と、前記操作受付部に対するタッチ操作がなされた位置を検知する第2検知部と、を備え、前記表示部は、前記筐体のうち前記所定の範囲外に表示領域を有し、前記制御部は、前記第2検知部で検知したタッチ操作がなされた位置に応じて、操作入力位置を指定する指定用画像を前記表示部に表示させ、前記制御部は、前記第2検知部を介して決定操作を受け付け、該決定操作を受け付けたときに前記指定用画像が指定する操作入力位置に応じた処理を行う。携帯端末用表示装置は、親指が届く範囲に配置される操作受付部で操作入力を受け付けて指定用画像を表示することにより、親指の届かない範囲にある操作入力位置で決定操作を受け付ける。

Description

携帯端末用表示装置
 本発明は、液晶ディスプレイ等の表示部と、タッチパネルとを備える携帯端末用表示装置に関するものである。
 従来、ユーザの指の接触を検知するセンサと枠体とからなるタッチパネルと、各種画面を表示する表示部と、を備える携帯端末が知られている。
 例えば、特許文献1に示すスマートフォンは、タッチパネルで受け付けたユーザの指の接触位置に応じてディスプレイの表示内容を変更し、所謂、GUI(;Graphical User Interface)を実現している。
 ユーザは、特許文献1に示すようなスマートフォンを片手で把持しながら把持した手の親指で操作することができる。
特開2013-97400号公報
 しかしながら、特許文献1に示すスマートフォンは、片手で把持しながら親指だけでは、操作が困難な場合がある。例えば、特許文献1に示すように、ユーザがスマートフォンを左手で把持し、左手の親指でタッチパネルに対して操作を行う場合、タッチパネルの上部に届かないことがある。この場合、特に、タッチパネルの右側上部は、把持している部分から最も遠いため、親指が届きにくい。
 また、タッチパネルは、大きくなるにつれて、指が届かない範囲が広がる。さらには、手の小さなユーザは、他のユーザに比べて、指が届かない範囲が広い。
 そこで、本発明の目的は、ユーザが片手だけでも簡単に操作可能な携帯端末用表示装置を提供することにある。
 本発明の携帯端末用表示装置は、表示部と、筐体と、前記表示部に対するタッチ操作がなされた位置を検知する第1検知部と、前記表示部の表示内容を制御し、前記第1検知部で検知したタッチ操作がなされた位置に応じた処理を行う制御部と、を備える。
 さらに、本発明の携帯端末用表示装置は、前記筐体の外縁から所定の範囲内に配置される操作受付部と、前記操作受付部に対するタッチ操作がなされた位置を検知する第2検知部と、を備え、前記表示部は、前記筐体のうち前記所定の範囲外に表示領域を有し、前記制御部は、前記第2検知部で検知したタッチ操作がなされた位置に応じて、操作入力位置を指定する指定用画像を前記表示部に表示させ、前記制御部は、前記第2検知部を介して決定操作を受け付け、該決定操作を受け付けたときに前記指定用画像が指定する操作入力位置に応じた処理を行う。
 第1検知部は、ユーザが表示部に触ろうとする操作をタッチ操作として検知する。すなわち、タッチ操作は、表示部に対する実接触に限らず、非接触も含む。非接触のタッチ操作は、例えば静電容量方式のタッチパネル又は光センサを表示部に備え付けることにより検知される。
 表示部は、携帯端末用表示装置の筐体のうち所定の範囲外に表示領域を有する。所定の範囲は、ユーザが筐体を片手で把持した時、把持した手の親指が届く範囲に設定される。すなわち、表示部は、ユーザが筐体を片手で把持した時、把持した手の親指が届かない範囲に表示領域を有する。一方、操作受付部は、親指が届く範囲内に配置される。ユーザは、操作受付部が親指の届く範囲内に配置されるため、操作受付部に対して操作を行うことができる。
 例えば、指定用画像とは、ポインタであり、ポインタが指定する操作入力位置とは、ポインタの表示位置や指し示す位置である。ポインタは、操作受付部に対するタッチ操作の位置に応じて表示部に表示される。ユーザは、操作受付部に対してタッチ操作を行うことにより、ポインタの表示位置を変更して携帯端末用表示装置を操作することができる。なお、指定用画像は、ポインタに限らない。指定用画像は、操作入力がされることを示す画像であればよい。
 決定操作は、例えば操作受付部に対するタップ操作、ダブルタップ操作又は長押しタッチ操作(所定時間タッチし続ける操作)である。
 本発明の携帯端末用表示装置は、親指が届く範囲に配置される操作受付部で操作入力を受け付けて指定用画像を表示することにより、該指定用画像が指定する操作入力位置が親指の届かない範囲であっても、該操作入力位置で決定操作を受け付ける。したがって、ユーザは、親指が届かない表示領域内で決定操作を与えて携帯端末用表示装置に処理を実行させることができる。
 また、携帯端末用表示装置は、前記操作受付部に対する押圧操作を検知する押圧検知部、を備え、前記制御部は、前記押圧検知部を介して前記押圧操作を決定操作として受け付けてもよい。
 押圧操作は、タッチ操作とは異なる操作であるため、タップ操作等と区別して認識されやすい。そこで、携帯端末用表示装置は、押圧操作を決定操作として受け付けることにより、ユーザの意図しない操作を防止できる。
 また、前記押圧検知部は、前記押圧操作の押圧量を検知し、前記制御部は、前記押圧検知部で検知した前記押圧量に応じた処理を行ってもよい。
 例えば、制御部は、押圧量が第1閾値以上第2閾値(ただし、第1閾値よりも大きい値)未満の場合に、第1処理を行い、押圧量が第2閾値以上の場合に、第2処理を行う。このように、携帯端末用表示装置は、押圧量に基づいて、段階的に処理を行うことができる。無論、携帯端末用表示装置は、段階的ではなく、表示部の輝度を調整する等、連続的な処理を行ってもよい。
 また、前記第2検知部は、キラル高分子によって形成された圧電フィルムを有してもよい。
 キラル高分子は、主鎖が螺旋構造を有する。キラル高分子は、圧電フィルムが押圧されて、キラル高分子の結晶にずり応力が加わり、この応力によってずり変形が生じると、フィルム表面に電荷を発生する。キラル高分子の圧電特性は、分子の構造に起因するため、PVDF(ポリフッ化ビニリデン)等の強誘電体のポリマーに比べて、焦電性がない。したがって、キラル高分子によって形成された圧電フィルムは、指の温度が伝わってしまう操作受付部の構成として好適である。
 前記キラル高分子は、ポリ乳酸であってもよいし、前記ポリ乳酸は、少なくとも一軸方向に延伸されたポリ乳酸が好ましい。
 ポリ乳酸(PLA)は、キラル高分子の中でも圧電出力定数が高い。特に一軸延伸されたL型ポリ乳酸(PLLA)は、ポリ乳酸の中でも圧電出力定数を高くすることができる。このような圧電出力定数が高い材料を用いることにより、操作受付部は、感度よく押圧操作を受け付けることができる。
 また、前記表示部と前記操作受付部とは、それぞれ別の領域に配置されてもよいし、それぞれ前記筐体の同一平面側に配置されてもよい。
 また、携帯端末用表示装置は、表示部と、筐体と、前記表示部に対するタッチ操作がなされた位置を検知する検知部と、前記表示部の表示内容を制御し、前記検知部で検知したタッチ操作がなされた位置に応じた処理を行う制御部と、を備える。
 そして、前記制御部は、前記筐体の外縁から所定の範囲内に操作受付用画像を表示させ、前記制御部は、前記検知部が検知したタッチ操作がなされた位置に表示されている操作受付用画像に応じて、操作入力位置を指定する指定用画像を表示させ、前記制御部は、前記検知部を介して決定操作を受け付け、該決定操作を受け付けたときに前記指定用画像が指定する操作入力位置に応じた処理を行う。
 すなわち、この構成によれば、携帯端末用表示装置は、指定用画像を表示させるために操作受付部と第2検知部とを備えなくても、操作受付用画像がタッチされることにより、指定用画像を表示する。例えば、右方向を示す操作受付用画像がタッチされると、指定用画像の表示位置は、右方向に移動する。したがって、ユーザは、指が届かない範囲にある操作入力位置でも操作入力を与えることができる。
 この発明によれば、携帯端末用表示装置の大きさ及びユーザの手の大きさに関わらず、ユーザは片手で携帯端末用表示装置を把持したまま片手で操作することができる。
実施形態1に係る携帯端末1の外観斜視図である。 (A)は、実施形態1に係る携帯端末1のA-A断面図であり、(B)は、静電センサ12の平面図である。 実施形態1に係る携帯端末1のB-B断面図である。 実施形態1にかかる携帯端末1の構成の一部を示すブロック図である。 (A)及び(B)は、それぞれ操作パッド200L及びポインタ920を説明するための図である。 (A)及び(B)は、それぞれ操作パッド200Rの使用例を説明するための図である。 携帯端末1の制御部14の動作を示すフローチャートである。 携帯端末1の制御部14の動作を示すフローチャートである。 実施形態2に係る携帯端末2の外観斜視図である。 実施形態2に係る携帯端末2のC-C断面図である。 実施形態2に係る携帯端末2の構成の一部を示すブロック図である。 携帯端末2に表示される十字キー930L及び十字キー930Rを説明するための図である。 携帯端末1の制御部14の動作を示すフローチャートである。 携帯端末2の変形例に係る携帯端末2Aの説明をするための図である。
 実施形態1に係る携帯端末1について、図1乃至図4を用いて説明する。図1は、携帯端末1の外観斜視図である。図2(A)は、携帯端末1のA-A断面図であり、図2(B)は、静電センサ12の平面図である。図3は、携帯端末1のB-B断面図である。図4は、携帯端末1の構成の一部を示すブロック図である。
 図1に示すように、携帯端末1は、略直方体形状の筐体30を備える。筐体30の表面側は3カ所で開口している。なお、以下では、図1に示すX方向を筐体30の幅方向とし、Y方向を高さ方向とし、Z方向を厚み方向として説明する。また、本実施形態では、筐体30の幅が、筐体30の高さよりも短い場合を示している。しかしながら、筐体30は、幅と高さが同じ長さであっても、幅が高さより長くてもよい。
 表示入力部10、操作パッド200L及び操作パッド200Rは、筐体30の3カ所の開口部分を介してそれぞれ外部に露出している。すなわち、表示入力部10、操作パッド200L及び操作パッド200Rは、それぞれ筐体30の表面(+Z側の面)側に配置される。
 表示入力部10は、筐体30の表面の上部(図1中+Y側)に配置されている。操作パッド200L及び操作パッド200Rは、それぞれ筐体30の表面の下部(図1中-Y側)に配置されている。操作パッド200L及び操作パッド200Rは、幅方向に順に並んで配置されている。
 表示入力部10は、操作パッド200L及び操作パッド200Rよりも、筐体30の隅EDGから遠くに配置される表示領域を有する。例えば、表示入力部10の中心位置CTRは、操作パッド200L及び操作パッド200Rのそれぞれの位置に比べて、隅EDGからの距離が長い。
 筐体30は、図2(A)に示すように、内部に表示入力部10及び演算回路モジュール40を配置する。演算回路モジュール40と表示入力部10とは、厚み方向に順に配置される。
 演算回路モジュール40は、携帯端末1の各機能部を実現する。演算回路モジュール40は、例えば、図4に示すように、位置検出部13、位置検出部13L、位置検出部13R、圧電センサ結果検出部21L、圧電センサ結果検出部21R、制御部14、及び表示制御部15を実現する。制御部14と表示制御部15との組は、本発明の制御部に相当する。
 表示入力部10は、表示部11、及び静電センサ12を備える。
 表示部11は、図2(A)に示すように、液晶パネル111、表面偏光板112、背面偏光板113、及びバックライト114を備える。
 バックライト114、背面偏光板113、液晶パネル111、静電センサ12、及び表面偏光板112は、厚み方向に順に重なって配置されている。
 静電センサ12は、図2(A)及び図2(B)に示すように、ベースフィルム121、複数の静電容量検出電極122、及び複数の静電容量検出電極123を備える。
 ベースフィルム121は、透光性及び所定の誘電率を有する材質からなる。複数の静電容量検出電極122、及び複数の静電容量検出電極123は、それぞれ長尺状であり、透光性を有する導電性材料からなる。複数の静電容量検出電極122は、ベースフィルム121の第1主面(+Z側の面)に、所定の間隔で配列形成されている。複数の静電容量検出電極123は、ベースフィルム121の第2主面(-Z側の面)に、所定の間隔で配列形成されている。複数の静電容量検出電極122の配列方向と、複数の静電容量検出電極123の配列方向とは、ベースフィルム121の第1主面又は第2主面の法線方向から視ると、略直交するように設定される。
 静電センサ12に指が近づくと、指が近づけられた位置で静電容量は変化する。そこで、位置検出部13は、静電容量が変化した静電容量検出電極122と静電容量検出電極123との組を特定することにより、タッチ位置を検出する。すなわち、位置検出部13と静電センサ12との組は、本発明の第1検知部に相当する。ただし、静電容量の変化は、指が表面偏光板112に実際に接触していなくても、検出可能である。また、タッチ位置の検出は、静電センサ12の代わりに、指の表面偏光板112への接近を検知する光センサを用いても可能である。
 バックライト114から出力された光は、背面偏光板113、液晶パネル111、静電センサ12、及び表面偏光板112を順に通過する。液晶パネル111は、表示制御部15の制御により、届いた光をそのまま、又は、振動方向を変えて(偏光させて)透過させる。このように、表示部11の表示内容は、バックライト114及び液晶パネル111を制御することにより、変更される。
 制御部14は、表示入力部10の静電センサ12が受け付けたタッチ位置に応じて様々な処理を行う。表示に関する処理の情報は、制御部14から表示制御部15に出力される。表示制御部15は、制御部14が出力した表示に関する処理の情報に応じた表示内容となるように、表示入力部10の表示部11を制御する。すなわち、携帯端末1は、所謂、GUI(;Graphical User Interface)を実現する。
 操作パッド200Lと操作パッド200Rとは、配置が異なるだけであり、それぞれの構成は同じである。また、圧電センサ結果検出部21Lと、圧電センサ結果検出部21Rとは、接続される圧電センサ20が異なるのみで、それぞれ実現する機能は同じである。位置検出部13Lと、位置検出部13Rとは、接続される静電センサ12Aが異なるのみで、それぞれ実現する機能は同じである。したがって、操作パッド200Lと圧電センサ結果検出部21Lと位置検出部13Lとの組だけについて説明する。なお、操作パッド200Lの静電センサ12Aと位置検出部13Lとの組、又は操作パッド200Rの静電センサ12Aと位置検出部13Rとの組は、本発明の第2検知部に相当する。
 操作パッド200Lは、図3に示すように、静電センサ12A、圧電センサ20、保護フィルム124、及び絶縁フィルム125を備える。
 圧電センサ20、絶縁フィルム125、静電センサ12A、及び保護フィルム124は、厚み方向に順に重なって配置されている。ただし、圧電センサ20と静電センサ12Aとの配置は逆であっても構わない。
 静電センサ12Aは、ベースフィルム121A、複数の静電容量検出電極122A、及び複数の静電容量検出電極123Aを備える。静電センサ12Aは、平面形状が異なる点において、静電センサ12と相違する。位置検出部13Lは、静電センサ12Aにおけるタッチ位置を検出する点において、位置検出部13と相違する。位置検出部13Lは、検出したタッチ位置の情報を制御部14に出力する。
 保護フィルム124は、絶縁性を有し、静電センサ12Aを覆っている。絶縁フィルム125は、静電センサ12Aと圧電センサ20とを絶縁するために配置される。
 圧電センサ20は、図3に示すように、圧電フィルム201、圧電検出電極202、及び圧電検出電極203を備える。
 圧電フィルム201、圧電検出電極202、及び圧電検出電極203は、それぞれ平膜形状である。圧電フィルム201は、静電センサ12Aのベースフィルム121Aと略同じ平面形状である。
 圧電検出電極202は、圧電フィルム201の第1主面(+Z側の面)に、形成されている。圧電検出電極203は、圧電フィルム201の第2主面(-Z側の面)に、形成されている。
 圧電フィルム201は、例えば一軸延伸されたポリ乳酸からなり、透光性を有する。圧電フィルム201は、例えば-Z方向に押圧されると、第1主面及び第2主面に電荷を発生させる。圧電検出電極202と圧電検出電極203との間の電位差は、圧電フィルム201の第1主面及び第2主面に電荷が発生することにより、生じる。また、この電位差のレベル(例えばmV)は、圧電フィルム201の押圧量(又は押込量。例えば数十μm)に対応する。したがって、圧電検出電極202と圧電検出電極203との間の電位差のレベル(mV)を求めることにより、圧電センサ20Lに対する押圧操作の有無及び押圧量(μm)を求めることが可能となる。
 圧電センサ20は、圧電検出電極202と圧電検出電極203との間の電位差をセンサ信号として出力する。圧電センサ20から出力されたセンサ信号は、図4に示すように、圧電センサ結果検出部21Lに入力される。圧電センサ結果検出部21Lは、入力されたセンサ信号のレベルLSS(mV)を求める。圧電センサ結果検出部21Lは、求めたレベルLSSに応じて操作パッド200Lに対する押圧操作の有無を判断する。例えば、圧電センサ結果検出部21Lは、レベルLSSが20mV未満であれば、操作パッド200Lに対して押圧操作がされていないと判断する。圧電センサ結果検出部21Lは、レベルLSSが20mV以上であれば、操作パッド200Lに対して押圧操作がされていると判断する。圧電センサ結果検出部21Lが閾値により押圧操作の有無を判断するため、操作パッド200Lに対するタッチ操作と押圧操作とを区別しやすくなる。圧電センサ結果検出部21Lは、押圧操作の有無の情報を制御部14に出力する。
 以上のように、制御部14は、操作パッド200Lに対するタッチ位置の情報、及び押圧操作の有無の情報が入力される。同様に制御部14は、操作パッド200Rに対するタッチ位置の情報及び押圧操作の有無の情報も入力される。
 制御部14は、位置検出部13、位置検出部13L、位置検出部13R、圧電センサ結果検出部21L、及び圧電センサ結果検出部21Rから入力された情報に基づいて様々な処理を行う。
 例えば、ユーザが、図5(A)に示すように、筐体30の下部で携帯端末1を把持する。ユーザは、携帯端末1を把持しながら、例えば、親指LTHBで表示入力部10に表示されたアイコン903をタッチすることにより、操作を行う。すると、表示入力部10に対応する位置検出部13は、タッチ位置の情報を制御部14に出力する。すると、制御部14は、タッチ位置に応じた処理を行う。例えば、制御部14は、タッチ位置に表示されているアイコン903に対応付けられた処理(例えば、アプリケーションの実行やサブメニューの表示等)を行う。
 また、このような携帯端末1によって、以下のようなGUIが実現可能となる。
 図5(A)及び図5(B)は、それぞれ操作パッド200L及びポインタ920(本発明の指定用画像に相当する)を説明するための図である。図6(A)及び図6(B)は、それぞれ操作パッド200Rの使用例を説明するための図である。図7(A)、図7(B)、及び図8は、それぞれ制御部14の動作を示すフローチャートである。
 制御部14は、図7(A)のフローチャートの処理と、図7(B)のフローチャートの処理と、図8のフローチャートの処理とを並列に実行する。
 図7(A)に示すフローチャートは、ポインタ920の表示処理に関する制御部14の動作を示す。まず、制御部14は、操作パッド200Lに対してタッチ操作がされているか否かを判断する(S11)。具体的には、制御部14は、位置検出部13Lからタッチ位置の情報を取得して、操作パッド200Lに対してタッチ操作がされているか否かを判断する。制御部14は、操作パッド200Lに対してタッチ操作がされている場合(S11:YES)、ステップS12に進む。制御部14は、操作パッド200Lに対するタッチ操作がされていない場合(S11:NO)、待機する。
 制御部14は、操作パッド200Lに対してタッチ操作がされている場合(S11:YES)、ポインタ920が既に表示されているか否かを判断する(S12)。ただし、ポインタ920の表示有無は、表示制御部15に問い合わせることにより求められる(S12)。制御部14は、ポインタ920が表示されている場合(S12:YES)、ステップS14に進む。制御部14は、ポインタ920が表示されていない場合(S12:NO)、ステップS13に進む。
 制御部14は、ポインタ920が表示されていない場合(S12:NO)、ポインタ920を初期表示させる処理の情報を表示制御部15に出力する(S13)。すると、表示制御部15は、例えば図5(A)に示すように、所定位置(例えば中心位置CTR)にポインタ920を表示する。そして、制御部14は、ステップS14に進む。
 制御部14は、ポインタ920が表示されている場合(S12:YES)又はステップS13の処理の後、操作パッド200Lで受け付けられた操作がパン操作であるか否かを判断する(S14)。制御部14は、位置検出部13Lが変化するタッチ位置を例えば0.2秒間検出し続けていると、操作パッド200Lに対してパン操作が行われていると判断して(S14:YES)、ステップS15に進む。すなわち、パン操作とは、操作パッド200Lに指を触れ続けたまま移動させる操作である。制御部14は、位置検出部13Lがタッチ位置を例えば0.2秒間検出し続けていない場合、パン操作が行われていないと判断して(S14:NO)、処理を終了する(エンド)。ただし、パン操作が行われていない場合とは、タップ操作が行われた場合、又はパン操作後に指が操作パッド200Lから離れた場合である。
 制御部14は、操作パッド200Lに受け付けられた操作がパン操作であると判断した場合(S14:YES)、ポインタ920の表示位置を変更するために、移動ベクトルを求める(S15)。
 移動ベクトルは、タッチ位置の変化に対応する。例えば、制御部14は、例えば0.1秒待機後に位置検出部13Lからタッチ位置の情報を再度取得し、タッチ位置の変化を求める。そして、制御部14は、タッチ位置の変化(例えば+Y方向に1cmのベクトル)を移動ベクトルとして求める。
 そして、制御部14は、求めた移動ベクトルに基づいてポインタ920の表示位置を変更する処理の情報を出力する(S16)。例えば、制御部14は、移動ベクトル(+Y方向に1cm)でポインタ920の表示位置を移動させる処理の情報を表示制御部15に出力する。すると、表示制御部15は、表示位置を+Y方向に1cm変更してポインタ920を表示する。なお、制御部14は、移動ベクトルの大きさを所定の割合(例えば1倍未満又は1倍以上)で変更してから、ポインタ920の表示位置を変更する処理の情報を出力してもよい。
 制御部14は、ステップS16を終えると、ステップS14に戻る。すなわち、制御部14は、パン操作が行われている間、タッチ位置の変化に応じて、ポインタ920の表示位置を変更する。これにより、携帯端末1は、図5(B)に示すように、例えば操作パッド200L上で親指LTHBが軌跡921でスライド(連続するパン操作)すると、ポインタ920(t)を軌跡922に沿ってポインタ920(t+1)の位置に移動させる表示を行う。
 なお、制御部14は、所定時間(例えば5秒間)以上、タッチ位置の情報が位置検出部13Lから入力されないと、ポインタ920の表示を消す処理の情報を表示制御部15に出力する。
 次に、図7(B)に示すフローチャートは、操作パッド200Lに対する押圧操作を決定操作として受け付ける制御部14の動作を示す。
 まず、制御部14は、押圧操作があるか否かを判断する(S21)。具体的には、制御部14は、圧電センサ結果検出部21Lから押圧操作の有無の情報を取得して、操作パッド200Lに対して押圧操作がされているか否かを判断する。そして、制御部14は、操作パッド200Lに対して押圧操作がされていると判断した場合(S21:YES)、ステップS22に進む。制御部14は、操作パッド200Lに対して押圧操作がされていないと判断した場合(S21:NO)、待機する。
 制御部14は、操作パッド200Lに対して押圧操作がされていると判断した場合(S21:YES)、ポインタ920の表示位置を取得する(S22)。ポインタ920の表示位置は、表示制御部15に問い合わせることにより求められる。
 そして、制御部14は、ポインタ920が指し示す位置(本発明の指定用画像が指定する操作入力位置に相当する。)に応じた処理を行う(S23)。例えば、制御部14は、図5(B)に示すように、ポインタ920(t+1)がアイコン902を指し示すように表示されている場合、アイコン902に対応付けられた処理(アプリケーションの実行等)を行う。
 このように、制御部14は、操作パッド200Lに対する押圧操作があると、ポインタ920の表示位置に応じた処理を行う。ユーザは、操作パッド200Lに対してパン操作で表示部11の表示領域内でポインタ920を移動させ、操作パッド200Lに対して押圧操作を決定操作として与え、ポインタ920の表示位置に応じた処理を携帯端末1に実行させることができる。したがって、ユーザは、操作パッド200Lに対して操作を行うことにより、親指LTHBが届かないアイコン901、アイコン902及びメニューアイコン911~メニューアイコン914に対して親指LTHBだけで操作入力を与えることができる。
 また、携帯端末1は、ユーザがポインタ920を誤ってアイコン904を指し示す位置に移動させてしまっても、押圧操作が決定操作として与えられない限り、アイコン904に対応する処理を行わない。したがって、携帯端末1は、ユーザの誤操作による処理の実行を防ぐことができる。また、携帯端末1は、押圧操作がタップ操作等と明確に異なるため、タップ操作等を押圧操作とした場合に比べて、決定操作の誤認識を防ぎやすくなる。
 また、制御部14は、ステップS16において、タッチ位置の変化に応じてポインタ920の表示位置を変更する処理の情報を出力するのではなく、入力されたタッチ位置そのものに応じた表示位置にポインタ920を表示する処理の情報を出力してもよい。この場合、制御部14は、操作パッド200L上のタッチ位置を、表示入力部10上の表示位置に変換し、変換された表示位置にポインタ920を表示する処理の情報を出力する。タッチ位置から表示位置への変換は、例えば、制御部14がタッチ位置と表示位置とを対応付けた位置変換テーブルを参照することにより行われる。ただし、位置変換テーブルは、携帯端末1に予め記憶される。
 これにより、携帯端末1は、例えば操作パッド200Lの右側の位置(+X側の位置)がタッチされると、表示入力部10の右側の位置(+X側の位置)にポインタ920を表示する。
 上述の位置変換テーブルは、操作パッド200L上のタッチ位置と、表示入力部10の上側の表示位置(例えば中心位置CTRより上側の表示位置)のみとを対応付けてもよい。この場合、携帯端末1は、表示入力部10の全表示領域内にポインタ920を表示するのではなく、表示入力部10の上側の表示領域内だけに限ってポインタ920を表示する。すなわち、ポインタ920は、指が届きにくい範囲にのみに表示される。
 上述の例は、指定用画像としてポインタ920を表示しているが、指定用画像はポインタ920に限らない。指定用画像とは操作入力がされることを示す画像であればよい。
 また、制御部14は、ステップS23において、圧電センサ結果検出部21LからレベルLSSの情報を取得し、ポインタ920の表示位置と取得したレベルLSSとに応じた処理を行ってもよい。
 例えば、制御部14は、圧電センサ結果検出部21Lから取得したレベルLSSが20mV~40mVの場合、ポインタ920が指し示すアイコンに対応付けられたアプリケーションを実行し、該レベルLSSが40mV~60mVの場合、ポインタ920が指し示す位置を中心として表示画面の拡大又は縮小を行う処理の情報を表示制御部15に出力してもよい。また、制御部14は、60mV以上のレベルLSSを取得した場合、例えば、ポインタ920が指し示す位置を中心とした表示画面の拡大又は縮小の描画速度を変化させる処理の情報を出力してもよい。レベルLSSと実行すべき処理との対応付けは、予め携帯端末1に設定されてもよいし、ユーザがGUIを通じて設定してもよい。
 さらには、制御部14は、レベルLSSに応じて、段階的に処理を変更するのではなく、レベルLSSに応じた連続量を用いた処理を行ってもよい。例えば、制御部14は、バックライト114の輝度をレベルLSSに対応させた値とする処理の情報を出力してもよいし、不図示のスピーカの音量値をレベルLSSに対応させた値としてもよい。
 ただし、圧電センサ20を備え、決定操作として押圧操作を検知することは本発明において必須の構成ではない。例えば、制御部14は、操作パッド200Lに対してタップ操作、ダブルタップ操作、又は長押し操作(所定時間タッチし続ける操作)が行われたことを検知して、タップ操作、ダブルタップ操作、又は長押し操作が行われたときのポインタ920の表示位置に応じた処理を行ってもよい。
 次に、操作パッド200Rを利用したGUIについて説明する。携帯端末1は、操作パッド200Rに受け付けられた操作に応じて、メニューアイコン911~メニューアイコン914に対する処理を行う。
 まず、制御部14は、操作パッド200Rに対してタッチ操作がされているか否かを判断する(S31)。具体的には、制御部14は、操作パッド200Rに対応する位置検出部13Rからタッチ位置の情報を取得して、操作パッド200Rに対してタッチ操作がされているか否かを判断する。制御部14は、操作パッド200Rに対してタッチ操作がされている場合(S31:YES)、ステップS32に進む。制御部14は、操作パッド200Rに対するタッチ操作がされていない場合(S31:NO)、待機する。
 制御部14は、操作パッド200Rに対してタッチ操作がされている場合(S31:YES)、タッチ位置に応じたメニューアイコンを強調表示する処理の情報を表示制御部15に出力する(S32)。強調表示すべきメニューアイコンは、操作パッド200R上のタッチ位置とメニューアイコン911~メニューアイコン914とが対応付けられたメニューアイコン変換テーブルを制御部14が参照することにより求められる。ただし、メニューアイコン変換テーブルは、予め携帯端末1に記憶される。
 例えば、携帯端末1は、図6(A)に示すように、操作パッド200R上の右上の位置923がタッチされると、位置923に対応するメニューアイコン913の形状を大きく表示する。携帯端末1は、図6(B)に示すように、続いて操作パッド200R上の左下の位置924がタッチされると、メニューアイコン913の強調表示をせず、位置924に対応するメニューアイコン912を強調表示する。この強調表示も、本発明の指定用画像に相当する。強調表示されたメニューアイコンの表示位置も、本発明の指定用画像が指定する操作入力位置に相当する。
 次に、制御部14は、押圧操作があるか否かを判断する(S33)。具体的には、制御部14は、圧電センサ結果検出部21Rから押圧操作の有無の情報を取得して、操作パッド200Rに対して押圧操作がされているか否かを判断する。そして、制御部14は、操作パッド200Rに対して押圧操作がされていると判断した場合(S33:YES)、ステップS34に進む。制御部14は、操作パッド200Rに対して押圧操作がされていないと判断した場合(S33:NO)、処理を終了する(エンド)。
 そして、制御部14は、操作パッド200Rに対して押圧操作がされていると判断した場合(S33:YES)、強調表示されたメニューアイコンに応じた処理を行う(S34)。ただし、制御部14は、表示制御部15に問い合わせすることにより、強調表示されているメニューアイコンを求める。
 例えば、制御部14は、図6(B)に示すように、メニューアイコン912が強調表示されている場合、メニューアイコン912に対応付けられたアプリケーションを実行する(S34)。
 なお、制御部14は、ステップS34において、圧電センサ結果検出部21RからレベルLSSの情報を取得し、取得したレベルLSSに応じた処理を行ってもよい。例えば、制御部14は、メニューアイコン912が強調表示され、かつ取得したレベルLSSが20mV~40mVの場合、メニューアイコン912に対応付けられたアプリケーションの設定画面を表示する処理の情報を出力し、取得したレベルLSSが40mV~60mVの場合、メニューアイコン912に対応付けられたサブメニューを表示する処理の情報を出力する。制御部14は、メニューアイコン912が強調表示され、かつ取得したレベルLSSが60mV以上の場合、メニューアイコン911~メニューアイコン914を非表示にして、メニューアイコン911~メニューアイコン914が表示されていた領域に他のアイコンを表示させる処理の情報を出力してもよい。
 以上のように、ユーザは、操作パッド200Rをタッチしたまま押圧することにより、メニューアイコン911~メニューアイコン914に対して1回の動作で操作を与えることができる。
 ここで、圧電フィルム201について説明する。圧電フィルム201は、キラル高分子から形成されるフィルムである。キラル高分子として、本実施形態では、ポリ乳酸(PLA)、特にL型ポリ乳酸(PLLA)を用いている。PLLAは、一軸延伸されている。
 一軸延伸されたPLLAは、圧電フィルムの平板面が押圧されることにより、電荷を発生する。この際、発生する電荷量は、押圧量(押込量)により平板面が当該平板面に直交する方向へ変位する変位量に依存する。PLLAは、圧電定数が高分子の中で非常に高い部類に属するため、圧電センサ20に適している。
 PLLAは、延伸等による分子の配向処理で圧電性を生じるため、PVDF等の他のポリマーや圧電セラミックスのように、ポーリング処理を行う必要がない。すなわち、強誘電体に属さないPLLAの圧電性は、分子の特徴的な構造である螺旋構造に由来するものである。このため、PLLAには、他の強誘電性の圧電体で生じる焦電性が生じない。したがって、PLLAは、圧電センサ20(表示入力部10)のように、タッチ操作により指の温度が伝わってしまう構成に適している。
 ただし、本実施形態において圧電フィルム201としてPLLAを用いることは必須ではない。圧電センサ20は、例えばPVDFからなる圧電フィルム201を用いてもよい。
 次に、実施形態2に係る携帯端末2について説明する。図9は、携帯端末2の外観斜視図である。図10は、C-C断面図である。図11は、携帯端末2の構成の一部を示すブロック図である。
 携帯端末2は、携帯端末1が表示入力部10、操作パッド200L及び操作パッド200Rでユーザからの操作を受け付けるのに対し、表示入力部10Aだけでユーザからの操作を受け付ける点において、携帯端末1と相違する。携帯端末1と重複する構成の説明は省略する。
 携帯端末2は、表示入力部10A、筐体30A、及び演算回路モジュール40Aを備える。
 携帯端末2は、図9に示すように、表面に開口部を1つ備える。開口部の面積は、筐体30Aの表面より若干小さい。表示入力部10Aの面積は、筐体30Aの表面の開口部の面積と略同じである。これにより、携帯端末2は、筐体30Aの表面のほとんどが操作面となる。
 表示入力部10Aは、図10に示すように、表示部11A、静電センサ12B、圧電センサ20A、及び絶縁フィルム125Aを備える。表示部11Aは、表示部11の面積より面積が大きい点において、表示部11と相違する。表示部11Aの面積は、筐体30Aの表面の開口部の面積と略同じである。すなわち、液晶パネル111A、表面偏光板112A、背面偏光板113A、及びバックライト114Aの面積は、筐体30Aの表面の開口部の面積とそれぞれ略同じである。
 圧電センサ20Aは、圧電センサ20より面積が大きい点、及び透光性を有する点において、圧電センサ20と相違する。圧電センサ20Aは、筐体30Aの表面の開口部と面積が略同じである。すなわち、圧電フィルム201A、圧電検出電極202A、及び圧電検出電極203Aの面積は、筐体30Aの表面の開口部の面積とそれぞれ略同じである。
 圧電フィルム201Aは、PLLAからなり、透光性を有する。圧電検出電極202A及び圧電検出電極203Aは、それぞれITO、ZnO、ポリチオフェンを主成分とする有機電極、ポリアニリンを主成分とする有機電極、銀ナノワイヤ電極、カーボンナノチューブ電極のいずれかで形成されているため、透光性を有する。
 バックライト114A、背面偏光板113A、液晶パネル111A、圧電センサ20A、絶縁フィルム125A、静電センサ12B及び表面偏光板112Aは、それぞれ厚み方向に順に重なって配置されている。ただし、圧電センサ20Aと静電センサ12Bとは、逆の配置であってもかまわない。
 圧電センサ20Aは、透光性を有するため、バックライト114Aの配置より+Z側に配置されても、光の透過を妨げない。特に、PLLAは、キラル高分子からなるため、PVDF等より高い透光性を有する。したがって、PLLAからなる圧電フィルム201Aは、バックライト114Aの配置より+Z側に配置される構成に適している。
 表示入力部10Aに対するタッチ位置は、静電センサ12Bと位置検出部13Aとの組により、検出される。表示入力部10Aに対する押圧操作及び押圧量は、圧電センサ20Aと圧電センサ結果検出部21Aとの組により、検出される。表示入力部10Aの表示領域内におけるタッチ位置、押圧操作の有無、及び押圧量(レベルLSS)の情報は、図11に示すように、制御部14に入力される。制御部14は、入力された情報に基づいて様々な処理を行う。
 このような携帯端末2は、以下のようなGUIを実現できる。
 図12は、携帯端末2に表示される十字キー930L及び十字キー930Rを説明するための図である。図13は、携帯端末2の制御部14の動作を示すフローチャートである。
 携帯端末2は、表示入力部10Aの表示領域のうち、ユーザの指が届く範囲に、十字キー930L及び十字キー930Rを表示する。例えば、携帯端末2は、図12に示すように、十字キー930L及び十字キー930Rを表示入力部10Aの下部(-Y側)の領域に表示する。十字キー930L及び十字キー930Rは、それぞれキー931L、キー931R、キー931C、キー931U、及びキー931B(以下、これらをまとめて称す場合はキー931と称す。)からなる。
 図13に示すフローチャートは、制御部14が位置検出部13Aからタッチ位置の情報を取得している時点から始まっているものとする(スタート)。また、携帯端末2は、ポインタ920を常時表示しているものとする。
 制御部14は、タッチ位置がいずれの表示領域に属するかを判断する(S41)。なお、タッチ位置がいずれの表示領域に属するかは、制御部14が表示制御部15に問い合わせることにより、求められる。
 制御部14は、タッチ位置が十字キー930Lの表示領域に属する場合(S41:十字キー930Lの表示領域)、ステップS51に進む。制御部14は、タッチ位置が十字キー930Rの表示領域に属する場合(S41:十字キー930Rの表示領域)、ステップS61に進む。制御部14は、タッチ位置が十字キー930L及び十字キー930Rのそれぞれの表示領域以外に属する場合(S41:十字キー以外の表示領域)、ステップS42に進む。
 制御部14は、タッチ位置が十字キー930L及び十字キー930Rのそれぞれの表示領域以外に属する場合(S41:十字キー以外の表示領域)、例えばタッチ位置に表示されているアイコンに対応付けられた処理を行う(S42)。
 制御部14は、タッチ位置が十字キー930Lの表示領域に属する場合(S41:十字キー930Lの表示領域)、十字キー930Lのキー931Cがタッチされたか否かを判断する(S51)。制御部14は、十字キー930Lのキー931Cがタッチされたと判断した場合(S51:YES)、ステップS53に進む。制御部14は、十字キー930Lのキー931C以外のキー931がタッチされたと判断した場合(S51:NO)、ステップS52に進む。
 制御部14は、十字キー930Lのキー931C以外のキー931がタッチされたと判断した場合(S51:NO)、タッチされたキー931に応じてポインタ920の表示位置を変更する処理の情報を出力する(S52)。
 例えば、制御部14は、タッチされたキーが十字キー930Lのキー931Lである場合、ポインタ920の表示位置を1mm左の位置に変更して表示する処理の情報を出力する。ここで、制御部14は、位置検出部13Aから十字キー930Lのキー931Lの表示位置と重複するタッチ位置の情報が入力され続けると(例えば0.3秒間)、ポインタ920の表示位置をさらに1mm左の位置に変更して表示する処理の情報を出力してもよい。これにより、ユーザは、十字キー930Lのキー931Lをタッチし続けることにより、ポインタ920の表示位置を左に移動させ続けることができる。
 制御部14は、ステップS51及びステップS52において、十字キー930Lのキー931Uがタッチされると、ポインタ920の表示位置を上に変更し、十字キー930Lのキー931Rがタッチされると、ポインタ920の表示位置を右に変更し、十字キー930Lのキー931Bがタッチされると、ポインタ920の表示位置を下に変更して表示する処理の情報を出力する。
 制御部14は、十字キー930Lのキー931Cがタッチされたと判断した場合(S51:YES)、表示入力部10Aに対して押圧操作があるか否かを判断する(S53)。具体的には、制御部14は、圧電センサ結果検出部21Aから押圧操作の有無の情報を取得して、押圧操作があるか否かを判断する。制御部14は、表示入力部10Aに対して押圧操作がされていると判断した場合(S53:YES)、ステップS54に進む。制御部14は、表示入力部10Aに対して押圧操作がされていないと判断した場合(S53:NO)、処理を終了する(エンド)。
 制御部14は、表示入力部10Aに対して押圧操作がされていると判断した場合(S53:YES)、ポインタ920の表示位置に応じた処理を行う(S54)。
 例えば、制御部14は、ポインタ920がアイコン902を指し示すような位置に表示されている場合、アイコン902に対応付けられたアプリケーションを実行する。
 制御部14は、タッチ位置が十字キー930Rの表示領域に属する場合(S41:十字キー930Rの表示領域)、十字キー930Rのキー931Cがタッチされたか否かを判断する(S61)。制御部14は、十字キー930Rのキー931Cがタッチされたと判断した場合(S61:YES)、ステップS63に進む。制御部14は、十字キー930Rのキー931C以外のキー931がタッチされたと判断した場合(S61:NO)、ステップS62に進む。
 制御部14は、十字キー930Rのキー931C以外のキー931がタッチされたと判断した場合(S61:NO)、タッチされたキー931に応じてメニューアイコン911~メニューアイコン914のいずれかのメニューアイコンを強調表示する処理の情報を出力する(S62)。
 例えば、制御部14は、十字キー930Rのキー931L、キー931R、キー931U又はキー931Bのいずれかがタッチされると、メニューアイコン911を強調表示する処理の情報を出力する。制御部14は、既にいずれかのメニューアイコンが強調表示されており、かつ十字キー930Rのキー931Lがタッチされた場合、該メニューアイコンから左の位置に表示されているメニューアイコンを強調表示する処理の情報を出力する。同様に、制御部14は、既にいずれかのメニューアイコンが強調表示されており、かつ十字キー930Rのキー931R、キー931U、又はキー931Bがタッチされた場合、該メニューアイコンから右、上、又は下の位置に表示されているメニューアイコンを強調表示する処理の情報を出力する。
 制御部14は、十字キー930Rのキー931Cがタッチされたと判断した場合(S61:YES)、表示入力部10Aに対する押圧操作があるか否かを判断する(S63)。具体的には、制御部14は、圧電センサ結果検出部21Aから押圧操作の有無の情報を取得して、押圧操作があるか否かを判断する。制御部14は、表示入力部10Aに対する押圧操作がされていると判断した場合(S63:YES)、ステップS64に進む。制御部14は、表示入力部10Aに対する押圧操作がされていないと判断した場合(S63:NO)、処理を終了する(エンド)。
 制御部14は、表示入力部10Aに対する押圧操作があると判断した場合(S63:YES)、強調表示されているメニューアイコンに応じた処理を行う(S64)。
 以上のように、ユーザは、携帯端末2が操作パッド200L及び操作パッド200Rを備えていなくても、携帯端末1と同様に、ポインタ920を移動させて、指が届かない範囲に表示されたアイコン901、アイコン902、及びメニューアイコン911~メニューアイコン914に対して操作入力を行うことができる。また、ユーザは、携帯端末1と同様に、1回の動作でメニューアイコン911~メニューアイコン914に対して操作入力を行うことができる。
 なお、制御部14は、ステップS54及びステップS64において、圧電センサ結果検出部21Aから取得したレベルLSSに応じた処理を行ってもよい。
 次に、図14は、携帯端末2の変形例に係る携帯端末2Aを説明するための図である。
 携帯端末2Aは、十字キー930L、及び十字キー930Rを表示しない点、及びポインタ920が常時表示されない点において、携帯端末2と相違する。
 携帯端末2Aは、図14に示すように、位置925が押圧され、かつ所定の大きさ以上のレベルLSSを検出すると、ポインタ920を表示する。ただし、位置925は、図14に示す位置に限らず、表示入力部10A内のいずれの位置でもよい。
 携帯端末2Aは、ポインタ920が表示され、かつ押圧操作の継続及びタッチ位置の変化を検出すると、タッチ位置の変化に応じてポインタ920の表示位置を変更する。
 携帯端末2Aは、さらに大きなレベルLSSを検出すると、ポインタ920が指し示すアイコン901、アイコン902及びメニューアイコン911~メニューアイコン914のそれぞれに対応付けられた処理を行う。
1,2,2A…携帯端末
10,10A…表示入力部
11,11A…表示部
12,12A,12B…静電センサ
13,13A,13L,13R…位置検出部
14…制御部
15…表示制御部
20,20A,20L…圧電センサ
21A,21L,21R…圧電センサ結果検出部
30,30A…筐体
40,40A…演算回路モジュール
111,11A…液晶パネル
112,112A…表面偏光板
113,113A…背面偏光板
114,114A…バックライト
121,121A…ベースフィルム
122,122A…静電容量検出電極
123,123A…静電容量検出電極
124…保護フィルム
125,125A…絶縁フィルム
200L,200R…操作パッド
201,201A…圧電フィルム
202,203,202A,203A…圧電検出電極
901~904…アイコン
911~914…メニューアイコン
920…ポインタ
930L,930R…十字キー
931,931B,931C,931L,931R,931U…キー

Claims (9)

  1.  表示部と、
     筐体と、
     前記表示部に対するタッチ操作がなされた位置を検知する第1検知部と、
     前記表示部の表示内容を制御し、前記第1検知部で検知したタッチ操作がなされた位置に応じた処理を行う制御部と、
     を備えた携帯端末用表示装置であって、
     前記筐体の外縁から所定の範囲内に配置される操作受付部と、
     前記操作受付部に対するタッチ操作がなされた位置を検知する第2検知部と、
     を備え、
     前記表示部は、前記筐体のうち前記所定の範囲外に表示領域を有し、
     前記制御部は、前記第2検知部で検知したタッチ操作がなされた位置に応じて、操作入力位置を指定する指定用画像を前記表示部に表示させ、
     前記制御部は、前記第2検知部を介して決定操作を受け付け、該決定操作を受け付けたときに前記指定用画像が指定する操作入力位置に応じた処理を行う、
     携帯端末用表示装置。
  2.  前記操作受付部に対する押圧操作を検知する押圧検知部、を備え、
     前記制御部は、前記押圧検知部を介して前記押圧操作を決定操作として受け付ける、
     請求項1に記載の携帯端末用表示装置。
  3.  前記押圧検知部は、前記押圧操作の押圧量を検知し、
     前記制御部は、前記押圧検知部で検知した前記押圧量に応じた処理を行う、
     請求項2に記載の携帯端末用表示装置。
  4.  前記第2検知部は、キラル高分子によって形成された圧電フィルムを有する、
     請求項2又は3に記載の携帯端末用表示装置。
  5.  前記キラル高分子は、ポリ乳酸である、
     請求項4に記載の携帯端末用表示装置。
  6.  前記ポリ乳酸は、少なくとも一軸方向に延伸されている、
     請求項5に記載の携帯端末用表示装置。
  7.  前記表示部と前記操作受付部とは、それぞれ別の領域に配置される、
     請求項1乃至6のいずれかに記載の携帯端末用表示装置。
  8.  前記操作受付部と前記表示部とは、前記筐体の同一平面側に配置される、
     請求項1乃至7のいずれかに記載の携帯端末用表示装置。
  9.  表示部と、
     筐体と、
     前記表示部に対するタッチ操作がなされた位置を検知する検知部と、
     前記表示部の表示内容を制御し、前記検知部で検知したタッチ操作がなされた位置に応じた処理を行う制御部と、
     を備えた携帯端末用表示装置であって、
     前記制御部は、前記筐体の外縁から所定の範囲内に操作受付用画像を表示させ、
     前記制御部は、前記検知部が検知したタッチ操作がなされた位置に表示されている操作受付用画像に応じて、操作入力位置を指定する指定用画像を表示させ、
     前記制御部は、前記検知部を介して決定操作を受け付け、該決定操作を受け付けたときに前記指定用画像が指定する操作入力位置に応じた処理を行う、
     携帯端末用表示装置。
PCT/JP2014/077897 2013-10-25 2014-10-21 携帯端末用表示装置 WO2015060279A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015543855A JP6015866B2 (ja) 2013-10-25 2014-10-21 携帯端末用表示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-221753 2013-10-25
JP2013221753 2013-10-25

Publications (1)

Publication Number Publication Date
WO2015060279A1 true WO2015060279A1 (ja) 2015-04-30

Family

ID=52992873

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/077897 WO2015060279A1 (ja) 2013-10-25 2014-10-21 携帯端末用表示装置

Country Status (2)

Country Link
JP (1) JP6015866B2 (ja)
WO (1) WO2015060279A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107667335A (zh) * 2015-06-17 2018-02-06 希迪普公司 包括显示模块的能够检测压力的触摸输入装置
JPWO2017022031A1 (ja) * 2015-07-31 2018-02-22 マクセル株式会社 情報端末装置
JP2019519828A (ja) * 2016-03-18 2019-07-11 ケーニッヒ ウント バウアー アー・ゲーKoenig & Bauer AG 検査システムのカメラによって取得された写真画像を操作するための方法
JP2023001310A (ja) * 2021-02-03 2023-01-04 マクセル株式会社 携帯端末

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009084147A1 (ja) * 2007-12-28 2009-07-09 Panasonic Corporation 携帯端末装置及び表示制御方法並びに表示制御プログラム
JP2013156677A (ja) * 2012-01-26 2013-08-15 Kyocera Document Solutions Inc タッチパネル装置
WO2013122070A1 (ja) * 2012-02-15 2013-08-22 株式会社村田製作所 タッチ式入力端末
US20130271414A1 (en) * 2011-09-30 2013-10-17 David Graumann Mechanism for employing and facilitating an edge thumb sensor at a computing device
US20130271415A1 (en) * 2011-09-30 2013-10-17 Intel Corporation Mechanism for employing and facilitating a touch panel thumb sensor pad at a computing device
JP2013219638A (ja) * 2012-04-11 2013-10-24 Hiromichi Okabe 文字入力方法と装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8982051B2 (en) * 2009-03-30 2015-03-17 Microsoft Technology Licensing, Llc Detecting touch on a surface
JP2012203879A (ja) * 2011-03-28 2012-10-22 Ntt Docomo Inc 表示装置、表示制御方法及びプログラム
JP5295328B2 (ja) * 2011-07-29 2013-09-18 Kddi株式会社 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009084147A1 (ja) * 2007-12-28 2009-07-09 Panasonic Corporation 携帯端末装置及び表示制御方法並びに表示制御プログラム
US20130271414A1 (en) * 2011-09-30 2013-10-17 David Graumann Mechanism for employing and facilitating an edge thumb sensor at a computing device
US20130271415A1 (en) * 2011-09-30 2013-10-17 Intel Corporation Mechanism for employing and facilitating a touch panel thumb sensor pad at a computing device
JP2013156677A (ja) * 2012-01-26 2013-08-15 Kyocera Document Solutions Inc タッチパネル装置
WO2013122070A1 (ja) * 2012-02-15 2013-08-22 株式会社村田製作所 タッチ式入力端末
JP2013219638A (ja) * 2012-04-11 2013-10-24 Hiromichi Okabe 文字入力方法と装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107667335A (zh) * 2015-06-17 2018-02-06 希迪普公司 包括显示模块的能够检测压力的触摸输入装置
JP2018510431A (ja) * 2015-06-17 2018-04-12 株式会社 ハイディープHiDeep Inc. ディスプレイモジュールを含む圧力検出可能なタッチ入力装置
CN107667335B (zh) * 2015-06-17 2021-03-09 希迪普公司 包括显示模块的能够检测压力的触摸输入装置
US10983646B2 (en) 2015-06-17 2021-04-20 Hideep Inc. Pressure detectable touch input device including display module
JPWO2017022031A1 (ja) * 2015-07-31 2018-02-22 マクセル株式会社 情報端末装置
JP2019519828A (ja) * 2016-03-18 2019-07-11 ケーニッヒ ウント バウアー アー・ゲーKoenig & Bauer AG 検査システムのカメラによって取得された写真画像を操作するための方法
JP2023001310A (ja) * 2021-02-03 2023-01-04 マクセル株式会社 携帯端末
JP7416894B2 (ja) 2021-02-03 2024-01-17 マクセル株式会社 携帯端末

Also Published As

Publication number Publication date
JPWO2015060279A1 (ja) 2017-03-09
JP6015866B2 (ja) 2016-10-26

Similar Documents

Publication Publication Date Title
US9798408B2 (en) Electronic device
JP2014052852A (ja) 情報処理装置
US20160246413A1 (en) Input device and program
US20110248962A1 (en) Information presenting device, tactile sense presenting method, and program
JP6015866B2 (ja) 携帯端末用表示装置
JP6292344B2 (ja) タッチ式入力装置
WO2019047744A1 (zh) 液晶屏模组及显示终端
CN104919406B (zh) 触摸式输入装置
US10649573B2 (en) Display device and program
US20130257772A1 (en) Electronic device and display method
JP6037046B2 (ja) タッチ式入力装置及び携帯型表示装置
US8643620B2 (en) Portable electronic device
WO2015076320A1 (ja) 表示装置及びプログラム
JP5975183B2 (ja) 表示装置
JP5602651B2 (ja) 電子機器
WO2015064488A1 (ja) タッチ式入力装置
JP5954502B2 (ja) 入力装置及びプログラム
JP6079895B2 (ja) タッチ式入力装置
JP5971430B2 (ja) タッチ式入力装置
JPWO2017047603A1 (ja) 操作検出装置
JP2017091459A (ja) 操作入力装置
WO2015068618A1 (ja) 表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14856035

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015543855

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14856035

Country of ref document: EP

Kind code of ref document: A1