WO2016152388A1 - タッチ式入力装置 - Google Patents

タッチ式入力装置 Download PDF

Info

Publication number
WO2016152388A1
WO2016152388A1 PCT/JP2016/055971 JP2016055971W WO2016152388A1 WO 2016152388 A1 WO2016152388 A1 WO 2016152388A1 JP 2016055971 W JP2016055971 W JP 2016055971W WO 2016152388 A1 WO2016152388 A1 WO 2016152388A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
touch
input device
press
operation surface
Prior art date
Application number
PCT/JP2016/055971
Other languages
English (en)
French (fr)
Inventor
加納英和
北田宏明
椿信人
Original Assignee
株式会社村田製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社村田製作所 filed Critical 株式会社村田製作所
Priority to JP2017507637A priority Critical patent/JP6292344B2/ja
Publication of WO2016152388A1 publication Critical patent/WO2016152388A1/ja
Priority to US15/696,754 priority patent/US10365809B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Definitions

  • the present invention relates to a touch input device that displays an image on a screen and detects a user operation input.
  • Recent touch-type input devices can also perform an enlargement operation, a reduction operation, a slide operation, and a rotation operation on a stereoscopic image displayed on the screen.
  • Patent Document 1 discloses a personal computer including a mouse, a keyboard, and an auxiliary storage device in which a stereoscopic display program is installed. The user executes this stereoscopic display program on a personal computer, and rotates the stereoscopic image by dragging only with a mouse operation or dragging with a mouse operation and a keyboard operation. Thereby, the user can easily see an arbitrary portion of the stereoscopic image.
  • Patent Document 1 the user needs to drag the stereoscopic image while pressing a key provided on the mouse or pressing a key provided on both the mouse and the keyboard. . Therefore, in patent document 1, there exists a problem that input operation becomes complicated and a user's usability is bad.
  • an object of the present invention is to provide a touch input device that can rotate an image by a simple and intuitive input operation.
  • the touch-type input device of the present invention includes an operation surface, a position detection unit, a press detection unit, and a display unit.
  • the position detection unit detects a touch position on the operation surface.
  • a press detection part detects the press with respect to an operation surface.
  • the display unit displays an image.
  • the display unit rotates the image according to the sliding direction of the touch position detected by the position detection unit when the press detection unit detects a pressing amount that satisfies the predetermined condition.
  • the image includes a stereoscopic image and a background image.
  • the pressing amount satisfying the predetermined condition is a pressing amount not less than the first threshold value or a pressing amount not less than 0 and less than the first threshold value.
  • the display unit rotates the image simply by pressing a part of the operation surface with a finger and sliding the finger on the operation surface.
  • the touch input device having this configuration can rotate the image by a simple and intuitive input operation.
  • the operation surface, the position detection unit, the press detection unit, and the display unit are stacked to form a touch panel, and the display unit displays an image on the operation surface.
  • the user can directly operate the image displayed on the operation surface. Therefore, the touch input device having this configuration can realize a more intuitive input operation.
  • the rotation speed of the image corresponds to the sliding speed of the touch position.
  • the rotation speed of the image corresponds to the sliding speed of the user's finger. Therefore, the touch input device having this configuration can realize a more intuitive input operation.
  • the rotation amount of the image corresponds to the sliding amount of the touch position.
  • the rotation amount of the image corresponds to the slide amount of the user's finger. Therefore, the touch input device having this configuration can realize a more intuitive input operation.
  • the display unit rotates the image in accordance with the slide direction based on a predetermined rotation center.
  • the display unit sets a direction orthogonal to the slide direction as the rotation axis of the image.
  • the display unit sets the pressed stereoscopic image in the image as a rotation target when the pressing detection unit detects a pressing amount equal to or greater than the second threshold value.
  • the user presses one of the plurality. Thereby, the user can select a three-dimensional image or a background image that is desired to be rotated.
  • the display unit stops the rotation of the image when the pressure detection unit detects a pressing amount less than the third threshold while the image is rotating.
  • the display unit finishes rotating the image only by removing the finger from the operation surface. Therefore, the touch input device can stop the rotation of the image by a simple and intuitive input operation.
  • the display unit stops the rotation of the image when the press detection unit detects a pressing amount equal to or greater than the fourth threshold while the image is rotating.
  • the display unit finishes rotating the image only by the user pressing a part of the operation surface with a finger. Therefore, the touch input device can stop the rotation of the image by a simple and intuitive input operation.
  • the display unit stops the rotation of the image when the position detection unit no longer detects the touch position while the image is rotating.
  • the display unit finishes rotating the image only by removing the finger from the operation surface. Therefore, the touch input device can stop the rotation of the image by a simple and intuitive input operation.
  • the touch input device can rotate an image by a simple and intuitive input operation.
  • FIG. 1 is an external perspective view of a display device according to an embodiment of the present invention.
  • FIG. 2 is a cross-sectional view taken along line SS shown in FIG. It is a top view of position sensor 11D shown in FIG. It is a top view of the press sensor 11P shown in FIG.
  • It is a block diagram of the display apparatus 1 shown in FIG. It is a flowchart which shows the process which the control part 20 shown in FIG. 5 performs. It is a figure which shows an example which the three-dimensional image 5 displayed on the operation surface 101 shown in FIG. 1 slides. It is a figure which shows an example in which the rotation axis A is set to the three-dimensional image 5 displayed on the operation surface 101 shown in FIG.
  • FIG. 3 is a diagram illustrating an example of a plurality of stereoscopic images 5 and 7 displayed on an operation surface 101 illustrated in FIG. 1. It is a figure which shows an example in which the rotating shaft B is set to the three-dimensional image 5 displayed on the operation surface 101 shown in FIG. It is a figure which shows an example in which the stereo image 5 shown in FIG. 12 rotates. It is a figure which shows an example in which the rotation axis C is set to the three-dimensional image 5 displayed on the operation surface 101 shown in FIG.
  • FIG. 2 is an external perspective view of a stereoscopic image 6 displayed on an operation surface 101 illustrated in FIG. 1. It is sectional drawing of the TT line
  • FIG. 1 is an external perspective view of a display device 1 according to an embodiment of the present invention.
  • 2 is a cross-sectional view taken along line SS shown in FIG.
  • FIG. 3 is a plan view of the position sensor 11D shown in FIG.
  • FIG. 4 is a plan view of the press sensor 11P shown in FIG.
  • FIG. 5 is a block diagram of the display device 1 shown in FIG.
  • the display device 1 includes a casing 100 having a size that is portable.
  • the display device 1 is, for example, a tablet or a smartphone.
  • the display device 1 corresponds to an example of the touch input device of the present invention.
  • the housing 100 has a rectangular parallelepiped shape whose length and width are larger than the thickness, and has a shape in which the top surface is opened. As shown in FIGS. 1 and 2, the casing 100 is fitted with a flat operation input unit 10 so as to close the opening surface of the casing 100.
  • One main surface of the operation input unit 10 is an operation surface 101.
  • the operation input unit 10 is made of a translucent material.
  • the position sensor 11D is a capacitance sensor.
  • the position sensor 11D and the pressure sensor 11P are combined to form the operation input unit 10.
  • the operation surface 101, the position sensor 11D, the pressure sensor 11P, and the display unit 30 constitute a touch panel.
  • the position sensor 11 ⁇ / b> D, the pressure sensor 11 ⁇ / b> P, and the display unit 30 have a flat plate shape, and are provided on the housing 100 such that the flat plate surfaces are parallel to the operation surface 101 of the housing 100.
  • a circuit board (not shown) is disposed between the bottom surface of the housing 100 and the display unit 30, and a control circuit module 52 is mounted on the circuit board.
  • the control circuit module 52 is a module that implements the control unit 20, the storage unit 21, the RAM 22, the wireless LAN communication unit 60, and the 3G communication unit 61 illustrated in FIG.
  • the control circuit module 52 is connected to the position sensor 11 ⁇ / b> D, the pressure sensor 11 ⁇ / b> P, the display unit 30, and the battery 70.
  • the position sensor 11D includes a flat insulating substrate 11D1, a plurality of capacitance detection electrodes 11D2, a plurality of capacitance detection electrodes 11D3, and a protective film 11D4.
  • a flat insulating substrate 11D1 a plurality of capacitance detection electrodes 11D2, a plurality of capacitance detection electrodes 11D3, and a protective film 11D4.
  • a protective film 11D4 is provided on the surface of the position sensor 11D opposite to the pressing sensor 11P.
  • the protective film 11D4 is made of a flexible and insulating material.
  • the protective film 11D4 is made of a translucent material. For example, PET or PP may be used for the protective film 11D4.
  • the insulating substrate 11D1 is made of a light-transmitting material. As shown in FIGS. 2 and 3, a plurality of capacitance detection electrodes 11D2 are formed on one flat plate surface of the insulating substrate 11D1. The plurality of capacitance detection electrodes 11D2 are long and have a shape in which the long direction is in the first direction. The plurality of capacitance detection electrodes 11D2 are arranged at intervals along a second direction orthogonal to the first direction.
  • a plurality of capacitance detection electrodes 11D3 are formed on the other flat plate surface of the insulating substrate 11D1.
  • the plurality of capacitance detection electrodes 11D3 are long and have a shape in which the long direction is in the second direction.
  • the plurality of capacitance detection electrodes 11D3 are arranged at intervals along the first direction.
  • the plurality of capacitance detection electrodes 11D2 and 11D3 are made of a light-transmitting material.
  • the position sensor 11D detects the capacitance change that occurs when the user's finger comes into contact with the capacitance detection electrodes 11D2 and 11D3, and outputs a signal based on this detection to the control circuit module 52 as a position detection signal. .
  • the press sensor 11P includes a flat film-like piezoelectric film 11P1 and press detection electrodes 11P2 and 11P3 as shown in FIGS. Press detection electrodes 11P2 and 11P3 are formed on the opposing flat membrane surfaces of the piezoelectric film 11P1. The press detection electrodes 11P2 and 11P3 are formed on substantially the entire flat film surface of the piezoelectric film 11P1.
  • the pressure sensor 11P detects charges generated by bending of the piezoelectric film 11P1 when the user presses the flat film surface of the piezoelectric film 11P1, with the pressure detection electrodes 11P2 and 11P3, and a signal based on this detection is detected as a pressure detection signal. To the control circuit module 52.
  • the piezoelectric film 11P1 may be a film having piezoelectricity, but is preferably formed of uniaxially stretched polylactic acid (PLA), and further L-type polylactic acid (PLLA).
  • PLA uniaxially stretched polylactic acid
  • PLLA L-type polylactic acid
  • PLLA is a chiral polymer, and the main chain has a helical structure.
  • PLLA is uniaxially stretched and has piezoelectricity when the molecules are oriented.
  • the uniaxially stretched PLLA generates electric charges when the flat film surface of the piezoelectric film is pressed. At this time, the amount of charge generated is uniquely determined by the amount of displacement of the flat membrane surface in the direction orthogonal to the flat membrane surface by pressing.
  • the piezoelectric constant of uniaxially stretched PLLA belongs to a very high class among polymers.
  • the draw ratio is preferably about 3 to 8 times.
  • the same effect as uniaxial stretching can be obtained by varying the stretching ratio of each axis. For example, when a certain direction is the X axis, the X axis direction is 8 times, and the Y axis direction orthogonal to the X axis is doubled, and the piezoelectric constant is about 4 times uniaxially stretched in the X axis direction. Is almost the same effect. A film that is simply uniaxially stretched easily tears along the direction of the stretch axis, and thus the strength can be increased somewhat by performing biaxial stretching as described above.
  • PLLA generates piezoelectricity by molecular orientation processing such as stretching, and there is no need to perform poling processing like other polymers such as PVDF and piezoelectric ceramics. That is, the piezoelectricity of PLLA that does not belong to ferroelectrics is not expressed by the polarization of ions like ferroelectrics such as PVDF and PZT, but is derived from a helical structure that is a characteristic structure of molecules. is there.
  • the pyroelectricity generated in other ferroelectric piezoelectric materials does not occur in PLLA.
  • PVDF or the like shows a change in piezoelectric constant over time, and in some cases, the piezoelectric constant may be significantly reduced, but the piezoelectric constant of PLLA is extremely stable over time. Therefore, it is possible to detect displacement due to pressing with high sensitivity without being affected by the surrounding environment.
  • the uniaxially stretched direction 900 forms an angle of approximately 45 ° with respect to the two orthogonal directions along the side surface of the housing 100, as shown in FIGS.
  • the housing 100 it is preferable to arrange in the housing 100. By performing such an arrangement, the displacement can be detected with higher sensitivity. Therefore, it is possible to detect the pressing and the pressing amount with higher sensitivity.
  • the pressure detection electrodes 11P2 and 11P3 use any of organic electrodes mainly composed of polythiophene and polyaniline, and inorganic electrodes such as ITO, ZnO, silver nanowires, carbon nanotubes, and graphene. Is preferred. By using these materials, a highly translucent conductor pattern can be formed.
  • a display unit 30 is disposed on the other main surface of the operation input unit 10 inside the housing 100.
  • the display unit 30 includes a so-called flat display, and specifically includes a liquid crystal display element.
  • the display unit 30 includes a liquid crystal panel 301, a front polarizing plate 302, a back polarizing plate 303, and a backlight 304.
  • the front polarizing plate 302 and the back polarizing plate 303 are arranged so as to sandwich the liquid crystal panel 301 therebetween.
  • the backlight 304 is disposed on the opposite side of the liquid crystal panel 301 with the back polarizing plate 303 interposed therebetween.
  • the display device 1 includes an operation input unit 10, a control unit 20, a storage unit 21, a RAM 22, a display unit 30, a wireless LAN communication unit 60, a 3G communication unit 61, and a battery 70. .
  • control unit 20 and the display unit 30 constitute an example of the “display unit” in the present invention.
  • the wireless LAN communication unit 60 and the 3G communication unit 61 have an antenna (not shown).
  • the wireless LAN communication unit 60 communicates with a server device (not shown) via a wireless LAN router connected to the Internet.
  • the 3G communication unit 61 communicates with a server device (not shown) via a base station connected to the mobile phone network.
  • the battery 70 supplies DC operating power to each part of the display device 1.
  • the storage unit 21 is composed of, for example, a flash memory.
  • the storage unit 21 stores a control program in which a control method for each unit of the display device 1 is described.
  • a plurality of application software including image display software described later is installed in this control program.
  • the image display software includes a movement mode for moving the image and a rotation mode for rotating the image.
  • the control unit 20 is constituted by a CPU, for example.
  • the control unit 20 also has a timer circuit that measures the current time and the current date.
  • the control unit 20 controls the operation of each unit of the display device 1 according to a control program stored in the storage unit 21.
  • the control unit 20 expands data processed by the control program in the RAM 22.
  • the operation input unit 10 includes a press sensor 11P and a position sensor 11D. Further, the operation input unit 10 has a physical end key (not shown) for ending the activated application software.
  • the press sensor 11P When the operation surface 101 of the operation input unit 10 is pressed, the press sensor 11P generates a press detection signal having a signal level D Sp corresponding to the pressing amount (pressing force). The press sensor 11P outputs a press detection signal to the control unit 20.
  • the position sensor 11 ⁇ / b> D generates a position detection signal that indicates the value of the detection capacitance of each electrode of the operation input unit 10.
  • the signal level DSd of the position detection signal depends on the amount of change in capacitance that occurs when the user's finger approaches or contacts the position sensor 11D.
  • the position sensor 11D outputs the generated position detection signal to the control unit 20.
  • the control unit 20 When detecting that the signal level DSd of the position detection signal output from the position sensor 11D is greater than a predetermined threshold, the control unit 20 recognizes the touch position from the position detection signal.
  • the control unit 20 determines the operation input content based on the press detection signal and the position detection signal. At this time, the control unit 20 uses the storage unit 21 as a storage area for operation input content determination processing. The control unit 20 generates image data based on the determined operation input content and outputs it to the display unit 30.
  • the display unit 30 displays an image on the operation surface 101 based on the image data. For example, the display unit 30 displays icons of a plurality of installed application software on the operation surface 101. For example, when the user touches an image display software icon among a plurality of application software displayed on the operation surface 101, the control unit 20 activates the image display software. When the control unit 20 activates the image display software, the display unit 30 displays an image including a stereoscopic image 5 and a background image 9 as illustrated in FIGS. 7, 8, and 9, which will be described later, in accordance with an instruction from the control unit 20. To display.
  • FIG. 6 is a flowchart showing processing executed by the control unit 20 shown in FIG.
  • FIG. 7 is a diagram illustrating an example in which the stereoscopic image 5 displayed on the operation surface 101 illustrated in FIG. 1 slides.
  • FIG. 8 is a diagram illustrating an example in which the rotation axis A is set in the stereoscopic image 5 displayed on the operation surface 101 illustrated in FIG. 1.
  • FIG. 9 is a diagram illustrating an example in which the stereoscopic image 5 displayed on the operation surface 101 illustrated in FIG. 1 rotates.
  • the shape of the stereoscopic image 5 is a sphere.
  • the white arrow shown in FIG. 7, FIG. 8, and FIG. 9 indicates the locus of the user's finger F moving.
  • the dotted line arrow shown in FIG. A white dotted arrow shown in FIG. 8 indicates the moving direction of the user's finger F.
  • a dotted arrow shown in FIG. 9 indicates the rotation direction of the stereoscopic image 5.
  • Control unit 20 determines stereoscopic image 5 as an operation target among images displayed on operation surface 101 (S1).
  • the image displayed on the operation surface 101 includes a stereoscopic image 5 and a background image 9.
  • the control unit 20 determines whether or not a pressing amount equal to or greater than the first threshold is detected (S2), and determines whether or not a slide operation has been performed (S3 and S4).
  • the control unit 20 determines whether or not the signal level D Sp of the pressure detection signal output from the pressure sensor 11P is equal to or higher than the first threshold value.
  • the signal level D Sp indicates a value corresponding to the pressing amount (pressing force).
  • the control unit 20 recognizes the touch position from the position detection signal.
  • control unit 20 is in a state of waiting for a user input operation.
  • the pressing sensor 11P detects a pressing amount not less than the second threshold and less than the first threshold. Thereby, the control part 20 sets an operation mode to a movement mode (N of S2, Y of S3).
  • the second threshold value is smaller than the first threshold value. In the present embodiment, the second threshold is set to a value close to zero.
  • the control unit 20 moves in the sliding direction of the touch position detected by the position sensor 11D as shown in FIG.
  • the display unit 30 is instructed to slide the stereoscopic image 5 (S5).
  • the control unit 20 instructs the display unit 30 to stop the movement of the stereoscopic image 5 (S7). Thereby, the slide of the stereoscopic image 5 is completed. Then, the control unit 20 returns to S1 and continues the process. Therefore, the user can rotate the stereoscopic image 5 after sliding the stereoscopic image 5. Note that in N of S6, it is assumed that the user releases the finger F from the operation surface 101 in order to finish sliding the stereoscopic image 5.
  • the press sensor 11P detects a pressing amount equal to or greater than the first threshold value. Thereby, the control unit 20 sets the operation mode to the rotation mode (Y in S2 and Y in S4).
  • the control unit 20 sets a direction A orthogonal to the sliding direction of the touch position detected by the position sensor 11D as the rotation axis of the stereoscopic image 5 based on a predetermined rotation center as shown in FIG. (S8).
  • the rotation center of the stereoscopic image 5 is the center of the stereoscopic image 5 that is a sphere.
  • the rotation axis A of the stereoscopic image 5 passes through the rotation center of the stereoscopic image 5.
  • the control unit 20 instructs the display unit 30 to rotate the stereoscopic image 5 according to the sliding direction of the touch position detected by the position sensor 11D (S9). Thereby, the rotation of the stereoscopic image 5 is started.
  • the rotation speed of the stereoscopic image 5 corresponds to the sliding speed of the touch position.
  • the rotation amount of the stereoscopic image 5 corresponds to the slide amount of the touch position.
  • the control unit 20 presses the pressure sensor 11P when detecting a pressing amount less than the third threshold (Y in S10).
  • the sensor 11P detects a pressing amount equal to or greater than the fourth threshold (Y in S11)
  • the display unit 30 stops the rotation of the stereoscopic image 5. (S13). Thereby, the rotation of the stereoscopic image 5 is completed. Then, the control unit 20 returns to S1 and continues the process. Therefore, the user can also slide the stereoscopic image 5 after rotating the stereoscopic image 5.
  • the third threshold value is smaller than the first threshold value.
  • the fourth threshold value is larger than the first threshold value.
  • the third threshold value is set to a value close to zero.
  • Y of S10 and N of S12 it is assumed that the user releases the finger F from the operation surface 101 in order to finish the rotation of the stereoscopic image 5.
  • Y of S11 it is assumed that the user strongly presses a part of the operation surface 101 with the finger F in order to finish the rotation of the stereoscopic image 5.
  • the display device 1 can rotate the stereoscopic image 5 by a simple and intuitive input operation.
  • the rotation speed of the stereoscopic image 5 corresponds to the slide speed of the user's finger F.
  • the rotation amount of the stereoscopic image 5 corresponds to the slide amount of the user's finger F.
  • the user can finish the rotation of the stereoscopic image 5 only by releasing the finger F from the operation surface 101.
  • the rotation of the stereoscopic image 5 may be stopped when the finger F is released, or the speed may be gradually decreased from the rotation speed when the finger F is released.
  • the user simply presses a part of the operation surface 101 with the finger F, and the display unit 30 finishes rotating the stereoscopic image 5. Therefore, the display device 1 can stop the rotation of the stereoscopic image 5 by a simple and intuitive input operation.
  • the display unit 30 displays whether the current operation mode is the movement mode or the rotation mode as shown in FIGS.
  • the current operation mode may be expressed by sound or vibration. As a result, the user can know the current operation mode, so that an erroneous operation can be prevented.
  • FIG. 10 is a flowchart showing processing executed by the control unit 20 of the display device according to another embodiment of the present invention.
  • FIG. 11 is a diagram showing an example of a plurality of stereoscopic images 5 and 7 displayed on the operation surface 101 shown in FIG.
  • the processing executed by the control unit 20 of the display device according to another embodiment is obtained by adding S21 to the processing shown in FIG.
  • the other processes (S1 to S13) are the same as the processes shown in FIG.
  • the display unit 30 displays an image including a plurality of stereoscopic images 5 and 7 and a background image 9 as shown in FIG.
  • control part 20 determines whether the press amount more than a 2nd threshold value is detected by the press sensor 11P (S21).
  • S ⁇ b> 21 it is assumed that the user selects a stereoscopic image that is to be an operation target from among the multiple stereoscopic images 5 and 7 displayed on the operation surface 101. Here, it is assumed that the user presses (selects) the stereoscopic image 5.
  • the control unit 20 determines the pressed stereoscopic image 5 as an operation target among the images displayed on the operation surface 101. (S1). Thereafter, the control unit 20 continues the same processing.
  • control unit 20 executes the image display software and slides or rotates the stereoscopic image, but the present invention is not limited to this.
  • control unit 20 may execute other software (for example, game software) to slide or rotate the stereoscopic image.
  • the pressure sensor 11P is composed of the piezoelectric film 11P1, but the present invention is not limited to this.
  • the pressure sensor may be configured by other than the piezoelectric film.
  • a piezoelectric ceramic element may be disposed around the position sensor to form a pressure sensor.
  • a piezoelectric film capable of detecting pressure on the surface is suitable.
  • the user performs a touch operation or a press operation on the operation surface 101 while viewing an image displayed on the operation surface 101 of the touch panel.
  • a personal computer including a display for displaying an image and a touch pad having the position sensor 11D and the pressure sensor 11P may be used.
  • the user performs a touch operation or a press operation on the operation surface of the touch pad while viewing an image displayed on the display.
  • the rotation axis A of the stereoscopic image 5 is set in advance so as to pass through the center of the stereoscopic image 5 as shown in FIGS. 8 and 9, but the present invention is not limited to this.
  • the rotation axis B of the stereoscopic image 5 may be set outside the stereoscopic image 5. In this case, the stereoscopic image 5 rotates about the rotation axis B as shown in FIG.
  • toe F slides to the width direction of the operation surface 101, and the direction A orthogonal to a sliding direction is set to the rotating shaft of the three-dimensional image 5.
  • FIG. it is not limited to this.
  • the user's finger F may slide in the diagonal direction of the operation surface 101, and the direction C orthogonal to the sliding direction may be set as the rotation axis of the stereoscopic image 5.
  • the stereoscopic image 5 rotates about the rotation axis C as shown in FIG.
  • the control unit 20 sets the direction orthogonal to the slide direction as the rotation axis of the stereoscopic image 5 in S8, but is not limited thereto.
  • the rotation axis may be adjusted each time based on the moving direction of the finger F detected by the position sensor 11D.
  • the rotation axis may be corrected when the difference between the initially predicted movement of the finger F and the current movement of the finger F is shifted by ⁇ 5 °. This allows for detailed movement.
  • the rotation axis may be corrected when the difference between the initially predicted movement of the finger F and the current movement of the finger F is shifted by ⁇ 30 °. As a result, even in rough operation, it can be rotated in the same direction.
  • the control unit 20 sets the rotation axis A for the stereoscopic image 5 having a spherical shape, but the present invention is not limited to this.
  • the control unit 20 may set an arbitrary rotation axis for the stereoscopic image 6 having a cylindrical shape as shown in FIGS. 16 to 19, for example.
  • the control unit 20 may set a line D connecting the point pressed by the user F with the finger F and the center E of the stereoscopic image 6 as the rotation axis.
  • the stereoscopic image 6 is rotated in accordance with the sliding movement of the finger F with the center E fixed.
  • the display unit 30 rotates the stereoscopic image 5 around the rotation axis A, but the present invention is not limited to this.
  • the display unit 30 displays the image shown in FIG. 8 on the operation surface 101 and the display unit 30 rotates the viewpoint around the rotation axis A as shown in FIG. Good. In FIG. 20, the viewpoint is changed, and the image displayed on the operation surface 101 is changed from the background image 9 to the background image 19.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 表示装置(1)は、筐体(100)と、操作面(101)と、位置センサ(11D)と、押圧センサ(11P)と、表示部(30)とを備える。位置センサ(11D)は、操作面(101)に対するタッチ位置を検知する。押圧センサ(11P)は、操作面(101)に対する押圧を検知する。表示部(30)は、画像を表示する。押圧センサ(11P)が第1閾値以上の押圧量を検知したとき、制御部(20)は、位置センサ(11D)で検知されるタッチ位置のスライド方向に直交する方向(A)を立体画像(5)の回転軸に設定する。そして、制御部(20)は、位置センサ(11D)で検知されるタッチ位置のスライド方向に応じて立体画像(5)を回転させる。

Description

タッチ式入力装置
 本発明は、画像を画面に表示し、ユーザの操作入力を検知するタッチ式入力装置に関する。
 近年、コンピュータの性能が飛躍的に向上し、タブレットやスマートフォンなどのタッチ式入力装置は立体画像を表示することが可能となってきた。近年のタッチ式入力装置は、画面上に表示された立体画像に対して、拡大操作、縮小操作、スライド操作、及び回転操作を行うことも可能である。
 例えば特許文献1には、マウスと、キーボードと、立体表示プログラムがインストールされた補助記憶装置とを備えるパーソナルコンピュータが開示されている。ユーザは、この立体表示プログラムをパーソナルコンピュータで実行し、マウス操作のみのドラッギング又はマウス操作+キーボード操作のドラッギングによって、立体画像を回転する。これにより、ユーザは、立体画像の任意の箇所を容易に見ることが出来る。
特開2000-293711号公報
 しかしながら、例えば特許文献1のパーソナルコンピュータではユーザは、マウスに設けられているキーを押下しながら、又はマウス及びキーボードの両方に設けられているキーを押下しながら、立体画像をドラッグする必要がある。そのため、特許文献1では、入力操作が煩雑となり、ユーザの使い勝手が悪いという問題がある。
 そこで、本発明は、簡単で直感的な入力操作により画像を回転させることができるタッチ式入力装置を提供することを目的とする。
 本発明のタッチ式入力装置は、操作面と、位置検知部と、押圧検知部と、表示部と、を備える。位置検知部は、操作面に対するタッチ位置を検知する。押圧検知部は、操作面に対する押圧を検知する。表示部は、画像を表示する。表示部は、押圧検知部が所定条件を満たす押圧量を検知したとき、位置検知部で検知されるタッチ位置のスライド方向に応じて画像を回転させる。
 この構成において画像は、立体画像および背景画像を含む。また、所定条件を満たす押圧量とは、第1閾値以上の押圧量または0以上第1閾値未満の押圧量である。この構成ではユーザが、操作面の一部を指で押圧し、操作面上で指をスライドさせるだけで、表示部は画像を回転させる。
 したがって、この構成のタッチ式入力装置は、簡単で直感的な入力操作により画像を回転させることができる。
 また、本発明において、操作面、位置検知部、押圧検知部、及び表示部は、積層されてタッチパネルを構成し、表示部は、画像を操作面に表示する、ことが好ましい。この構成ではユーザは操作面に表示される画像を直接操作することができる。そのため、この構成のタッチ式入力装置は、より直感的な入力操作を実現できる。
 また、本発明において、画像の回転速度は、タッチ位置のスライド速度に対応する、ことが好ましい。この構成では画像の回転速度はユーザの指のスライド速度に対応する。そのため、この構成のタッチ式入力装置は、より直感的な入力操作を実現できる。
 また、本発明において、画像の回転量は、タッチ位置のスライド量に対応する、ことが好ましい。この構成では画像の回転量はユーザの指のスライド量に対応する。そのため、この構成のタッチ式入力装置は、より直感的な入力操作を実現できる。
 また、本発明において、表示部は、予め定められた回転中心に基づいて、スライド方向に応じて画像を回転させる、ことが好ましい。
 また、本発明において、表示部は、スライド方向に直交する方向を画像の回転軸に設定する、ことが好ましい。
 また、本発明において、表示部は、押圧検知部が第2閾値以上の押圧量を検知したとき、画像のうち押圧された立体画像を回転対象とする、ことが好ましい。
 この構成では回転対象となる候補が画像の中に複数存在する場合、ユーザは複数の中から1つを押圧する。これにより、ユーザは回転対象にしたい立体画像または背景画像を選択できる。
 また、本発明において、表示部は、画像が回転している間に押圧検知部が第3閾値未満の押圧量を検知したとき、画像の回転を停止する、ことが好ましい。
 この構成ではユーザが操作面から指を離すだけで、表示部は画像の回転を終える。したがって、タッチ式入力装置は、簡単で直感的な入力操作により画像の回転を停止させることができる。
 また、本発明において、表示部は、画像が回転している間に押圧検知部が第4閾値以上の押圧量を検知したとき、画像の回転を停止する、ことが好ましい。
 この構成ではユーザが操作面の一部を指で押圧するだけで、表示部は画像の回転を終える。したがって、タッチ式入力装置は、簡単で直感的な入力操作により画像の回転を停止させることができる。
 また、本発明において、表示部は、画像が回転している間に位置検知部がタッチ位置を検知しなくなったとき、画像の回転を停止する、ことが好ましい。
 この構成ではユーザが操作面から指を離すだけで、表示部は画像の回転を終える。したがって、タッチ式入力装置は、簡単で直感的な入力操作により画像の回転を停止させることができる。
 本発明によれば、タッチ式入力装置は、簡単で直感的な入力操作により画像を回転させることができる。
本発明の実施形態に係る表示装置の外観斜視図である。 図1に示すS-S線の断面図である。 図2に示す位置センサ11Dの平面図である。 図2に示す押圧センサ11Pの平面図である。 図1に示す表示装置1のブロック図である。 図5に示す制御部20が実行する処理を示すフローチャートである。 図1に示す操作面101に表示される立体画像5がスライドする一例を示す図である。 図1に示す操作面101に表示される立体画像5に回転軸Aが設定される一例を示す図である。 図8に示す立体画像5が回転する一例を示す図である。 本発明の他の実施形態に係る表示装置の制御部20が実行する処理を示すフローチャートである。 図1に示す操作面101に表示される複数の立体画像5、7の一例を示す図である。 図1に示す操作面101に表示される立体画像5に回転軸Bが設定される一例を示す図である。 図12に示す立体画像5が回転する一例を示す図である。 図1に示す操作面101に表示される立体画像5に回転軸Cが設定される一例を示す図である。 図14に示す立体画像5が回転する一例を示す図である。 図1に示す操作面101に表示される立体画像6の外観斜視図である。 図16に示すT-T線の断面図である。 図16に示す立体画像6がスライドする一例を示す図である。 図16に示す立体画像6が回転する一例を示す図である。 図8に示す画像に対する視点が回転する一例を示す図である。
 本発明の実施形態に係る表示装置について、図を参照して説明する。図1は、本発明の実施形態に係る表示装置1の外観斜視図である。図2は、図1に示すS-S線の断面図である。図3は、図2に示す位置センサ11Dの平面図である。図4は、図2に示す押圧センサ11Pの平面図である。図5は、図1に示す表示装置1のブロック図である。
 図1に示すように、表示装置1は、携帯可能な程度の大きさからなる筐体100を備える。表示装置1は、例えばタブレットやスマートフォンである。
 なお、表示装置1は、本発明のタッチ式入力装置の一例に相当する。
 筐体100は、長さ及び幅が厚さよりも大きな直方体形状であり、天面が開口する形状からなる。筐体100には、図1、図2に示すように、筐体100の開口面を塞ぐよう平板状の操作入力部10が嵌め合されている。操作入力部10の一方の主面が操作面101となる。操作入力部10は、透光性を有する材料からなる。
 筐体100内には、図1、図2に示すように、操作面101側から、位置センサ11D、押圧センサ11P、表示部30、制御回路モジュール52、及び図5に示すバッテリ70がこの順番に設けられている。位置センサ11Dは、静電容量センサである。
 位置センサ11D及び押圧センサ11Pは、組み合わされて、操作入力部10を構成する。操作面101、位置センサ11D、押圧センサ11P及び表示部30は、タッチパネルを構成する。位置センサ11D、押圧センサ11P、および表示部30は平板状であり、それぞれの平板面が筐体100の操作面101に平行になるように、筐体100に設けられている。
 筐体100の底面と表示部30との間には、回路基板(図示せず)が配置されており、当該回路基板に制御回路モジュール52が実装されている。制御回路モジュール52は、図5に示す、制御部20、記憶部21、RAM22、無線LAN通信部60、及び3G通信部61を実現するモジュールである。制御回路モジュール52は、位置センサ11D、押圧センサ11P、表示部30、及びバッテリ70に接続されている。
 位置センサ11Dは、図2、図3に示すように、平板状の絶縁性基板11D1と、複数の静電容量検知用電極11D2と、複数の静電容量検知用電極11D3と、保護膜11D4と、を有する。
 位置センサ11Dの押圧センサ11Pとは反対側の面には、保護膜11D4が設けられている。保護膜11D4は、可撓性を有し絶縁性を有する材質からなる。保護膜11D4は、透光性を有する材質からなる。例えば、保護膜11D4には、PETやPPを用いるとよい。
 絶縁性基板11D1は、透光性を有する材料からなる。図2、図3に示すように、絶縁性基板11D1の一方の平板面には、複数の静電容量検知用電極11D2が形成されている。複数の静電容量検知用電極11D2は長尺状であり、長尺方向が第1の方向に沿う形状からなる。複数の静電容量検知用電極11D2は、第1の方向に直交する第2の方向に沿って間隔を空けて配置されている。
 絶縁性基板11D1の他方の平板面には、複数の静電容量検知用電極11D3が形成されている。複数の静電容量検知用電極11D3は長尺状であり、長尺方向が第2の方向に沿う形状からなる。複数の静電容量検知用電極11D3は、第1の方向に沿って間隔を空けて配置されている。複数の静電容量検知用電極11D2,11D3は透光性を有する材料からなる。
 位置センサ11Dは、ユーザの指が接触した際に生じる静電容量変化を、静電容量検知用電極11D2,11D3で検知し、この検知に基づく信号を位置検知信号として制御回路モジュール52へ出力する。
 押圧センサ11Pは、図2、図4に示すように、平膜状の圧電フィルム11P1と、押圧検知電極11P2,11P3と、を有する。圧電フィルム11P1の対向する各平膜面には、押圧検知電極11P2,11P3が形成されている。押圧検知電極11P2,11P3は、圧電フィルム11P1の平膜面の略全面に形成されている。
 押圧センサ11Pは、ユーザが圧電フィルム11P1の平膜面を押圧することで、圧電フィルム11P1が撓んで発生する電荷を、押圧検知電極11P2,11P3で検知し、この検知に基づく信号を押圧検知信号として制御回路モジュール52へ出力する。
 なお、圧電フィルム11P1は、圧電性を有するフィルムであればよいが、好ましくは、一軸延伸されたポリ乳酸(PLA)、さらにはL型ポリ乳酸(PLLA)によって形成されていることが好ましい。
 PLLAは、キラル高分子であり、主鎖が螺旋構造を有する。PLLAは、一軸延伸され、分子が配向すると、圧電性を有する。そして、一軸延伸されたPLLAは、圧電フィルムの平膜面が押圧されることにより、電荷を発生する。この際、発生する電荷量は、押圧により平膜面が、当該平膜面に直交する方向へ変位する変位量によって一意的に決定される。一軸延伸されたPLLAの圧電定数は、高分子中で非常に高い部類に属する。
 したがって、PLLAを用いることで、押圧による変位を確実且つ高感度に検知することができる。すなわち、押圧を確実に検知し、押圧量を高感度に検知することができる。
 なお、延伸倍率は3~8倍程度が好適である。延伸後に熱処理を施すことにより、ポリ乳酸の延びきり鎖結晶の結晶化が促進され圧電定数が向上する。なお、二軸延伸した場合はそれぞれの軸の延伸倍率を異ならせることによって一軸延伸と同様の効果を得ることが出来る。例えばある方向をX軸としてX軸方向に8倍、X軸に直交するY軸方向に2倍の延伸を施した場合、圧電定数に関してはおよそX軸方向に4倍の一軸延伸を施した場合とほぼ同等の効果が得られる。単純に一軸延伸したフィルムは延伸軸方向に沿って裂け易いため、前述したような二軸延伸を行うことにより幾分強度を増すことができる。
 また、PLLAは、延伸等による分子の配向処理で圧電性を生じ、PVDF等の他のポリマーや圧電セラミックスのように、ポーリング処理を行う必要がない。すなわち、強誘電体に属さないPLLAの圧電性は、PVDFやPZT等の強誘電体のようにイオンの分極によって発現するものではなく、分子の特徴的な構造である螺旋構造に由来するものである。
 このため、PLLAには、他の強誘電性の圧電体で生じる焦電性が生じない。さらに、PVDF等は経時的に圧電定数の変動が見られ、場合によっては圧電定数が著しく低下する場合があるが、PLLAの圧電定数は経時的に極めて安定している。したがって、周囲環境に影響されることなく、押圧による変位を高感度に検知することができる。
 このような一軸延伸処理された圧電フィルム11P1は、図2、図4に示すように、筐体100の側面に沿った直交二方向に対して、一軸延伸方向900が略45°の角度を成すように、筐体100に配置されることが好ましい。このような配置を行うことで、より高感度に変位を検知できる。したがって、押圧および押圧量をより高感度に検知することができる。
 押圧検知電極11P2,11P3は、図2、図4に示すように、ポリチオフェンやポリアニリンを主成分とする有機電極、ITO、ZnO、銀ナノワイヤ、カーボンナノチューブ、グラフェン等の無機電極のいずれかを用いるのが好適である。これらの材料を用いることで、透光性の高い導体パターンを形成できる。
 図1、図2に示すように、筐体100の内部における操作入力部10の他方の主面には、表示部30が配置されている。表示部30は、所謂フラットディスプレイからなり、ここでは、具体的に液晶表示素子からなる。表示部30は、液晶パネル301、表面偏光板302、裏面偏光板303、バックライト304を備える。表面偏光板302と裏面偏光板303は、液晶パネル301を挟むように配置されている。バックライト304は、裏面偏光板303を挟んで、液晶パネル301と反対側に配置されている。
 次に、図5に示すように、表示装置1は、操作入力部10、制御部20、記憶部21、RAM22、表示部30、無線LAN通信部60、3G通信部61、及びバッテリ70を備える。
 なお、制御部20及び表示部30が、本発明の「表示部」の一例を構成する。
 無線LAN通信部60及び3G通信部61は、不図示のアンテナを有している。無線LAN通信部60は、インターネットに接続された無線LANルータを介してサーバ装置(不図示)と通信する。3G通信部61は、携帯電話網に接続された基地局を介してサーバ装置(不図示)と通信する。
 バッテリ70は、表示装置1の各部に対してDC動作電源の供給を行う。
 記憶部21は、例えばフラッシュメモリで構成されている。記憶部21は、表示装置1の各部の制御方法が記述された制御プログラムを保存する。この制御プログラムには、後述する画像表示ソフトを含む複数のアプリケーションソフトがインストールされている。画像表示ソフトは、画像を移動させる移動モードと、画像を回転させる回転モードと、を含む。
 制御部20は、例えばCPUで構成されている。また、制御部20は、現在時刻や現在日を計時するタイマー回路を有している。制御部20は、記憶部21に保存されている制御プログラムに従って、表示装置1の各部の動作を制御する。制御部20は、当該制御プログラムで処理されるデータをRAM22に展開する。
 操作入力部10は、押圧センサ11P及び位置センサ11Dを有する。さらに、操作入力部10は、起動したアプリケーションソフトを終了させる物理的な終了キー(不図示)を有する。
 押圧センサ11Pは、操作入力部10の操作面101が押圧されると、押圧量(押圧力)に応じた信号レベルDSpの押圧検知信号を生成する。押圧センサ11Pは、押圧検知信号を制御部20へ出力する。
 位置センサ11Dは、操作入力部10の各電極の検知容量の値を示す位置検知信号を生成する。位置検知信号の信号レベルDSdは、ユーザの指が位置センサ11Dに近接もしくは接触した際に生じる静電容量の変化量に依存している。位置センサ11Dは、生成した位置検知信号を制御部20へ出力する。
 制御部20は、位置センサ11Dから出力された位置検知信号の信号レベルDSdが所定閾値よりも大きいことを検知すると、その位置検知信号からタッチ位置を認識する。
 制御部20は、押圧検知信号と位置検知信号とに基づいて、操作入力内容を決定する。この際、制御部20は、記憶部21を操作入力内容の判断処理用の記憶領域として用いる。制御部20は、決定した操作入力内容に基づく画像データを生成し、表示部30へ出力する。
 表示部30は、画像データに基づいて画像を操作面101に表示する。表示部30は例えば、インストールされている複数のアプリケーションソフトのアイコンを操作面101に表示する。例えば、操作面101に表示される複数のアプリケーションソフトのうち画像表示ソフトのアイコンをユーザがタッチすると、制御部20は、画像表示ソフトを起動する。制御部20が画像表示ソフトを起動すると、表示部30は制御部20の指示に従って、後述の図7、図8、図9に示すような立体画像5及び背景画像9を含む画像を操作面101に表示する。
 以下、制御部20の画像表示ソフト起動時の動作について、図を参照して説明する。図6は、図5に示す制御部20が実行する処理を示すフローチャートである。図7は、図1に示す操作面101に表示される立体画像5がスライドする一例を示す図である。図8は、図1に示す操作面101に表示される立体画像5に回転軸Aが設定される一例を示す図である。図9は、図1に示す操作面101に表示される立体画像5が回転する一例を示す図である。
 なお、立体画像5の形状は球である。図7、図8、図9に示す白抜き矢印は、ユーザの指Fが動いた軌跡を示している。また、図7に示す点線矢印は、立体画像5のスライド方向を示している。図8に示す白抜き点線矢印は、ユーザの指Fの移動方向を示している。図9に示す点線矢印は、立体画像5の回転方向を示している。
 制御部20は、操作面101に表示される画像のうち、立体画像5を操作対象として決定する(S1)。操作面101に表示される画像は、立体画像5及び背景画像9を含む。
 次に、制御部20は、第1閾値以上の押圧量が検知されたか否かを判定し(S2)、スライド操作が行われたか否かを判定する(S3、S4)。なお、S2において制御部20は、押圧センサ11Pから出力される押圧検知信号の信号レベルDSpが第1閾値以上であるかどうかを判定する。この信号レベルDSpは、押圧量(押圧力)に応じた値を示している。同様に、S3、S4において制御部20は、位置センサ11Dから出力される位置検知信号の信号レベルDSdが所定閾値よりも大きいことを検知すると、その位置検知信号からタッチ位置を認識する。
 ここで、S2、S3、S4では制御部20は、ユーザの入力操作を待ち受ける状態となっている。
 ユーザが操作面101上で指Fによるスライドを開始したとき、押圧センサ11Pは第2閾値以上第1閾値未満の押圧量を検知する。これにより、制御部20は、動作モードを移動モードに設定する(S2のN、S3のY)。ここで、第2閾値は第1閾値より小さい値である。本実施形態において第2閾値はほぼ0に近い値に設定されている。
 そして、制御部20は、第2閾値以上の押圧量が押圧センサ11Pで検知されている間(S6のY)、図7に示すように、位置センサ11Dで検知されるタッチ位置のスライド方向に応じて立体画像5をスライドさせるよう表示部30に指示する(S5)。
 第2閾値以上の押圧量が押圧センサ11Pで検知されなくなると(S6のN)、制御部20は、立体画像5の移動を停止させるよう表示部30に指示する(S7)。これにより、立体画像5のスライドが完了する。そして、制御部20は、S1に戻り処理を継続する。そのため、ユーザは、立体画像5をスライドさせた後に、立体画像5を回転させることができる。なお、S6のNでは、ユーザが立体画像5のスライドを終えるため、操作面101上から指Fを離す場面を想定している。
 一方、ユーザが操作面101の一部を指Fで押圧し、操作面101上で指Fによるスライドを開始したとき、押圧センサ11Pは第1閾値以上の押圧量を検知する。これにより、制御部20は、動作モードを回転モードに設定する(S2のY、S4のY)。
 まず、制御部20は、予め定められた回転中心に基づいて、図8に示すように、位置センサ11Dで検知されるタッチ位置のスライド方向に直交する方向Aを立体画像5の回転軸に設定する(S8)。本実施形態において立体画像5の回転中心は、球体である立体画像5の中心である。立体画像5の回転軸Aは、立体画像5の回転中心を通過する。
 そして、制御部20は、図9に示すように、位置センサ11Dで検知されるタッチ位置のスライド方向に応じて立体画像5を回転させるよう表示部30に指示する(S9)。これにより、立体画像5の回転が開始する。S9において、立体画像5の回転速度は、タッチ位置のスライド速度に対応する。また、立体画像5の回転量は、タッチ位置のスライド量に対応する。
 制御部20は、立体画像5が回転している間(S10のN、S11のN、S12のY)、押圧センサ11Pが第3閾値未満の押圧量を検知したとき(S10のY)、押圧センサ11Pが第4閾値以上の押圧量を検知したとき(S11のY)、位置センサ11Dがタッチ位置を検知しなくなったとき(S12のN)、立体画像5の回転を停止するよう表示部30に指示する(S13)。これにより、立体画像5の回転が完了する。そして、制御部20は、S1に戻り処理を継続する。そのため、ユーザは、立体画像5を回転させた後に、立体画像5をスライドさせることもできる。
 ここで、第3閾値は第1閾値より小さい値である。第4閾値は第1閾値より大きい値である。本実施形態において第3閾値はほぼ0に近い値に設定されている。S10のY及びS12のNでは、ユーザが立体画像5の回転を終えるため、操作面101上から指Fを離す場面を想定している。また、S11のYでは、ユーザが立体画像5の回転を終えるため、操作面101の一部を指Fで強く押圧する場面を想定している。
 以上より、ユーザは、操作面101の一部を指Fで押圧し、操作面101上で指Fをスライドさせるだけで、表示部30が立体画像5を回転させる。したがって、表示装置1は、簡単で直感的な入力操作により立体画像5を回転させることができる。
 また、立体画像5の回転速度はユーザの指Fのスライド速度に対応する。また、立体画像5の回転量はユーザの指Fのスライド量に対応する。これらにより、表示装置1は、より直感的な入力操作を実現できる。
 また、ユーザは、操作面101から指Fを離すだけで、立体画像5の回転を終えることができる。ここで、指Fを離した時点で立体画像5の回転をストップするものでも良いし、指Fを離した時点の回転速度から徐々に速度を遅くするものでも良い。また、ユーザは、操作面101の一部を指Fで押圧するだけで、表示部30は立体画像5の回転を終える。したがって、表示装置1は、簡単で直感的な入力操作により立体画像5の回転を停止させることができる。
 なお、表示部30は、現在の動作モードが移動モード及び回転モードのどちらであるかということを、図7、図8、図9に示すように表示することが好ましい。画面表示以外にも音や振動で現在の動作モードを表現してもよい。これらにより、ユーザは、現在の動作モードを知ることができるため、誤操作を防ぐことができる。
 また、ここではユーザが画面を指Fで軽くタッチしたときは移動、ユーザが画面を指Fで強くタッチしたときは回転、としているが、これに限るものではない。実施の際、S2を逆の設定、即ちユーザが画面を指Fで強くタッチしたときは移動、ユーザが画面を指Fで軽くタッチしたときは回転、としても構わない。
 次に、本発明の他の実施形態に係る表示装置について、図を参照して説明する。ここでは、操作対象となる候補が画像の中に複数存在する場面について説明する。
 図10は、本発明の他の実施形態に係る表示装置の制御部20が実行する処理を示すフローチャートである。図11は、図1に示す操作面101に表示される複数の立体画像5、7の一例を示す図である。
 図10に示すように、他の実施形態に係る表示装置の制御部20が実行する処理は、図6に示す処理にS21を追加したものである。その他の処理(S1~S13)については、図6に示す処理と同じであるため、説明を省略する。
 制御部20が画像表示ソフトを起動すると、表示部30は制御部20の指示に従って、図11に示すような複数の立体画像5、7及び背景画像9を含む画像を操作面101に表示する。
 そして、制御部20は、第2閾値以上の押圧量が押圧センサ11Pで検知されるか否か判定する(S21)。S21ではユーザが、操作面101に表示される複数の立体画像5、7のうち、操作対象にしたい立体画像を選択する場面を想定している。ここではユーザが、立体画像5を押圧(選択)することとする。
 第2閾値以上の押圧量が押圧センサ11Pで検知されると(S21のY)、制御部20は、操作面101に表示される画像のうち、押圧された立体画像5を操作対象として決定する(S1)。そして制御部20は以後同様の処理を継続する。
 なお、前記実施形態では、制御部20が画像表示ソフトを実行し、立体画像をスライドまたは回転させているが、これに限るものではない。実施の際は例えば、制御部20がその他のソフト(例えばゲームソフト)を実行し、立体画像をスライドまたは回転させてもよい。
 また、前記実施形態では、押圧センサ11Pが圧電フィルム11P1で構成されているが、これに限るものではない。実施の際、押圧センサは圧電フィルム以外で構成されていてもよい。例えば位置センサの周囲に圧電セラミック素子を配置し押圧センサとしてもよい。ただし、タブレットやスマートフォンなど大型の画面を持つ端末においては、面で押圧を検知できる圧電フィルムが好適である。
 また、前記実施形態では、ユーザはタッチパネルの操作面101に表示される画像を見ながら操作面101に対してタッチ操作や押圧操作を行っているが、これに限るものではない。実施の際は例えば、画像を表示するディスプレイと、位置センサ11D及び押圧センサ11Pを有するタッチパッドとを備えるパーソナルコンピュータを使用してもよい。この場合ユーザは、ディスプレイに表示される画像を見ながらタッチパッドの操作面に対してタッチ操作や押圧操作を行う。
 また、前記実施形態では、図8、図9に示すように立体画像5の回転軸Aが、立体画像5の中心を通過するよう予め設定されているが、これに限るものではない。実施の際は例えば図12、図13に示すように、立体画像5の回転軸Bは、立体画像5の外に設定されていてもよい。この場合、立体画像5は図13に示すように回転軸Bを中心にして回転する。
 また、前記実施形態では、図8、図9に示すようにユーザの指Fが操作面101の幅方向へスライドし、スライド方向に直交する方向Aを立体画像5の回転軸に設定しているが、これに限るものではない。実施の際は例えば図14、図15に示すように、ユーザの指Fが操作面101の対角線方向へスライドし、スライド方向に直交する方向Cを立体画像5の回転軸に設定してもよい。この場合、立体画像5は図15に示すように回転軸Cを中心にして回転する。
 また、前記実施形態では制御部20は、S8においてスライド方向に直交する方向を立体画像5の回転軸に設定しているが、これに限るものではない。実施の際は例えば位置センサ11Dによって検知される指Fの動く方向に基づいて、都度回転軸を調整しても良い。例えば当初予測した指Fの動きと現在の指Fの動きとの差が±5°ずれた時点で回転軸を修正しても良い。これにより詳細な動きが可能になる。逆に、例えば当初予測した指Fの動きと現在の指Fの動きとの差が±30°ずれた時点で回転軸を修正しても良い。これにより、ラフな操作でも同じ向きに回転させることが出来る。
 また、前記実施形態では制御部20が、球形を有する立体画像5に回転軸Aを設定しているが、これに限るものではない。実施の際は制御部20が例えば図16~図19に示すように円柱形を有する立体画像6に任意の回転軸を設定してもよい。制御部20は、図16、図17、図19に示すように、ユーザが指Fで押圧した点と立体画像6の中心Eとを結ぶ線Dを回転軸として設定してもよい。図19では、中心Eが固定された状態で立体画像6が指Fのスライド移動に合わせて回転している。
 また、前記実施形態では、表示部30が回転軸Aを中心に立体画像5を回転させているが、これに限るものではない。実施の際は例えば、表示部30が図8に示す画像を操作面101に表示させている状態で、図20に示すように、表示部30が回転軸Aを中心に視点を回転させてもよい。図20では視点が変わり、操作面101に表示される画像が、背景画像9から背景画像19へ変わっている。
 最後に、前記各実施形態の説明は、すべての点で例示であり、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の範囲が含まれる。
F…指
1…表示装置
5、6、7…立体画像
9…背景画像
10…操作入力部
11D…位置センサ
11D1…絶縁性基板
11D2,11D3…静電容量検知用電極
11D4…保護膜
11P…押圧センサ
11P1…圧電フィルム
11P2,11P3…押圧検知電極
19…背景画像
20…制御部
21…記憶部
22…RAM
30…表示部
52…制御回路モジュール
60…無線LAN通信部
61…3G通信部
70…バッテリ
100…筐体
101…操作面
301…液晶パネル
302…表面偏光板
303…裏面偏光板
304…バックライト
900…一軸延伸方向

Claims (12)

  1.  操作面と、
     前記操作面に対するタッチ位置を検知する位置検知部と、
     前記操作面に対する押圧を検知する押圧検知部と、
     画像を表示する表示部と、を備え、
     前記表示部は、前記押圧検知部が所定条件を満たす押圧量を検知したとき、前記位置検知部で検知される前記タッチ位置のスライド方向に応じて前記画像を回転させる、タッチ式入力装置。
  2.  前記表示部は、前記押圧検知部が第1閾値以上の押圧量を検知したとき、前記位置検知部で検知される前記タッチ位置のスライド方向に応じて前記画像を回転させる、請求項1に記載のタッチ式入力装置。
  3.  前記表示部は、前記押圧検知部が第1閾値未満の押圧量を検知したとき、前記位置検知部で検知される前記タッチ位置のスライド方向に応じて前記画像を回転させる、請求項1に記載のタッチ式入力装置。
  4.  前記操作面、前記位置検知部、前記押圧検知部、及び前記表示部は、積層されてタッチパネルを構成し、
     前記表示部は、前記画像を前記操作面に表示する、請求項1から請求項3のいずれか1項に記載のタッチ式入力装置。
  5.  前記画像の回転速度は、前記タッチ位置のスライド速度に対応する、請求項1から請求項4のいずれか1項に記載のタッチ式入力装置。
  6.  前記画像の回転量は、前記タッチ位置のスライド量に対応する、請求項1から請求項5のいずれか1項に記載のタッチ式入力装置。
  7.  前記表示部は、予め定められた回転中心に基づいて、前記スライド方向に応じて前記画像を回転させる、請求項1から請求項6のいずれか1項に記載のタッチ式入力装置。
  8.  前記表示部は、前記スライド方向に直交する方向を前記画像の回転軸に設定する、請求項1から請求項7のいずれか1項に記載のタッチ式入力装置。
  9.  前記表示部は、前記押圧検知部が第2閾値以上の押圧量を検知したとき、前記画像のうち押圧された立体画像を回転対象とする、請求項1から請求項8のいずれか1項に記載のタッチ式入力装置。
  10.  前記表示部は、前記画像が回転している間に前記押圧検知部が第3閾値未満の押圧量を検知したとき、前記画像の回転を停止する、請求項1から請求項9のいずれか1項に記載のタッチ式入力装置。
  11.  前記表示部は、前記画像が回転している間に前記押圧検知部が第4閾値以上の押圧量を検知したとき、前記画像の回転を停止する、請求項1から請求項10のいずれか1項に記載のタッチ式入力装置。
  12.  前記表示部は、前記画像が回転している間に前記位置検知部が前記タッチ位置を検知しなくなったとき、前記画像の回転を停止する、請求項1から請求項11のいずれか1項に記載のタッチ式入力装置。
PCT/JP2016/055971 2015-03-23 2016-02-29 タッチ式入力装置 WO2016152388A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017507637A JP6292344B2 (ja) 2015-03-23 2016-02-29 タッチ式入力装置
US15/696,754 US10365809B2 (en) 2015-03-23 2017-09-06 Touch input device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-059291 2015-03-23
JP2015059291 2015-03-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/696,754 Continuation US10365809B2 (en) 2015-03-23 2017-09-06 Touch input device

Publications (1)

Publication Number Publication Date
WO2016152388A1 true WO2016152388A1 (ja) 2016-09-29

Family

ID=56978007

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/055971 WO2016152388A1 (ja) 2015-03-23 2016-02-29 タッチ式入力装置

Country Status (3)

Country Link
US (1) US10365809B2 (ja)
JP (1) JP6292344B2 (ja)
WO (1) WO2016152388A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021518935A (ja) * 2018-01-24 2021-08-05 アップル インコーポレイテッドApple Inc. 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11249579B2 (en) * 2016-06-12 2022-02-15 Apple Inc. Devices, methods, and graphical user interfaces for manipulating embedded interactive content
US10261595B1 (en) * 2017-05-19 2019-04-16 Facebook Technologies, Llc High resolution tracking and response to hand gestures through three dimensions
US11405499B2 (en) * 2018-04-20 2022-08-02 Huawei Technologies Co., Ltd. Do-not-disturb method and terminal
US10635895B2 (en) 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
US11579769B1 (en) * 2021-12-14 2023-02-14 International Business Machines Corporation Graphic device for controlling displayed object movement and/or screen scrolling

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013511773A (ja) * 2009-11-17 2013-04-04 クゥアルコム・インコーポレイテッド ポータブルコンピューティングデバイス上の3次元仮想オブジェクトを制御するシステム及び方法
JP2013089201A (ja) * 2011-10-21 2013-05-13 Sony Computer Entertainment Inc 入力制御装置、入力制御方法、及び入力制御プログラム
WO2014030455A1 (ja) * 2012-08-24 2014-02-27 株式会社エヌ・ティ・ティ・ドコモ 画像の表示方向を制御する装置およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293711A (ja) 1999-04-08 2000-10-20 Amada Co Ltd 立体表示の姿勢制御方法及び立体表示の姿勢制御プログラムを記録したコンピュータ読出し可能記録媒体
JP5129478B2 (ja) 2006-03-24 2013-01-30 株式会社デンソーアイティーラボラトリ 画面表示装置
KR20080042354A (ko) * 2006-11-09 2008-05-15 삼성전자주식회사 이동 통신 단말기에서 대기 화면 전환 방법 및 대기 화면회전 방법과 그 이동 통신 단말기
US20090256809A1 (en) * 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
JP2010257328A (ja) * 2009-04-27 2010-11-11 Alps Electric Co Ltd 入力処理装置
JP2013025580A (ja) 2011-07-21 2013-02-04 Sharp Corp 情報端末、制御方法、及びプログラム
US20140007005A1 (en) * 2012-06-29 2014-01-02 Evernote Corporation Scrollable calendar with combined date and time controls
JP6033061B2 (ja) 2012-11-30 2016-11-30 Kddi株式会社 入力装置およびプログラム
JP2015087785A (ja) * 2013-10-28 2015-05-07 株式会社東芝 電子機器及び座標補正方法
US20150261330A1 (en) * 2014-03-11 2015-09-17 Lumi Stream Inc. Method of using finger surface area change on touch-screen devices - simulating pressure
US20160093272A1 (en) * 2014-09-29 2016-03-31 Brother Kogyo Kabushiki Kaisha Information processing device and non-transitory storage medium storing instructions executable by the information processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013511773A (ja) * 2009-11-17 2013-04-04 クゥアルコム・インコーポレイテッド ポータブルコンピューティングデバイス上の3次元仮想オブジェクトを制御するシステム及び方法
JP2013089201A (ja) * 2011-10-21 2013-05-13 Sony Computer Entertainment Inc 入力制御装置、入力制御方法、及び入力制御プログラム
WO2014030455A1 (ja) * 2012-08-24 2014-02-27 株式会社エヌ・ティ・ティ・ドコモ 画像の表示方向を制御する装置およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021518935A (ja) * 2018-01-24 2021-08-05 アップル インコーポレイテッドApple Inc. 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース
JP7039714B2 (ja) 2018-01-24 2022-03-22 アップル インコーポレイテッド 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース

Also Published As

Publication number Publication date
JPWO2016152388A1 (ja) 2017-11-16
US10365809B2 (en) 2019-07-30
JP6292344B2 (ja) 2018-03-14
US20180011628A1 (en) 2018-01-11

Similar Documents

Publication Publication Date Title
JP6292344B2 (ja) タッチ式入力装置
US10248246B2 (en) Piezoelectric sensor and touch panel
JP5884948B2 (ja) タッチ式入力装置およびタッチ式入力検出方法
JP6020745B2 (ja) タッチセンサ
US10007386B2 (en) Input device and program
WO2015068709A1 (ja) 表示装置及びプログラム
US10120485B2 (en) Electronic device and operation input program
WO2016208560A1 (ja) 押圧センサ、入力装置
CN104919406A (zh) 触摸式输入装置
JP6015866B2 (ja) 携帯端末用表示装置
JPWO2015076320A1 (ja) 表示装置及びプログラム
JP5971430B2 (ja) タッチ式入力装置
WO2015064488A1 (ja) タッチ式入力装置
JP5975184B2 (ja) 表示装置
JP5954502B2 (ja) 入力装置及びプログラム
JP6237899B2 (ja) タッチパネル、および入力操作端末
WO2015068619A1 (ja) 表示装置
JP5983892B2 (ja) 表示装置
JP6079895B2 (ja) タッチ式入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16768291

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017507637

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16768291

Country of ref document: EP

Kind code of ref document: A1