WO2013157280A1 - 位置入力装置、位置入力方法、位置入力プログラム及び情報処理装置 - Google Patents

位置入力装置、位置入力方法、位置入力プログラム及び情報処理装置 Download PDF

Info

Publication number
WO2013157280A1
WO2013157280A1 PCT/JP2013/050223 JP2013050223W WO2013157280A1 WO 2013157280 A1 WO2013157280 A1 WO 2013157280A1 JP 2013050223 W JP2013050223 W JP 2013050223W WO 2013157280 A1 WO2013157280 A1 WO 2013157280A1
Authority
WO
WIPO (PCT)
Prior art keywords
operation position
position input
input unit
surface side
predetermined
Prior art date
Application number
PCT/JP2013/050223
Other languages
English (en)
French (fr)
Inventor
康英 檜垣
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Publication of WO2013157280A1 publication Critical patent/WO2013157280A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to a position input device, a position input method, a position input program, and an information processing apparatus suitable for use in a mobile terminal such as a smartphone.
  • the screen size of the display unit has been increasing, and the number of devices that use a touch panel as an input interface has been increasing.
  • the width of the housing increases, so when holding the mobile terminal with one hand, for example, it is difficult to point with the thumb, or depending on where you point, the display part is covered with the back of the hand, There is a problem that visibility becomes worse.
  • Patent Literature 1 and Patent Literature 2 show portable terminals provided with position input devices such as a touch panel on the display surface side and the back surface side, respectively.
  • a predetermined process based on the input position coordinates is performed when a position change occurs in the back surface touch input unit. Furthermore, in this portable terminal, a predetermined process based on the input position coordinates is performed when a position change occurs in the surface touch type input unit (see FIG. 5 of Patent Document 1). Further, by adding an image input function to the back-side touch input unit, authentication processing using a fingerprint can be executed.
  • two types of pointers are displayed according to the position information acquired with the touch panel on the display surface side and the position information acquired with the touch pad on the back surface side. Further, for example, display of a plurality of icons in a three-dimensional coordinate space is controlled using these two types of position information.
  • a touch panel is provided on the display surface side and a touch pad is provided on the back surface side. Therefore, it is possible to improve visibility or to perform complicated input operations as compared with the case where the touch panel is only one surface.
  • a position input unit such as a touch panel or a touch pad is provided on two surfaces, the display surface and the back surface, the following operational problems are compared with the case where the position input unit is provided only on one surface. Occurs. That is, for example, when performing an input operation on two position input units simultaneously, it is more intensive to specify a desired position than when performing an input operation on one position input unit. It becomes necessary to do.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide a position input device, a position input method, a position input program, and an information processing device that can solve the above-described problems.
  • the present invention has been made to solve the above-described problems, and includes a first operation position input unit provided on the display surface side, a second operation position input unit provided on the back side, and the first A predetermined value corresponding to the first operation position detected by the operation position input unit and the second operation position detected by the second operation position input unit and a predetermined threshold value, When a predetermined value is less than the predetermined threshold value, it is determined that an operation that sandwiches one position corresponding to the first operation position or the second operation position is performed, and the predetermined value is An operation of simultaneously inputting instructions to two points at each of the first position corresponding to the first operation position and the second position corresponding to the second operation position when the threshold value is equal to or greater than a predetermined threshold value. It is a position input device provided with the control part which determines with having been performed.
  • the present invention provides a first operation position detected by a first operation position input unit provided on the display surface side and a second operation position detected by a second operation position input unit provided on the back side.
  • the predetermined value is less than the predetermined threshold value
  • the first operation position or the second operation position is handled.
  • the first position corresponding to the first operation position and the second operation position Is a position input method for determining that an operation for inputting an instruction at the same time is performed on two points at each of the second positions corresponding to.
  • the present invention provides a first operation position detected by a first operation position input unit provided on the display surface side and a second operation position detected by a second operation position input unit provided on the back side.
  • the first operation position or the second operation position is compared
  • a process for determining that an operation for sandwiching the position of a corresponding point is performed, and a first position corresponding to the first operation position and the first position when the predetermined value is equal to or greater than the predetermined threshold value.
  • 2 is a position input program that causes a computer to execute a process of determining that an operation of inputting an instruction simultaneously to two points at each of the second positions corresponding to the second operation position is performed.
  • the present invention includes a display device, a first operation position input unit provided on the display surface side of the display device, a second operation position input unit provided on the back side of the display device, A predetermined value corresponding to the first operation position detected by the first operation position input unit and the second operation position detected by the second operation position input unit is compared with a predetermined threshold value.
  • a predetermined value is less than the predetermined threshold value, it is determined that an operation to sandwich the position of one point corresponding to the first operation position or the second operation position is performed, and the predetermined value
  • the predetermined value When the value is equal to or greater than the predetermined threshold value, instructions are simultaneously input to two points at each of the first position corresponding to the first operation position and the second position corresponding to the second operation position.
  • Information provided with a position input device having a control unit that determines that an operation to be performed has been performed. It is a processing apparatus.
  • the present invention determines whether or not an operation for pinching a position corresponding to the first operation position detected by the first operation position input unit or the second operation position detected by the second operation position input unit has been performed. This determination is made based on a comparison result with a predetermined threshold value.
  • the first operation position and the second operation position are associated with each other within a predetermined threshold range, that is, with a certain width. Therefore, it is possible to provide a margin for the operation width with respect to the first operation position input unit and the second operation position input unit, and it is possible to easily ensure the ease of operation.
  • FIG. 3 is a flowchart illustrating an operation example of the information processing apparatus 1 illustrated in FIG. 1. It is explanatory drawing for demonstrating the operation example shown in FIG. FIG. 4 is another explanatory diagram for explaining the operation example shown in FIG. 3.
  • 6 is a flowchart showing another example of the operation of the information processing apparatus 1 shown in FIG. 6 is a flowchart showing still another operation example of the information processing apparatus 1 shown in FIG. 1.
  • FIG. 8 is another explanatory diagram for explaining the operation example shown in FIG. 7.
  • FIG. 8 is another explanatory diagram for explaining the operation example shown in FIG. 7.
  • FIG. 8 is another explanatory diagram for explaining the operation example shown in FIG. 7. It is the block diagram which showed the basic composition of the position input device which concerns on this invention.
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of an information processing apparatus according to the present invention.
  • FIG. 1 shows only some components in the information processing apparatus 1. Therefore, the information processing apparatus 1 can be provided with other configurations such as a power supply unit using a battery or the like, a wireless or wired communication unit, and an input / output unit for sound signals.
  • 2A and 2B are a front view (FIG. 2A) and a rear view (FIG. 2B) showing an example of the external configuration of the information processing apparatus 1 of FIG. 1.
  • the information processing apparatus 1 as an embodiment of the present invention can be configured as a tablet terminal having an appearance configuration as shown in FIGS. 2A and 2B, for example.
  • the information processing apparatus 1 may be a communication terminal such as a smartphone or a mobile phone, or may be a computer terminal such as a tablet PC (tablet personal computer).
  • the information processing apparatus 1 includes a display surface side position input unit 11, a back surface side position input unit 12, a control unit 13, a display unit 14, and operation keys 15.
  • the display surface side position input unit 11, the back surface side position input unit 12, and the control unit 13 constitute a position input device 10.
  • the display surface side position input unit 11 is a sensor formed integrally with the display unit 14 on the screen of the display unit 14, detects the position touched by the user's finger, and outputs the detected position information as coordinate information.
  • a touch panel is configured by the input device including the display surface side position input unit 11 and the display device including the display unit 14.
  • a sensor for detecting a position touched by a finger for example, a capacitance type sensor or a resistance film type sensor can be used.
  • the contact position of the finger is detected in accordance with the change in capacitance between the conductive film formed on the screen of the display unit 14 and the finger.
  • the resistive film method the contact position of the finger is detected according to a change in the partial pressure ratio caused by contact between the two transparent electrodes formed on the screen of the display unit 14 with the contact of the finger.
  • the back surface side position input unit 12 is a touch pad embedded in the back surface of the housing of the information processing apparatus 1 as shown in FIG. 2B, for example, detects the position touched by the user's finger and coordinates the detected position information. Output as information.
  • the back surface side position input unit 12 has the same shape as the display surface side position input unit 11.
  • the rear surface side position input unit 12 is disposed at a position facing the display surface side position input unit 11 disposed on the front surface of the housing on the rear surface of the housing.
  • the touch pad configuring the back surface side position input unit 12 can be configured using, for example, a sensor of a capacitance method, a resistance film method, or the like, for example, similarly to the display surface side position input unit 11.
  • the display surface side position input unit 11 and the back surface side position input unit 12 detect positions with the same position detection accuracy, that is, with the same resolution. Moreover, the display surface side position input part 11 and the back surface side position input part 12 output the same coordinate value on the same plane coordinate system as detected position information, when the position which opposes is operated. That is, when the coordinate value output from the display surface side position input unit 11 and the coordinate value output from the back surface side position input unit 12 are the same, the position facing the front and back surfaces of the housing of the information processing apparatus 1 It indicates that an input operation is being performed. That is, in the present embodiment, the touch panel on the display surface and the touch pad on the back surface have the same resolution and the same size. In the present embodiment, a configuration is assumed in which the upper left corner of the display unit 14 is the starting point and the coordinate system is the same in the X and Y directions shown in FIG.
  • the control unit 13 includes a CPU (central processing unit), nonvolatile and volatile memory, and the like, and controls each unit by executing a program stored in the nonvolatile memory.
  • the control unit 13 displays the display unit on the basis of, for example, a user operation instruction input using the display surface side position input unit 11, the back surface side position input unit 12, and the operation keys 15. 14 display is controlled.
  • control unit 13 particularly performs the following determination process.
  • the control unit 13 is a plane distance or coordinate value between the operation position on the front surface and the back surface obtained from the operation position coordinates detected by the display surface side position input unit 11 and the operation position coordinates detected by the back surface side position input unit 12. Are compared with a predetermined threshold value. Then, the control unit 13 determines the position of one point corresponding to the operation position on the front surface or the back surface when the distance on the plane or the coordinate value difference between the operation positions on the front surface and the back surface is smaller than a predetermined threshold value. It is determined that an operation of pinching (or pinching) from the front and back of the housing is performed.
  • the control unit 13 determines that an operation for simultaneously instructing two points with the second position corresponding to the operation position is performed. Then, the control unit 13 selects one of a plurality of predetermined operations based on position information of one point where the pinching operation is performed or two points designated on the display surface side and the back surface side. Select and execute. For example, the control unit 13 performs a process of selecting a display object (icon or predetermined object) on the display unit 14 corresponding to one point where the pinching operation is performed.
  • the display unit 14 includes a liquid crystal display device, an organic EL (organic electroluminescence) display device, and the like, and is provided in front of the housing of the information processing apparatus 1 as shown in FIG. 2A.
  • the display unit 14 displays a predetermined image under the control of the control unit 13.
  • the operation key 15 includes one or a plurality of operation keys, and outputs on / off information of each operation key to the control unit 13 in accordance with a user operation.
  • the operation key 15 includes three keys 15a, 15b, and 15c.
  • FIG. 3 is a flowchart showing a flow of determination processing according to an input operation in the control unit 13. The process of FIG. 3 is executed when the user simultaneously performs a position input operation on the display surface side position input unit 11 and the back surface side position input unit 12.
  • the control unit 13 inputs coordinate information representing the operation position from the display surface side position input unit 11 (step S10).
  • the coordinate value on the display surface side input in step S10 is (X1, Y1).
  • the control part 13 inputs the coordinate information showing an operation position from the back surface side position input part 12 (step S11).
  • the coordinate value on the back surface side input in step S11 is (X2, Y2).
  • FIG. 4 shows an example of position input operation.
  • FIG. 5 shows the relationship of coordinate values corresponding to the position input operation of FIG.
  • FIG. 4 is a front view of the same information processing apparatus 1 as shown in FIG. 2A.
  • the same reference numerals are used for the same components as those shown in FIGS. 2A and 2B.
  • the user's hand 2 compared with FIG. 2A, the user's hand 2, the contact point P1 of the thumb 21 with respect to the display surface side position input unit 11, and the contact point P2 of the index finger 22 with respect to the back surface side position input unit 12 Is schematically shown.
  • FIG. 5 is a front view of the same information processing apparatus 1 as shown in FIG. 2A.
  • the same reference numerals are used for the same components as those shown in FIGS. 2A and 2B.
  • the contact point P1 on the display surface side and the contact point P2 on the back surface side are separated by a coordinate difference ⁇ X in the X direction and by a coordinate difference ⁇ Y in the Y direction on the same XY plane.
  • step S12 determines the coordinate difference
  • corresponds to the X-direction coordinate difference ⁇ X in FIG.
  • the control unit 13 determines that the coordinate difference
  • corresponds to the Y-direction coordinate difference ⁇ Y in FIG.
  • step S13 When it is determined in step S13 that the coordinate difference
  • the coordinate ie, display surface side coordinates (X1, Y1)
  • step S12 determines whether the coordinate difference
  • the threshold value used for the determination in step S12 and step S13 is, for example, experimental based on the display surface side position input unit 11 and the back surface side position input unit 12 to be used, that is, the size of the touch panel, touch pad, housing, and the like.
  • the method for obtaining the threshold is not specified.
  • the threshold value used in the determination in step S12 and the threshold value used in the determination in step S13 may be the same or different.
  • step S12 and step S13 can be changed as shown in FIG.
  • the method for determining the difference between the X coordinate and the Y coordinate can be a method for determining based on the magnitude of the vector obtained from the difference between the X coordinate and the Y coordinate, as shown in FIG.
  • FIG. 6 is a flowchart showing another example of the comparison method with the predetermined threshold value described with reference to FIG.
  • the same reference numerals are used for the same processes as those shown in FIG.
  • the process of step S12a is used instead of step S12 and step S13 of FIG.
  • the control unit 13 determines the coordinate difference (X1-X1) in the X direction based on the display surface side coordinates (X1, Y1) and the back surface side coordinates (X2, Y2) acquired in steps S10 and S11.
  • the square root of the sum obtained by adding the square of X2) and the square of the coordinate difference in the Y direction (Y1-Y2) is compared with a predetermined threshold value.
  • step S12a When it is determined in step S12a that the value of the square root of the sum is less than the threshold value (in the case of “Yes” in step S12a), the control unit 13 determines the same coordinate (that is, display surface side coordinates (X1, Y1) or It is determined that the user is pinching (or sandwiching) the information processing apparatus 1 from the front and back at the position of the rear surface side coordinates (X2, Y2)) (step S14).
  • step S12a when it is determined in step S12a that the value of the square root of the sum is equal to or greater than the threshold value (in the case of “No” in step S12a), the control unit 13 displays the display surface side coordinates (X1, Y1) and the back surface side coordinates ( X2 and Y2) are determined to be instructed (ie, pressed) by the user (step S15).
  • a predetermined operation set in advance is, for example, a predetermined value or more in the X direction as shown by an arrow with a start point in FIG. It is assumed that the operation is such that each contact point on the back side is displaced. In FIG. 9, the displacement of each contact point is shown as ⁇ X1 and ⁇ X2.
  • the processing shown in FIG. 7 is repeatedly executed at a predetermined cycle when the user simultaneously performs a position input operation on the display surface side position input unit 11 and the back surface side position input unit 12.
  • the control unit 13 displays the display surface side position input unit 11 and the back surface side position input unit 12.
  • the display surface side coordinates (X1, Y1) and the back surface side coordinates (X2, Y2) are acquired (step S30).
  • the display surface side coordinates (X1, Y1) and the back surface side coordinates (X2, Y2) are acquired (step S30).
  • the display surface side coordinates (X1, Y1) and the back surface side coordinates (X2, Y2) corresponding to the contact points P1 and P2 shown in FIGS. 4 and 5 are acquired.
  • ) shown in FIG. 5 is less than a predetermined threshold value and the Y-direction coordinate difference ⁇ Y (
  • step S33 the determination result is “Yes”, and the control unit 13 determines that the user is the information processing apparatus 1 at the same coordinate (that is, the display surface side coordinates (X1, Y1) or the back surface side coordinates (X2, Y2)). Is pinched from the front and back (or sandwiched) (step S34).
  • the process shown in FIG. 7 ends.
  • ) is less than the predetermined threshold value and the Y-direction coordinate difference ⁇ Y (
  • step S30 the control unit 13 receives the latest display surface side coordinates (X1, Y1) and the display surface side position input unit 11 and the back surface side position input unit 12 and The back side coordinates (X2, Y2) are acquired (step S30).
  • X1, Y1 display surface side coordinates
  • Y2 display surface side position input unit 11 and the back surface side position input unit 12
  • the back side coordinates (X2, Y2) are acquired (step S30).
  • step S30 it is assumed that coordinate values indicating positions on the way from the contact point P1 and the contact point P2 illustrated in FIG. 8 toward the contact points P11 and P21 are acquired in step S30.
  • step S31 the determination in step S31 is “Yes”, and the control unit 13 subsequently performs the determination process in step S32.
  • step S32 the control unit 13 determines whether or not it has been determined in step S34 that the user is pinching from the front and back while the simultaneous contact state is continued. In this case, since it has already been determined, the determination result is “Yes” in step S32, and the control unit 13 subsequently performs the process of step S36.
  • step S36 the control unit 13 calculates the X-direction coordinate difference of the display surface side coordinates and the X-direction coordinate difference of the back surface side coordinates with reference to the acquired coordinates when it is determined that it is pinched in step S34. That is, in step S36, as shown in FIG. 9, for example, the control unit 13 reaches the current contact point based on the contact point P1 (in this case, the position between the contact point P1 and the contact point P11). The coordinate difference ( ⁇ X1) in the X direction and the coordinate difference ( ⁇ X2) in the X direction up to the current contact point (in this case, the position between the contact point P2 and the contact point P21) with the contact point P2 as a reference. calculate.
  • step S37 determines whether or not each difference (that is, each X-direction coordinate difference) calculated in step S36 is equal to or greater than a predetermined threshold value (step S37).
  • the determination process in step S37 is to determine whether or not the user intentionally changes the contact point in a state where the user has pinched the front and back at the same time.
  • the determination process of step S37 is provided in order not to erroneously determine that the user has not changed the position in a pinched state but the contact point is fluctuated and the operation of shifting the contact point has been performed. Yes.
  • step S37 if the control unit 13 determines that each difference is not equal to or greater than the threshold value, the process illustrated in FIG. 7 ends.
  • each contact point is set to the contact point P11. And P21.
  • the control unit 13 receives the latest display surface side coordinates (X1, Y1) and the display surface side position input unit 11 and the back surface side position input unit 12 and The back side coordinates (X2, Y2) are acquired (step S30).
  • step S30 coordinate values indicating the contact points P11 and P21 shown in FIG. 8 are acquired.
  • step S31 is “Yes”, and the control unit 13 subsequently performs the determination process in step S32.
  • step S32 since it is determined that it is pinched, the determination result is “Yes” in step S32, and the control unit 13 subsequently performs the determination process of step S36.
  • step S36 the control unit 13 determines the coordinate difference ( ⁇ X1) in the X direction up to the current contact point (in this case, the contact point P11) with reference to the contact point P1, and the contact point.
  • a coordinate difference ( ⁇ X2) in the X direction to the current contact point (in this case, the contact point P21) with P2 as a reference is calculated.
  • step S37 determines whether or not each difference (that is, each X-direction coordinate difference) calculated in step S36 is equal to or greater than a predetermined threshold value. In this case, if ⁇ X1 and ⁇ X2 shown in FIG. 9 are both equal to or greater than a predetermined threshold value, in step S37, the control unit 13 determines that each difference is equal to or greater than the threshold value, and the determination result is “ Yes ".
  • Step S38 the control unit 13 performs a determination process regarding the operation content based on the X-direction coordinate difference ⁇ X1 of the display surface side coordinate and the X-direction coordinate difference ⁇ X2 of the back surface side coordinate, and performs a process of determining the content of the instruction.
  • the control unit 13 first performs the user's operation continuously performed after the user's operation “pinch” (or “pinch”) described with reference to FIG. 3 or FIG. It is determined whether or not the operation is one of predetermined operations set in advance.
  • the control unit 13 determines that the user's operation to be continuously performed is one of the predetermined operations set in advance, the content of the instruction (that is, what operation is performed) based on the determination result. It is determined whether the operation has been performed, and what kind of processing is to be performed for the operation).
  • step S38 as a predetermined operation set in advance, for example, as shown in FIG. 9, the X-direction coordinate difference ⁇ X1 on the display surface side is in the negative (minus) direction of the X axis and The operation is performed when the X-direction coordinate difference ⁇ X2 is the positive (plus) direction of the X-axis (when the displacement of the first operation position and the displacement of the second operation position are opposite to each other). Can do.
  • Such an operation corresponds to an operation in which, for example, the user performs an operation of “pinching” (or “pinching”) an icon or the like displayed on the display unit 14 and then sliding the thumb and index finger in the opposite directions.
  • such an operation corresponds to sliding the thumb 21 leftward from the contact point P1 (X is a minus direction) and sliding the index finger 22 rightward (X is a plus direction) from the contact point P2.
  • the control unit 13 displays, for example, the content of the instruction corresponding to the operation as a three-dimensional display on the display unit 14 as the object of the “pinch” operation.
  • the display object such as an icon is rotated around the vertical central axis passing through the intermediate point between the reference contact points P1 and P2 in the moving direction of each contact point (the front surface of the display object is around the central axis) To rotate counterclockwise to the back side in the left direction).
  • the predetermined operation used in the determination in step S38 is an operation in the opposite direction to the slide operation shown in FIGS. 8 and 9, for example, as shown in FIGS. Can do. 10 and 11, the same reference numerals as those used in FIGS. 8 and 9 are used for the same (or corresponding) configurations as those shown in FIGS. 8 and 9.
  • the thumb 21 is slid from the contact point P1 in the right direction (X is a plus direction), and the index finger 22 is slid from the contact point P2 in the left direction (X is a plus direction).
  • the control unit 13 displays, for example, the content of the instruction corresponding to the operation as a three-dimensional display on the display unit 14 as the object of the “pinch” operation.
  • a display object such as an icon rotates around the vertical central axis passing through the intermediate point between the reference contact points P1 and P2 in the moving direction of the contact points P1 and P2 (the front surface of the display object is centered on the central axis). It is determined to rotate to the back side in the right direction so as to turn counterclockwise.
  • step S37 it is determined whether each difference (that is, each X-direction coordinate difference) calculated in step S36 is equal to or greater than a predetermined threshold value. It may be determined whether only one of the direction coordinate difference ⁇ X1 and the X direction coordinate difference ⁇ X2) is equal to or greater than a predetermined threshold value. If the determination result is Yes, the process may proceed to S38. When such a process is performed, after the user's operation of “pinching” (or “pinch”) is performed, only the contact point on either the display surface side or the back surface side is moved. A three-dimensional display object can be rotated.
  • the operation continued to the “pinch” operation may be a case where the slide directions are opposite to each other on the front and back sides, or a case where the slide directions are the same direction on the front and back sides.
  • the operation that continues to the “pinching” operation may be an operation in which the coordinate difference in the Y direction is not less than (or with) the coordinate difference in the X direction and is equal to or greater than a predetermined threshold value.
  • the control unit 13 determines that the instruction content is an upward or downward rotation instruction with respect to the object to be sandwiched. Can do.
  • control part 13 can also select a rotation direction according to the direction of the displacement of a Y direction. For example, when the distance between the reference contact point and the contact point after the subsequent operation is greater than or equal to a predetermined threshold value, the control unit 13 displays the instruction content in a three-dimensional manner on the display unit 14.
  • a display object such as an icon passes through the intermediate point between the reference contact points P1 and P2, and around each central axis perpendicular to the moving direction of the contact point on either the display surface side or the back surface side. You may make it determine that it is rotating in the moving direction of any one or both of contact point P1, P2.
  • the position input unit such as the touch panel on the display surface
  • the position input unit such as the touch pad is disposed on the back side of the display surface across the housing. Can point from the touchpad on the back.
  • this configuration for example, it is possible to point a point that is difficult to point with the thumb with another finger (for example, an index finger) or point from the back without impairing the visibility.
  • the touch panel on the display surface and the touchpad on the back surface at the same time and simultaneously pointing the same coordinate icon, etc., with the thumb from the display surface and the index finger from the back surface, the displayed icons are “pinched” ( Alternatively, a user operation of “pinch” or a three-dimensional user operation of rotating an icon or the like by sliding the thumb and index finger in the opposite directions after pinching can be provided.
  • the touchpad is placed on the back side of the mobile device (opposite the display surface across the housing) and points from the back side. There is an effect that visibility is not hindered.
  • a three-dimensional operation of pinching can be provided to the user. Also, after pointing the same coordinates on the touch panel on the display surface and the touch pad on the back surface, if you slide your finger left and right or up and down and in the opposite direction on the display surface and back surface, the display object will be rotated. Various operations can be provided to the user.
  • the present invention has been described above with reference to the embodiments, but the present invention is not limited to the above-described embodiments.
  • Various modifications that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
  • the touch panel on the display surface and the touch pad on the back surface are not made the same size, and for example, a touch pad having a size smaller than that on the display surface side may be arranged on the back surface.
  • a point from the back side or a three-dimensional user operation can be provided for a limited area of the screen, or it is proportional to the correspondence of each coordinate value between the display surface side and the back surface side. And so on.
  • each block shown in FIG. 1 can be integrated with other blocks or divided into a plurality of blocks.
  • the program executed by the control unit 13 can be distributed via a computer-readable recording medium or a communication line, for example.
  • the position input device 100 as an embodiment of the present invention includes a first operation position input unit 101, a second operation position input unit 102, and a control unit 103.
  • the first operation position input unit 101 is provided on the display surface side.
  • the second operation position input unit 102 is provided on the back side.
  • the control unit 103 determines a predetermined value according to the first operation position detected by the first operation position input unit 101 and the second operation position detected by the second operation position input unit 102, and a predetermined value.
  • the predetermined value is smaller than the predetermined threshold value, it is determined that an operation to sandwich the position of one point corresponding to the first operation position or the second operation position is performed.
  • the predetermined value is equal to or greater than the predetermined threshold value, an operation for simultaneously instructing two points of the first position corresponding to the first operation position and the second position corresponding to the second operation position is performed. It is determined that
  • the present invention can be used for portable terminals such as smartphones.
  • it is possible to provide a margin for the operation width with respect to the first operation position input unit and the second operation position input unit, and it is possible to easily ensure the ease of operation.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 タッチパネル等を用いる携帯端末において操作のしやすさを確保する。位置入力装置は、表示面側に設けられた第1の操作位置入力部と、裏面側に設けられた第2の操作位置入力部と、第1の操作位置入力部が検知した第1の操作位置と第2の操作位置入力部が検知した第2の操作位置とに応じた所定の値と、所定のしきい値とを比較し、所定の値が所定のしきい値より小さい場合に第1の操作位置又は第2の操作位置に対応する1点の位置を挟む操作が行われと判定する制御部とを備えている。

Description

位置入力装置、位置入力方法、位置入力プログラム及び情報処理装置
 本発明は、スマートフォン等の携帯端末において用いて好適な位置入力装置、位置入力方法、位置入力プログラム及び情報処理装置に関する。
 スマートフォンなどの携帯端末において、表示部の大画面化が進むとともに、入力インターフェースとしてタッチパネルが使用されるものが増えてきている。しかし、大画面化に伴って、筐体の幅が大きくなることから、携帯端末を片手持ちした場合に例えば親指でポイントしづらかったり、ポイントする場所次第では、手の甲で表示部を覆ってしまい、視認性が悪くなってしまったりするという課題がある。
 また、通常、タッチパネルが1面であるため、タッチ(タッチパネルへの接触)、タップ(タッチパネルに1瞬触って、離す)、ダブルタップ(タップを短時間に2回繰り返す)、2本の指の距離の変化を使ってのズーム等、その入力方法は、2次元に対するものに限られている。これに対し、例えば特許文献1及び特許文献2には、表示面側と裏面側とにそれぞれタッチパネル等の位置入力装置を設けた携帯端末が示されている。
 特許文献1に示されている携帯端末では、裏面タッチ式入力部に位置変化が生じた場合に入力された位置座標に基づく所定の処理が行われる。さらに、この携帯端末では、表面タッチ式入力部に位置変化が生じた場合に入力された位置座標に基づく所定の処理が行われる(特許文献1の図5参照)。また、裏面タッチ式入力部にイメージ入力機能を付加することで、指紋を用いた認証処理を実行可能としている。
 また、特許文献2に示されている携帯端末では、表示面側のタッチパネルで取得した位置情報と、裏面側のタッチパッドで取得した位置情報とに応じて、2種類のポインタが表示される。また、これらの2種類の位置情報を用いて例えば3次元座標空間における複数のアイコン表示が制御される。
日本特開2007-141029号公報 日本特開2009-157908号公報
 上述したように、特許文献1や特許文献2に記載されている構成では、表示面側にタッチパネルを設けるとともに、裏面側にタッチパッドを設けている。そのため、タッチパネルを1面のみにする場合に比べ、視認性を向上させたり、複雑な入力操作を行えるようにしたりすることができる。しかしながら、タッチパネル、タッチパッド等の位置入力部を表示面と裏面との2つの面に設けた場合、1つの面のみに位置入力部を設けた場合と比較して次のような操作上の課題が生じる。すなわち、例えば、2つの位置入力部に対して同時に入力操作を行う場合、所望の位置を指定するのに、1つの位置入力部に対して入力操作を行うときと比べると、より集中して操作を行う必要が生じてくる。また、両方の位置入力部に対して正確な位置を指示するには、一定程度の慣れが必要になると考えられる。特に、表示面側と裏面側の位置入力部の大きさが同一でない場合には、互いに対応する2つの位置をすばやく正確に指示するのには相当程度の慣れが必要になると考えられる。このように、位置入力部を表示面と裏面との2つの面に設ける場合、操作のしやすさを確保することが課題となる。
 本発明は、上記の事情を考慮してなされたものであり、上記の課題を解決することができる位置入力装置、位置入力方法、位置入力プログラム及び情報処理装置を提供することを目的とする。
 本発明は、上述の課題を解決すべくなされたもので、表示面側に設けられた第1の操作位置入力部と、裏面側に設けられた第2の操作位置入力部と、前記第1の操作位置入力部が検知した第1の操作位置と前記第2の操作位置入力部が検知した第2の操作位置とに応じた所定の値と、所定のしきい値とを比較し、前記所定の値が前記所定のしきい値未満の場合に前記第1の操作位置又は前記第2の操作位置に対応する1点の位置を挟む操作が行われと判定し、前記所定の値が前記所定のしきい値以上の場合に前記第1の操作位置に対応する第1の位置と前記第2の操作位置に対応する第2の位置それぞれにおける2点に対して同時に指示を入力する操作が行われたと判定する制御部とを備える位置入力装置である。
 また本発明は、表示面側に設けられた第1の操作位置入力部が検知した第1の操作位置と裏面側に設けられた第2の操作位置入力部が検知した第2の操作位置とに応じた所定の値と、所定のしきい値とを比較し、前記所定の値が前記所定のしきい値未満の場合に、前記第1の操作位置又は前記第2の操作位置に対応する1点の位置を挟む操作が行われと判定し、前記所定の値が前記所定のしきい値以上の場合に、前記第1の操作位置に対応する第1の位置と前記第2の操作位置に対応する第2の位置それぞれにおける2点に対して同時に指示を入力する操作が行われたと判定する位置入力方法である。
 また本発明は、表示面側に設けられた第1の操作位置入力部が検知した第1の操作位置と裏面側に設けられた第2の操作位置入力部が検知した第2の操作位置とに応じた所定の値と、所定のしきい値とを比較する処理と、前記所定の値が前記所定のしきい値未満の場合に、前記第1の操作位置又は前記第2の操作位置に対応する1点の位置を挟む操作が行われと判定する処理と、前記所定の値が前記所定のしきい値以上の場合に、前記第1の操作位置に対応する第1の位置と前記第2の操作位置に対応する第2の位置それぞれにおける2点に対して同時に指示を入力する操作が行われたと判定する処理とをコンピュータに実行させる位置入力プログラムである。
 また本発明は、表示装置を備えるとともに、前記表示装置の表示面側に設けられた第1の操作位置入力部と、前記表示装置の裏面側に設けられた第2の操作位置入力部と、前記第1の操作位置入力部が検知した第1の操作位置と前記第2の操作位置入力部が検知した第2の操作位置とに応じた所定の値と、所定のしきい値とを比較し、前記所定の値が前記所定のしきい値未満の場合に前記第1の操作位置又は前記第2の操作位置に対応する1点の位置を挟む操作が行われと判定し、前記所定の値が前記所定のしきい値以上の場合に前記第1の操作位置に対応する第1の位置と前記第2の操作位置に対応する第2の位置それぞれにおける2点に対して同時に指示を入力する操作が行われたと判定する制御部とを有する位置入力装置を備える情報処理装置である。
 本発明では、第1の操作位置入力部が検知した第1の操作位置又は第2の操作位置入力部が検知した第2の操作位置に対応する1点の位置を挟む操作が行われたか否かの判定が、所定のしきい値との比較結果に基づいて行われる。この構成を用いれば、所定のしきい値の範囲内でつまり一定の幅をもたせて第1の操作位置と第2の操作位置との対応付けが行われる。よって、第1の操作位置入力部及び第2の操作位置入力部に対する操作の幅に余裕を持たせることができ、操作のしやすさを容易に確保することができる。
本発明に係る情報処理装置の一実施形態の構成例を示したブロック図である。 図1に示した情報処理装置1の外観構成例を示す正面図である。 図1に示した情報処理装置1の外観構成例を示す背面図である。 図1に示した情報処理装置1の動作例を示したフローチャートである。 図3に示した動作例を説明するための説明図である。 図3に示した動作例を説明するための他の説明図である。 図1に示した情報処理装置1の他の動作例を示したフローチャートである。 図1に示した情報処理装置1のさらに他の動作例を示したフローチャートである。 図7に示した動作例を説明するための説明図である。 図7に示した動作例を説明するための他の説明図である。 図7に示した動作例を説明するための他の説明図である。 図7に示した動作例を説明するための他の説明図である。 本発明に係る位置入力装置の基本構成を示したブロック図である。
 以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明に係る情報処理装置の一実施形態の構成例を示したブロック図である。ただし、図1では、情報処理装置1内の一部の構成要素のみを示している。したがって、情報処理装置1には、他に、バッテリ等を用いた電源部、無線や有線の通信部、音信号の入出力部等の構成を設けることができる。図2A及び図2Bは、図1の情報処理装置1の外観構成例を示した正面図(図2A)及び背面図(図2B)である。
 本発明の一実施形態としての情報処理装置1は、例えば図2A及び図2Bに示したような外観構成を有するタブレット端末として構成することができる。情報処理装置1は、例えば、スマートフォン、携帯電話機等の通信端末であってもよく、タブレットPC(タブレット・パーソナルコンピュータ)等のコンピュータ端末であってもよい。情報処理装置1は、表示面側位置入力部11、裏面側位置入力部12、制御部13、表示部14及び操作キー15を備えている。ここで、表示面側位置入力部11、裏面側位置入力部12及び制御部13は、位置入力装置10を構成している。
 表示面側位置入力部11は、表示部14の画面上に表示部14と一体として形成されたセンサーであり、ユーザの指が触れた位置を検知し、検知した位置情報を座標情報として出力する。この表示面側位置入力部11からなる入力装置と、表示部14からなる表示装置とからタッチパネルが構成される。指が触れた位置を検知するセンサーとしては、例えば静電容量方式、抵抗膜方式等のセンサーを用いることができる。静電容量方式では、表示部14の画面上に形成された導電膜と、指との間の静電容量の変化に応じて指の接触位置が検知される。抵抗膜方式では、表示部14の画面上に形成された2層の透明電極間が、指の接触に伴って接触することで生じる分圧比の変化に応じて指の接触位置が検知される。
 裏面側位置入力部12は、例えば図2Bに示したように情報処理装置1の筐体裏面に埋め込まれたタッチパッドであり、ユーザの指が触れた位置を検知し、検知した位置情報を座標情報として出力する。図2A及び図2Bに示した例では、裏面側位置入力部12は、表示面側位置入力部11と同一形状である。また、裏面側位置入力部12は、筐体表面に配置されている表示面側位置入力部11に対して、筐体裏面において対向する位置に配置されている。裏面側位置入力部12を構成するタッチパッドは、例えば表示面側位置入力部11と同様に、例えば静電容量方式、抵抗膜方式等のセンサーを用いて構成することができる。
 本実施形態では、表示面側位置入力部11と裏面側位置入力部12とは、同一の位置検知精度すなわち同一解像度で位置を検出するものとする。また、表示面側位置入力部11と裏面側位置入力部12とは、対向する位置が操作された場合、同一の平面座標系上の同一の座標値を、検知した位置情報として出力する。すなわち、表示面側位置入力部11が出力する座標値と、裏面側位置入力部12が出力する座標値が同一の場合、情報処理装置1の筐体の表面及び裏面で対向する位置に対して入力操作が行われていることが示される。つまり、本実施形態では、表示面のタッチパネル等と裏面のタッチパッド等は、同じ分解能を持ち、同じサイズである。また、本実施形態では、表示部14の左上の角を起点として、図4等に示したX方向、Y方向にそれぞれ同じ座標系を持っている構成を想定している。
 制御部13は、内部にCPU(中央処理装置)、不揮発及び揮発メモリ等を備え、不揮発メモリ等に格納されているプログラムを実行することで各部を制御する。図1に示したブロック図では、制御部13が、例えば、表示面側位置入力部11、裏面側位置入力部12及び操作キー15を用いて入力されたユーザの操作指示に基づいて、表示部14の表示を制御する。
 制御部13は、本実施形態では特に次の判定処理を行う。制御部13は、表示面側位置入力部11が検知した操作位置座標と、裏面側位置入力部12が検知した操作位置座標とから求まる表面と裏面の操作位置間の平面上の距離や座標値の差分と、所定のしきい値とを比較する。そして、制御部13は、表面と裏面の操作位置間の平面上の距離や座標値の差分が、所定のしきい値より小さい場合に、表面又は裏面の操作位置に対応する1点の位置を筐体の表裏から挟む(あるいは、つまむ)操作が行われと判定する。他方、制御部13は、表面と裏面の操作位置間の平面上の距離や座標値の差分が、所定のしきい値以上の場合に、表面の操作位置に対応する第1の位置と、裏面の操作位置に対応する第2の位置との2点を同時に指示する操作が行われたと判定する。そして、制御部13は、挟む操作が行われた1点又は表示面側と裏面側とで指示された2点の位置情報に基づいて、予め定められた複数の所定の操作のうちからいずれかを選択して実行する。制御部13は、例えば、挟む操作が行われた1点に対応する表示部14の表示対象物(アイコンや所定のオブジェクト)を選択する処理を実行する。
 表示部14は、液晶表示装置、有機EL(有機エレクトロルミネッセンス)表示装置等から構成されていて、図2Aに示したように情報処理装置1の筐体正面に設けられている。表示部14は、制御部13の制御に従って、所定の画像を表示する。
 操作キー15は、1又は複数の操作キーから構成されていて、ユーザの操作に応じて各操作キーのオン又はオフ情報を制御部13に対して出力する。図2Aに示した例では、操作キー15は、3個のキー15a、15b及び15cを有して構成されている。
 次に、図3を参照して、図1に示した情報処理装置1の動作例について説明する。図3は、制御部13における入力操作に応じた判定処理の流れを示すフローチャートである。図3の処理は、表示面側位置入力部11及び裏面側位置入力部12に対してユーザが同時に位置入力操作を行った場合に実行される。
 制御部13は、表示面側位置入力部11から操作位置を表す座標情報を入力する(ステップS10)。この場合、ステップS10で入力された表示面側の座標値を(X1,Y1)とする。続いて、制御部13は、裏面側位置入力部12から操作位置を表す座標情報を入力する(ステップS11)。この場合、ステップS11で入力された裏面側の座標値を(X2,Y2)とする。
 図4に、位置入力操作の一例を示した。また、図5に、図4の位置入力操作に対応する座標値の関係を示した。図4は、図2Aに示したものと同一の情報処理装置1の正面図である。図4では、図2A及び図2Bに示したものと同一の構成には同一の符号を用いている。ただし、図4では、図2Aと比較してさらに、ユーザの手2と、表示面側位置入力部11に対する親指21の接触点P1と、裏面側位置入力部12に対する人差し指22の接触点P2とを模式的に示している。また、図5は、図2Aに示したものと同一の情報処理装置1の正面図であり、図4に示した接触点P1と接触点P2の各座標値と、各座標値間の対応関係とを示している。図5では、図2A及び図2Bに示したものと同一の構成には同一の符号を用いている。この場合、表示面側の接触点P1と裏面側との接触点P2とは、同一のXY平面上で、X方向に座標差ΔXだけ離れていて、Y方向に座標差ΔYだけ離れている。
 図3に戻り、ステップS10及びステップS11で表示面側座標(X1,Y1)及び裏面側座標(X2,Y2)を取得すると、制御部13は、X方向の座標差|X1-X2|(ここで| |は絶対値を表す)が所定のしきい値未満であるか否かを判定する(ステップS12)。このX方向の座標差|X1-X2|は、図5のX方向座標差ΔXに対応する。ステップS12で座標差|X1-X2|がしきい値未満と判定された場合(ステップS12で「Yes」の場合)、制御部13は、Y方向の座標差|Y1-Y2|が所定のしきい値未満であるか否かを判定する(ステップS13)。このY方向の座標差|Y1-Y2|は、図5のY方向座標差ΔYに対応する。
 そして、ステップS13で座標差|Y1-Y2|がしきい値未満と判定された場合(ステップS13で「Yes」の場合)、制御部13は、同座標(すなわち表示面側座標(X1,Y1)又は裏面側座標(X2,Y2))の位置で、ユーザが情報処理装置1を表裏からつまんでいる(あるいは、はさんでいる)と判定する(ステップS14)。一方、ステップS12で座標差|X1-X2|がしきい値以上と判定された場合(ステップS12で「No」の場合)又はステップS13で座標差|Y1-Y2|がしきい値以上と判定された場合(ステップS13で「No」の場合)、制御部13は、表示面側座標(X1,Y1)と裏面側座標(X2,Y2)との2点をユーザが指示している(すなわち押下している)と判定する(ステップS15)。
 なお、ステップS12及びステップS13の判定に用いるしきい値は、使用する表示面側位置入力部11や裏面側位置入力部12、すなわち、タッチパネルやタッチパッド、筐体の大きさ等から例えば実験的に求めた最適な値とする。ただし、しきい値の求め方については、特定されない。また、ステップS12の判定で用いるしきい値と、ステップS13の判定で用いるしきい値とは同一であってもよいし、異なっていてもよい。
 なお、ステップS12及びステップS13におけるX座標及びY座標のそれぞれの差を判定する方法は、図6に示したように変更することができる。すなわち、X座標及びY座標のそれぞれの差を判定する方法は、図6に示したように、X座標及びY座標の差分から求めたベクトルの大きさで判定する方法等とすることができる。図6は、図3を参照して説明した所定のしきい値との比較方法の他の例を示したフローチャートである。図6では、図3に示したものと同一の処理には同一の符号を用いている。図6に示した動作例では、図3のステップS12及びステップS13に代えて、ステップS12aの処理を用いている。図6のステップ12aでは、ステップS10及びステップS11で取得した表示面側座標(X1,Y1)及び裏面側座標(X2,Y2)に基づいて、制御部13が、X方向の座標差(X1-X2)の2乗とY方向の座標差(Y1-Y2)の2乗とを加算して得られる和の平方根の値と、所定のしいき値とを比較する。
 そして、ステップS12aで和の平方根の値がしきい値未満と判定された場合(ステップS12aで「Yes」の場合)、制御部13は、同座標(すなわち表示面側座標(X1,Y1)又は裏面側座標(X2,Y2))の位置で、ユーザが情報処理装置1を表裏からつまんでいる(あるいは、はさんでいる)と判定する(ステップS14)。一方、ステップS12aで和の平方根の値がしきい値以上と判定された場合(ステップS12aで「No」の場合)、制御部13は、表示面側座標(X1,Y1)と裏面側座標(X2,Y2)との2点をユーザが指示している(すなわち押下している)と判定する(ステップS15)。
 次に、図4及び図5と、図7から図11を参照して、図1、図2A及び図2Bを参照して説明した情報処理装置1の他の動作例について説明する。ここで説明する動作例では、制御部13が、図3又は図6を参照して説明した「挟む」(あるいは「つまむ」)というユーザの操作が行われた後、継続して行われるユーザの操作が、予め設定された所定の操作であるか否かを判定する。なお、図7から図11に示した動作例では、予め設定された所定の操作が、例えば図9において始点を丸印とした矢印で示したようにX方向に所定値以上、表示面側と裏面側の各接触点が変位する操作であるとする。図9では各接触点の変位を、ΔX1及びΔX2として示している。
 図7に示した処理は、表示面側位置入力部11及び裏面側位置入力部12に対してユーザが同時に位置入力操作を行った場合に所定の周期で繰り返し実行される。いま、ユーザの2つの指が表示面側位置入力部11及び裏面側位置入力部12に同時に接触したことを検出すると、制御部13は、表示面側位置入力部11及び裏面側位置入力部12から、表示面側座標(X1,Y1)及び裏面側座標(X2,Y2)を取得する(ステップS30)。この場合には、図4及び図5に示した接触点P1及び接触点P2に応じた表示面側座標(X1,Y1)及び裏面側座標(X2,Y2)が取得されたとする。
 次に、制御部13は、表示面側位置入力部11及び裏面側位置入力部12に対する接触状態が継続しているか否か(指の接触が検出された時点から所定の時間以上経過したか否か)を判定する(ステップS31)。この場合には、接触状態は継続中ではないので(すなわち接触状態は開始された直後なので)、制御部13は、表示面側位置入力部11及び裏面側位置入力部12に対する接触状態が継続していないと判定する(ステップS31で「No」)。次に、制御部13は、ステップS33で図5に示したX方向座標差ΔX(=|X1-X2|)が所定のしきい値未満かつY方向座標差ΔY(=|Y1-Y2|)が所定のしきい値未満であるか否かを判定する。
 この場合には、X方向座標差ΔX(=|X1-X2|)が所定のしきい値未満かつY方向座標差ΔY(=|Y1-Y2|)が所定のしきい値未満であるとすると、ステップS33で判定結果が「Yes」となり、制御部13は、同座標(すなわち表示面側座標(X1,Y1)又は裏面側座標(X2,Y2))の位置で、ユーザが情報処理装置1を表裏からつまんでいる(あるいは、はさんでいる)と判定する(ステップS34)。ここで図7に示した処理が終了する。
 他方、X方向座標差ΔX(=|X1-X2|)が所定のしきい値未満かつY方向座標差ΔY(=|Y1-Y2|)が所定のしきい値未満でないとすると、ステップS33で「No」と判定する。すると制御部13は、表示面側座標(X1,Y1)と裏面側座標(X2,Y2)との2点をユーザが指示している(すなわち押下している)と判定する(ステップS35)。そして、図7に示した処理が終了する。
 その後、ユーザが、表示面側位置入力部11及び裏面側位置入力部12に親指21及び人差し指22を継続して接触させた状態で、図8に示したように、最初の接触点P1及び接触点P2から接触点P11及びP21に向けて親指21及び人差し指22をずらす操作を行ったとする。この場合、所定時間後に再び図7の処理が実行されると、制御部13は、表示面側位置入力部11及び裏面側位置入力部12から、最新の表示面側座標(X1,Y1)及び裏面側座標(X2,Y2)を取得する(ステップS30)。この場合には、ステップS30で、図8に示した接触点P1及び接触点P2から接触点P11及びP21へ向かう途中の位置を示す座標値が取得されたとする。
 この場合には、同時接触状態が継続中なのでステップS31の判定が「Yes」となり、制御部13は、続いてステップS32の判定処理を行う。ステップS32では、制御部13が、この同時接触状態の継続中にステップS34で表裏からつまんでいる状態であると判定済みであるか否かを判定する。この場合には、判定済みであるので、ステップS32で判定結果が「Yes」となり、制御部13は、続いてステップS36の処理を行う。
 ステップS36では、制御部13が、ステップS34でつまんでいると判定した際の取得座標を基準として、表示面側座標のX方向座標差と裏面側座標のX方向座標差とを算出する。すなわち、ステップS36では、制御部13が、例えば図9に示したように、接触点P1を基準とする現在の接触点(この場合は接触点P1と接触点P11との間の位置)までのX方向の座標差(ΔX1)と、接触点P2を基準とする現在の接触点(この場合は接触点P2と接触点P21との間の位置)までのX方向の座標差(ΔX2)とを算出する。
 次に、制御部13は、ステップS36で算出した各差分(すなわち各X方向座標差)が所定のしきい値以上か否かを判定する(ステップS37)。ステップS37の判定処理は、ユーザが表裏を同時につまんだ状態で、ユーザが意図して接触点を変化させたか否かを判定するものである。例えば、ユーザはつまんだ状態で位置を変化させていないつもりであるのに、接触点がゆれることで、接触点をずらす操作が行われたと誤判定されないために、ステップS37の判定処理を設けている。
 この場合、ステップS37では、制御部13は、各差分がしきい値以上ではないと判定したとすると、図7に示した処理が終了する。
 その後、ユーザが、表示面側位置入力部11及び裏面側位置入力部12に親指21及び人差し指22を継続して接触させた状態で、図8に示したように、各接触点を接触点P11及びP21までずらしたとする。この場合、所定時間後に再び図7の処理が実行されると、制御部13は、表示面側位置入力部11及び裏面側位置入力部12から、最新の表示面側座標(X1,Y1)及び裏面側座標(X2,Y2)を取得する(ステップS30)。この場合には、ステップS30で、図8に示した接触点P11及びP21を示す座標値が取得される。
 この場合には、同時接触状態が継続中なのでステップS31の判定が「Yes」となり、制御部13は、続いてステップS32の判定処理を行う。ステップS32の判定処理では、つまんでいると判定済みなので、ステップS32で判定結果が「Yes」となり、制御部13は、続いてステップS36の判定処理を行う。
 ステップS36では、制御部13が、図9に示したように、接触点P1を基準とする現在の接触点(この場合は接触点P11)までのX方向の座標差(ΔX1)と、接触点P2を基準とする現在の接触点(この場合は接触点P21)までのX方向の座標差(ΔX2)とを算出する。
 次に、制御部13は、ステップS36で算出した各差分(すなわち各X方向座標差)が所定のしきい値以上か否かを判定する(ステップS37)。この場合に図9に示したΔX1及びΔX2がともに所定のしきい値以上であるとすると、ステップS37では、制御部13が、各差分がしきい値以上であると判定し、判定結果が「Yes」となる。
 次に、制御部13は、表示面側座標のX方向座標差ΔX1と裏面側座標のX方向座標差ΔX2とに基づいて操作内容に関する判定処理を行うとともに、指示の内容を決定する処理を行う(ステップS38)。ステップS38では、制御部13が、まず、図3又は図6を参照して説明した「挟む」(あるいは「つまむ」)というユーザの操作が行われた後、継続して行われるユーザの操作が、予め設定された所定の操作のいずれかであるか否かを判定する。そして、制御部13は、継続して行われるユーザの操作が予め設定された所定の操作のいずれかであると判定した場合に、その判定結果に基づいて指示の内容(すなわちどのような操作が行われたのかを判定するとともに、その操作に対してどのような処理を行うのかということ)を決定する。
 ステップS38の判定では、予め設定された所定の操作として、例えば図9に示したように、表示面側のX方向座標差ΔX1がX軸の負(マイナス)の方向で、かつ、裏面側のX方向座標差ΔX2がX軸の正(プラス)の方向である場合(第1の操作位置の変位と第2の操作位置の変位とが互いに逆向きの変位である場合)の操作とすることができる。このような操作は、ユーザが例えば表示部14に表示されているアイコン等を「挟む」(あるいは「つまむ」)という操作をした後、さらに親指と人差し指を逆方向にスライドさせる操作に対応する。すなわち、このような操作は、親指21を接触点P1から左方向(Xがマイナス方向)へスライドさせ、人差し指22を接触点P2から右方向(Xがプラス方向)へスライドさせることに対応する。そして、制御部13は、このような操作が行われた場合には、例えば、この操作に対応する指示の内容が、「挟む」操作の対象物であって表示部14に立体的に表示されているアイコン等の表示物が、基準となる各接触点P1,P2の中間点を通る垂直な中心軸の周りを、当該各接触点の移動方向に回転(表示物の前面が中心軸の周りを時計回りに回るように、左方向に裏面側へと回転)することであると決定する。
 なお、ステップS38の判定で用いられる予め設定された所定の操作としては、例えば図10及び図11に示したように、図8及び図9に示したスライド操作とは逆方向の操作とすることができる。なお、図10及び図11では、図8及び図9に示したものと同一(又は対応する)構成には図8及び図9で用いたものと同一の符号を用いている。
 図10及び図11に示した例は、親指21を接触点P1から右方向(Xがプラス方向)へスライドさせ、人差し指22を接触点P2から左方向(Xがプラス方向)へスライドさせることに対応する。制御部13は、このような操作が行われた場合には、例えば、この操作に対応する指示の内容が、「挟む」操作の対象物であって表示部14に立体的に表示されているアイコン等の表示物が、基準となる各接触点P1,P2の中間点を通る垂直な中心軸の周りを、当該各接触点P1,P2の移動方向に回転(表示物の前面が中心軸の周りを反時計回りに回るように、右方向に裏面側へと回転)することであると決定する。
 なお、上述のステップS37の処理においては、ステップS36で算出した各差分(すなわち各X方向座標差)が所定のしきい値以上か否かを判定しているが、何れか一方の差分(X方向座標差ΔX1またはX方向座標差ΔX2の何れか一方)のみが所定のしきい値以上か否かを判定して、判定結果がYesの場合はS38の処理に移行するようにしてもよい。このような処理を行うと、「挟む」(あるいは「つまむ」)というユーザの操作が行われた後、表示面側または裏面側の何れかの接触点のみが移動するように操作するだけで、立体的な表示物を回転させることができる。
 なお、「挟む」操作に継続する操作としては、スライドの方向が表裏で互いに逆方向である場合のほか、スライドの方向が表裏で同一方向である場合とすることもできる。また、「挟む」操作に継続する操作としては、X方向の座標差ではなく(又はそれとともに)、Y方向の座標差が所定のしきい値以上である場合の操作とすることもできる。また、制御部13は、例えば、Y方向の座標差が所定のしきい値以上である場合に、指示内容が、挟む操作の対象物に対する上下方向上回り又は下回りの回転指示であると決定することができる。さらに、制御部13は、Y方向の変位の方向に応じて回転方向を選択することもできる。
 また、制御部13は、例えば、基準となる接触点と、その後の操作後の接触点の距離が所定のしきい値以上である場合に、指示内容が、表示部14に立体的に表示されているアイコン等の表示物が、基準となる各接触点P1,P2の中間点を通り、表示面側または裏面側のいずれかの接触点の移動方向に垂直な中心軸の周りを、当該各接触点P1,P2のいずれか一方または両方の移動方向に回転することであると決定するようにしてもよい。
 以上のように、本発明の実施形態では、例えば、表示面のタッチパネル等の位置入力部の他に、筐体をはさんで表示面の裏側にタッチパッド等の位置入力部を配置することで、裏面のタッチパッドからのポイントを可能にすることができる。この構成を用いると、例えば、親指でポイントしづらい点を他の指(たとえば人差し指)でポイントしたり、裏面から視認性を損なうことなくポイントしたりすることができる。
 また、表示面のタッチパネルと裏面のタッチパッドを同時に使用して、表示面から親指、裏面から人差し指で、同じ座標のアイコン等を同時にポイントすることで、表示されているアイコン等を「挟む」(あるいは「つまむ」)というユーザ操作や、つまんだ後、親指と人差し指を逆方向にスライドすることで、アイコン等を回転させるといった3次元的なユーザ操作を提供することができる。また、例えば携帯端末の裏面(筐体をはさんで表示面と反対側)にタッチパッドを配置し、裏面からポイントするため、すべての操作を表示面側で行う場合と比較して、表示の視認性を妨げないという効果がある。
 また、表示面のタッチパネルと裏面のタッチパッドで同時に同座標をポイントすれば、つまむ(はさむ)という3次元的な操作をユーザに提供することができる。また、表示面のタッチパネルと裏面のタッチパッドで同座標をポイントした後、左右または上下に、かつ表示面と裏面で反対の方向に指をスライドさせれば、表示物を回転させるという3次元的な操作をユーザに提供することができる。
 以上、実施形態を参照して本発明を説明したが、本発明は上述した実施形態に限定されるものではない。本発明の構成や詳細には、本発明の範囲内で当業者が理解し得る様々な変更を加えることができる。例えば、表示面のタッチパネルと裏面のタッチパッドを同サイズとせず、例えば裏面には表示面側に比べて小さいサイズのタッチパッドを配置することでも可能である。その場合は、画面の限られた領域に対して、裏面からのポイントや、3次元的なユーザ操作が提供されるようにしたり、表示面側と裏面側との各座標値の対応に比例関係等を持たせるようにしたりすることができる。
 また、図1に示した各ブロックは、他のブロックと統合してまとめたり、あるいは複数のブロックに分割したりすることができる。また、制御部13が実行するプログラムは、例えばコンピュータ読み取り可能な記録媒体や通信回線を介して流通等させることができる。
 なお、本発明の実施形態の基本構成は、図12のように示すことができる。すなわち、本発明の実施形態としての位置入力装置100は、第1の操作位置入力部101と、第2の操作位置入力部102と、制御部103とを備えている。この場合に、第1の操作位置入力部101は、表示面側に設けられている。第2の操作位置入力部102は、裏面側に設けられている。そして、制御部103は、第1の操作位置入力部101が検知した第1の操作位置と第2の操作位置入力部102が検知した第2の操作位置とに応じた所定の値と、所定のしきい値とを比較し、所定の値が所定のしきい値より小さい場合に第1の操作位置又は第2の操作位置に対応する1点の位置を挟む操作が行われと判定し、所定の値が所定のしきい値以上の場合に第1の操作位置に対応する第1の位置と第2の操作位置に対応する第2の位置との2点を同時に指示する操作が行われたと判定する。
 この出願は、2012年4月18日に出願された日本出願特願2012-094616号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、例えば、スマートフォン等の携帯端末に利用可能である。本発明では、第1の操作位置入力部及び第2の操作位置入力部に対する操作の幅に余裕を持たせることができ、操作のしやすさを容易に確保することができる。
1 情報処理装置
11 表示面側位置入力部
12 裏面側位置入力部
13 制御部
14 表示部
15 操作キー
15a、15b、15c キー
100 位置入力装置
101 第1の操作位置入力部
102 第2の操作位置入力部
103 制御部

Claims (8)

  1.  表示面側に設けられた第1の操作位置入力部と、
     裏面側に設けられた第2の操作位置入力部と、
     前記第1の操作位置入力部が検知した第1の操作位置と前記第2の操作位置入力部が検知した第2の操作位置とに応じた所定の値と、所定のしきい値とを比較し、前記所定の値が前記所定のしきい値未満の場合に前記第1の操作位置又は前記第2の操作位置に対応する1点の位置を挟む操作が行われと判定し、前記所定の値が前記所定のしきい値以上の場合に前記第1の操作位置に対応する第1の位置と前記第2の操作位置に対応する第2の位置それぞれにおける2点に対して同時に指示を入力する操作が行われたと判定する制御部と
     を備える位置入力装置。
  2.  前記制御部が、さらに、前記第1の操作位置入力部が検知した前記第1の操作位置の変位と前記第2の操作位置入力部が検知した前記第2の操作位置の変位とに基づいて、前記挟む操作に継続する所定の操作が行われたか否かを判定する請求項1に記載の位置入力装置。
  3.  前記制御部が、前記第1の操作位置の変位と前記第2の操作位置の変位とが互いに逆向きの変位である場合に、前記挟む操作に継続する所定の操作が行われたと判定する請求項2に記載の位置入力装置。
  4.  前記挟む操作に継続する所定の操作が、前記挟む操作の対象物に対する時計回り又は反時計回りの回転指示であって、前記第1の操作位置の変位及び第2の操作位置の変位の方向に応じて回転方向が選択される請求項2又は3に記載の位置入力装置。
  5.  前記挟む操作に継続する所定の操作が、前記挟む操作の対象物に対する上下方向上回り又は下回りの回転指示であって、前記第1の操作位置の変位及び第2の操作位置の変位の方向に応じて回転方向が選択される請求項2又は3に記載の位置入力装置。
  6.  表示面側に設けられた第1の操作位置入力部が検知した第1の操作位置と裏面側に設けられた第2の操作位置入力部が検知した第2の操作位置とに応じた所定の値と、所定のしきい値とを比較し、
     前記所定の値が前記所定のしきい値未満の場合に、前記第1の操作位置又は前記第2の操作位置に対応する1点の位置を挟む操作が行われと判定し、
     前記所定の値が前記所定のしきい値以上の場合に、前記第1の操作位置に対応する第1の位置と前記第2の操作位置に対応する第2の位置それぞれにおける2点に対して同時に指示を入力する操作が行われたと判定する位置入力方法。
  7.  表示面側に設けられた第1の操作位置入力部が検知した第1の操作位置と裏面側に設けられた第2の操作位置入力部が検知した第2の操作位置とに応じた所定の値と、所定のしきい値とを比較する処理と、
     前記所定の値が前記所定のしきい値未満の場合に、前記第1の操作位置又は前記第2の操作位置に対応する1点の位置を挟む操作が行われと判定する処理と、
     前記所定の値が前記所定のしきい値以上の場合に、前記第1の操作位置に対応する第1の位置と前記第2の操作位置に対応する第2の位置それぞれにおける2点に対して同時に指示を入力する操作が行われたと判定する処理と
     をコンピュータに実行させる位置入力プログラム。
  8.  表示装置を備えるとともに、
     前記表示装置の表示面側に設けられた第1の操作位置入力部と、
     前記表示装置の裏面側に設けられた第2の操作位置入力部と、
     前記第1の操作位置入力部が検知した第1の操作位置と前記第2の操作位置入力部が検知した第2の操作位置とに応じた所定の値と、所定のしきい値とを比較し、前記所定の値が前記所定のしきい値未満の場合に前記第1の操作位置又は前記第2の操作位置に対応する1点の位置を挟む操作が行われと判定し、前記所定の値が前記所定のしきい値以上の場合に前記第1の操作位置に対応する第1の位置と前記第2の操作位置に対応する第2の位置それぞれにおける2点に対して同時に指示を入力する操作が行われたと判定する制御部と
     を有する位置入力装置を備える情報処理装置。
     
PCT/JP2013/050223 2012-04-18 2013-01-09 位置入力装置、位置入力方法、位置入力プログラム及び情報処理装置 WO2013157280A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012094616 2012-04-18
JP2012-094616 2012-04-18

Publications (1)

Publication Number Publication Date
WO2013157280A1 true WO2013157280A1 (ja) 2013-10-24

Family

ID=49383249

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/050223 WO2013157280A1 (ja) 2012-04-18 2013-01-09 位置入力装置、位置入力方法、位置入力プログラム及び情報処理装置

Country Status (1)

Country Link
WO (1) WO2013157280A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP2011070609A (ja) * 2009-09-28 2011-04-07 Fujitsu Ltd タッチパネル付情報端末装置、表示制御方法、および表示制御プログラム
JP2012037979A (ja) * 2010-08-04 2012-02-23 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP2011070609A (ja) * 2009-09-28 2011-04-07 Fujitsu Ltd タッチパネル付情報端末装置、表示制御方法、および表示制御プログラム
JP2012037979A (ja) * 2010-08-04 2012-02-23 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム

Similar Documents

Publication Publication Date Title
JP5983503B2 (ja) 情報処理装置及びプログラム
US9035883B2 (en) Systems and methods for modifying virtual keyboards on a user interface
US8570283B2 (en) Information processing apparatus, information processing method, and program
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
EP2508972A2 (en) Portable electronic device and method of controlling same
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
US9870144B2 (en) Graph display apparatus, graph display method and storage medium
JP2011048606A (ja) 入力装置
JP2009536385A (ja) スクロール付き多機能キー
CN102768597B (zh) 一种操作电子设备的方法及装置
JP6017995B2 (ja) 携帯型情報処理装置、その入力方法、およびコンピュータが実行可能なプログラム
KR20130075767A (ko) 휴대용 전자 장치 및 그 제어 방법
JP2014197164A (ja) 表示装置、表示方法、及び表示プログラム
JP2018139158A (ja) 携帯端末及びプログラム
WO2013047023A1 (ja) 表示装置、表示方法およびプログラム
JP5996079B1 (ja) 情報処理装置、ソフトウェアキーボード表示方法、及びプログラム
WO2013157280A1 (ja) 位置入力装置、位置入力方法、位置入力プログラム及び情報処理装置
US20110187654A1 (en) Method and system for user interface adjustment of electronic device
AU2018278777B2 (en) Touch input device and method
JP2012238128A (ja) 背面入力機能を有する情報機器、背面入力方法、およびプログラム
US11307672B2 (en) Keyboard pivotally attached to a part comprising a touch-sensitive surface
KR20100042762A (ko) 휴대 단말기에서 마우스 인터페이스를 실행하는 방법 및 이를 수행하는 휴대 단말기
JP2016186824A (ja) 情報処理装置及びプログラム
JP2024053570A (ja) 電子機器及びタッチ操作方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13777689

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13777689

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP