WO2013080425A1 - 入力装置、情報端末、入力制御方法、および入力制御プログラム - Google Patents

入力装置、情報端末、入力制御方法、および入力制御プログラム Download PDF

Info

Publication number
WO2013080425A1
WO2013080425A1 PCT/JP2012/006728 JP2012006728W WO2013080425A1 WO 2013080425 A1 WO2013080425 A1 WO 2013080425A1 JP 2012006728 W JP2012006728 W JP 2012006728W WO 2013080425 A1 WO2013080425 A1 WO 2013080425A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
input
coordinates
finger
coordinate
Prior art date
Application number
PCT/JP2012/006728
Other languages
English (en)
French (fr)
Inventor
浩司 渡邊
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2013080425A1 publication Critical patent/WO2013080425A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Definitions

  • the present invention relates to an input device, an information terminal, an input control method, and an input control program.
  • the present invention relates to a technique for accepting a user input operation on a physical surface such as a touch panel.
  • a mobile terminal such as a smartphone has various functions of different types, and it is necessary to selectively execute a function desired by the user from among various functions by a user input operation.
  • a general input device identifies a user's operation only by touching the touch panel, in order to select and execute a desired function from various functions, the user performs many touch operations. I had to do it. That is, the operability is insufficient from the user viewpoint.
  • Patent Document 1 and Patent Document 2 disclose techniques for improving user operability in such an input device.
  • Patent Literature 1 the proximity and contact of an object (finger or pen) to the touch panel surface is detected, the speed at which the object approaches is grasped, and the content mode is switched or the icon is enlarged according to the level of this speed. Propose to change the rate.
  • Patent Document 2 proposes that an operation menu is automatically displayed on a display screen when a finger approaches the touch panel surface. According to this, since a plurality of operation buttons can be arranged in the displayed operation menu, the function to be executed can be switched by selecting a button to be touched by the user.
  • Patent Document 1 the user cannot know in advance how fast the finger is brought to perform the action intended by the user. Therefore, there is a high possibility that the user cannot perform the operation as intended, and the user must learn the operation method over time while repeating trial and error. Further, in order to adjust the speed at which the finger is brought close, the user needs to operate the finger slowly, and as a result, the input operation itself takes time.
  • the present invention has been made in view of the above circumstances, and can perform various types of operations according to user input operations and can improve user operability,
  • An object is to provide an information terminal, an input control method, and an input control program.
  • the input device includes an input detection unit that detects the proximity and contact of a plurality of input units with respect to a predetermined coordinate area, and the proximity coordinate that is a proximity coordinate detected by the input detection unit and the input detection unit.
  • a coordinate detection unit that detects a contact coordinate that is a detected coordinate at the time of contact, and each operation is assigned to each input means that is close to each proximity coordinate based on each proximity coordinate detected by the coordinate detection unit
  • the motion allocation unit is configured to input means that has touched the contact coordinate.
  • an operation execution unit that executes the operation assigned by.
  • a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference of the operated fingers.
  • the user since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation.
  • Various types of operations can be executed in accordance with user input operations, and user operability can be improved.
  • an information terminal of the present invention includes the above input device.
  • a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference of the operated fingers.
  • the user since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation.
  • Various types of operations can be executed in accordance with user input operations, and user operability can be improved.
  • the input control method of the present invention includes a step of detecting the proximity and contact of a plurality of input means with respect to a predetermined coordinate area, the proximity coordinates that are the detected proximity coordinates, and the detected coordinates at the time of contact. Detecting the contact coordinates, assigning each operation to each input means close to each proximity coordinate based on each detected proximity coordinate, any of the detected proximity coordinates and When the detected contact coordinates substantially coincide with each other, a step of executing the assigned operation on the input means that has touched the contact coordinates is included.
  • a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference of the operated fingers.
  • the operation to be executed can be switched depending on the difference of the operated fingers.
  • the user since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation.
  • Various types of operations can be executed in accordance with user input operations, and user operability can be improved.
  • the input control program of the present invention is a program for causing a computer to execute each step of the input control method.
  • a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference in operating fingers.
  • the operation to be executed can be switched depending on the difference in operating fingers.
  • the user since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation.
  • Various types of operations can be executed in accordance with user input operations, and user operability can be improved.
  • various types of different operations can be executed in accordance with user input operations, and user operability can be improved.
  • the block diagram which shows the structural example of the input device in embodiment of this invention The flowchart which shows the main operation examples of the input device in embodiment of this invention
  • FIG. 1 Schematic diagram showing the position of each finger in the coordinate area on the touch panel in the case of FIG.
  • the top view which shows the 2nd example of the operating surface of a touchscreen in embodiment of this invention, and a user's hand state
  • the top view which shows the 3rd example of the operation surface of a touchscreen in embodiment of this invention, and a user's hand state
  • FIG. 1 shows a configuration example of a main part of the input device according to the present embodiment.
  • the input device 100 is mounted on an information terminal, for example.
  • the information terminal is assumed to be configured as a mobile terminal such as a smartphone, a mobile phone terminal, a mobile information terminal, a mobile music player, or various information processing apparatuses represented by a personal computer.
  • the input device 100 includes a display unit 10, a touch panel 11, an approach / contact determination unit 12, a coordinate detection unit 13, a motion control unit 14, a motion storage unit 15, a proximity coordinate storage unit 16, and direction detection.
  • a unit 17 and a display control unit 18 are provided.
  • the proximity / contact determination unit 12, the coordinate detection unit 13, the operation control unit 14, and the display control unit 18 shown in FIG. 1 can be configured by hardware of a dedicated electric circuit, or a microcomputer. It can also be realized by executing a predetermined program.
  • the display unit 10 is composed of, for example, a liquid crystal display panel, and has a screen capable of displaying various visible information such as characters, figures, and images.
  • the display content of the display unit 10 is controlled by the display control unit 18.
  • the touch panel 11 has an operation surface arranged so as to overlap with the screen of the display unit 10, and detects the approach and contact of input means (finger, stylus pen, etc.) for each minute region on the operation surface. It has the necessary functions to do.
  • the touch panel 11 detects an input means such as a finger that approaches and contacts the operation surface based on the capacitance.
  • the approach / contact determination unit 12 determines, based on the electrical signal output from the touch panel 11, whether or not there is an input unit that has approached the touch panel or an input unit that has been in contact with the operation surface.
  • the capacitance increases as the distance between the operation surface and the input unit decreases. For example, by comparing two types of threshold values with the detected capacitance, three types of states “no input means / with adjacent input means / with touched input means” can be identified. Further, since the input means is detected for each minute area of the operation surface, the approach and contact of a plurality of input means can be detected simultaneously in different areas independent from each other.
  • the coordinate detection unit 13 detects the coordinates of the corresponding position for each input means for which the approach / contact determination unit 12 has detected approach or contact.
  • a coordinate plane 11A corresponding to the operation surface of the touch panel 11 has an origin P1 (0, 0) in the upper left as shown in FIG. 8, for example, an x-axis that goes to the right in FIG. It is assumed that In this case, the coordinate detection unit 13 detects the value of the (x, y) coordinate corresponding to the distance between the detection position of the input means and the origin.
  • the operation control unit 14 assigns an operation to each of the detected input means based on the determination result of the approach / contact determination unit 12 and the detection result of the coordinate detection unit 13.
  • the operation control unit 14 executes the assigned operation when an input operation by the input unit is detected, that is, when a contact state is detected.
  • the specific operation of the operation control unit 14 will be described in detail later.
  • the operation storage unit 15 is configured by a storage device such as a read-only memory (ROM) or a non-volatile memory, for example, and holds information representing an operation to be assigned to each input means such as a finger. For example, information as shown in FIG. 6 is stored in the operation storage unit 15 in advance.
  • ROM read-only memory
  • non-volatile memory for example, information representing an operation to be assigned to each input means such as a finger. For example, information as shown in FIG. 6 is stored in the operation storage unit 15 in advance.
  • the proximity coordinate storage unit 16 is configured by a memory (RAM) in which data can be written and read out, and temporarily stores information representing the coordinates of each input unit brought into a proximity state under the control of the operation control unit 14. Hold.
  • the proximity state is a state (hover state) that is relatively close to a predetermined distance from the operation surface of the touch panel 11.
  • the orientation detection unit 17 detects the orientation in which the surface of the display unit 10 or the touch panel 11 is used.
  • an acceleration sensor or the like is used to detect the side closest to the ground (low) among the four sides at the peripheral edge of the operation surface of the touch panel 11 or close to the body of the user who actually uses the input device 100. Detect edges. Thereby, the relative positional relationship between the user and the input device 100 can be grasped.
  • the display control unit 18 displays information required by the user, for example, images, graphics, characters, and the like on the screen of the display unit 10 as necessary. Further, guidance information such as characters useful for user operations is displayed on the screen of the display unit 10 according to the state of the operation control unit 14.
  • FIGS. 7 examples of the operation surface of the touch panel 11 and the state of the user's hand in the input device 100 shown in FIG. 1 are shown in FIGS. Moreover, the area
  • the user's hand 20 is disposed at a position relatively close to the operation surface of the touch panel 11, and fingers other than the thumb 20a among the thumb 20a, the index finger 20b, the middle finger 20c, the ring finger 20d, and the little finger 20e are placed.
  • contact state with respect to an operation surface is assumed.
  • fingers in the proximity state are respectively detected in the areas A1, A2, A3, and A4 corresponding to the positions of the index finger 20b, middle finger 20c, ring finger 20d, and little finger 20e in FIG.
  • the motion control unit 14 assigns numbers to the fingers in the areas A1, A2, A3, and A4 according to the arrangement order.
  • “finger 1”, “finger 2”, “finger 3”, “finger 1”, “finger 3”, The number “Finger 4” is assigned.
  • FIG. 9 it is assumed that the user further moves only the middle finger 20c from the state shown in FIG. 7 and brings the middle finger 20c into contact with the operation surface of the touch panel 11. That is, the user is about to perform some operation with the middle finger 20c.
  • four finger areas A1, A2, A3, and A4 are detected, respectively, and “finger 2” is assigned as a finger number to the contacting middle finger 20c.
  • the motion control unit 14 executes the motion assigned to “finger 2” by detecting the contact of the middle finger 20c.
  • the motion assigned to “finger 2” is determined by the information stored in the motion storage unit 15. For example, when the table shown in FIG. 6 is used, the operation control unit 14 executes an operation associated with the second finger number (FN2).
  • FIG. 1 An input control program for performing this operation is stored in the ROM in the input device 100 and is executed by the CPU in the input device 100.
  • step S11 the motion control unit 14 monitors the state of the approach / contact determination unit 12, and identifies the presence / absence of the finger in the proximity state and the presence / absence of the finger in the contact state. If a proximity or contact finger is detected, the process proceeds to the next step S12. Basically, the proximity state is detected before the approach state is detected.
  • step S12 for each of the proximity finger and the contact finger detected by the approach / contact determination unit 12, the coordinate detection unit 13 detects the position coordinates (x, y) of the corresponding region. Further, the motion control unit 14 stores the detected position coordinate information of each finger in the proximity coordinate storage unit 16.
  • step S13 the motion control unit 14 assigns finger numbers to all fingers currently detected by the approach / contact determination unit 12.
  • the x coordinate values are arranged in ascending order and numbers are assigned in order. Specific operations will be described later.
  • step S14 the operation control unit 14 controls the display control unit 18 to display guidance information (guidance) regarding available finger operations on the screen of the display unit 10. That is, information such as characters indicating what action is performed when each finger in the proximity state is brought into contact is displayed based on the finger number and the contents of the action storage unit 15.
  • guidance information guidance information
  • information such as characters indicating what action is performed when each finger in the proximity state is brought into contact is displayed based on the finger number and the contents of the action storage unit 15.
  • the “enlargement” guidance G1 is displayed near the index finger 20b
  • the “detailed information” guidance G2 is displayed near the middle finger 20c.
  • the action assigned to the first finger number (finger 1) is “enlargement”
  • the action assigned to the second finger number (finger 2) is “detailed information (display)”.
  • the guidance G2 may be displayed, for example, above the finger, avoiding the position coordinates (x, y) of the finger so that the guidance G2 is not hidden by the finger. Further, whether to display the guidance may be selectable by user setting. As a result, necessary information is given to beginners, and guidance is displayed as needed without giving unnecessary presentation to skilled users, thereby improving usability.
  • step S15 the motion control unit 14 identifies whether there is a finger in contact among the plurality of detected fingers. If there is no finger touched, the process returns to step S11, and if there is a finger touched, the process proceeds to step S16.
  • step S16 the motion control unit 14 finally determines the motion assigned to each detected finger, and accepts the motion corresponding to the operation of the touching finger as an input operation.
  • step S ⁇ b> 17 the motion control unit 14 selects specific content corresponding to the position coordinate of the finger where contact is detected from among various content (not shown) displayed on the screen of the display unit 10. To do.
  • step S18 the operation control unit 14 executes processing related to the content selected in step S17 in accordance with the input operation received in step S16. For example, various information is displayed on a screen, for example.
  • the finger detected as the proximity state or the contact state sequentially changes according to the user's hand and the operation state of each finger. Therefore, the number of fingers that are actually detected as the proximity state reflects the position of the hand according to the user's will. That is, the user can operate with only one finger, or can use two to five fingers as needed. Further, if the number of detected fingers changes, the operation assigned to each finger is also changed sequentially.
  • step S ⁇ b> 21 the operation control unit 14 monitors the electrical signal output from the orientation detection unit 17 to identify whether the orientation of the touch panel 11 is detected. If the direction is detected, the next step S22 is executed.
  • step S22 the operation control unit 14 performs processing according to the detected orientation of the touch panel 11.
  • the position is detected by the x, y coordinates with the upper left end of the touch panel 11 as the origin P1.
  • the origin P1 is the lower left end or the upper right end, the relationship between the direction of the x and y axes and the alignment direction of the user's hand 20 and each finger changes. .
  • the touch panel 11 when the touch panel 11 is used in a portrait orientation, when the operation control unit 14 is used in a landscape orientation, the origin P1 is viewed from the user as in the portrait orientation. Coordinate conversion is performed so that the upper left corner is located. Thereby, it is possible to prevent the relationship between the arrangement direction of a plurality of fingers and the x and y axis directions from changing.
  • the y coordinate when specifying the arrangement order of a plurality of finger regions (A1 to A4, etc.), the y coordinate is referred to instead of the x coordinate, or the finger having a larger x, y coordinate value is ordered from the smaller finger to the smaller finger. You may make it number.
  • coordinate conversion is not performed, and the arrangement order of a plurality of fingers is specified under predetermined conditions.
  • step S23 the motion control unit 14 identifies whether there are a plurality of proximity fingers (including contact fingers) currently detected by the approach / contact determination unit 12. If a plurality of fingers are detected, the process proceeds to step S26.
  • step S25 when there are not a plurality of fingers being detected in step S23, the motion control unit 14 assigns an initial value of the finger number to the finger being detected. For example, the finger numbers “finger 1”, “finger 2”, “finger 3”, “finger 4”,..., And finger numbers FN1, FN2, FN3,. Thus, when the initial minimum value is “1”, the finger number “finger 1 (FN1)” is assigned.
  • step S26 when there are a plurality of fingers being detected in step S23, the motion control unit 14 determines the coordinate detection unit 13 for all the proximity fingers (including the finger in contact state) that are currently detected.
  • the position coordinates of the fingers detected by are arranged in order of increasing x-coordinate values. Further, the motion control unit 14 assigns finger numbers to these fingers in order.
  • step S ⁇ b> 27 the motion control unit 14 calculates the difference ⁇ y between the y-coordinate values of adjacent fingers with respect to all of the currently detected proximity fingers (including the finger in contact state) or only the end portions. These are compared with a predetermined threshold value.
  • step S27 in order to identify the thumb among the plurality of fingers, the difference ⁇ y between the y coordinates of the areas A1-A2, A2-A3, A3-A4, A4-A5 in FIG. Is compared with a predetermined threshold.
  • step S28 based on the comparison result in step S27, the motion control unit 14 identifies whether ⁇ y of the end finger is equal to or greater than a predetermined threshold, that is, whether the left end or right end finger is the thumb.
  • step S29 when the motion control unit 14 detects a thumb in step S28, the finger of the corresponding end is recognized as the thumb 20a.
  • step S30 the motion control unit 14 assigns a special finger number to the detected thumb 20a. For example, finger number 0 “finger 0: FN0” that can be assigned only to the thumb is prepared and assigned to the corresponding finger.
  • step S31 the motion control unit 14 identifies the right hand / left hand based on the arrangement order (positional relationship) between the thumb 20a detected in step S29 and the other fingers. For example, as shown in FIG. 12, when an area A1 having a large y-coordinate difference ⁇ y is on the left end side and another finger is present at a position where the x-coordinate is larger than A1, it is recognized as the right hand. On the other hand, as shown in FIG. 13, when a region A5 having a large y coordinate difference ⁇ y is on the right end side and another finger is present at a position where the x coordinate is smaller than A5, it is recognized as a left hand.
  • step S41 the motion control unit 14 identifies whether or not the thumb 20a has been detected. For example, when the process shown in FIG. 3 is executed, it is identified whether there is a finger assigned the special finger number “finger 0”. If the thumb has been detected, the process proceeds to step S42. If the thumb has not been detected, the process proceeds to step S45. For example, if the state is as shown in FIG. 12, the process proceeds to step S42, and if the state is as shown in FIG. 8, the process proceeds to step S45.
  • step S42 the motion control unit 14 assigns a special motion for the thumb 20a to the specific finger numbered by the thumb 20a. That is, since it is generally considered that the thumb 20a is used less frequently than other fingers, a predetermined action (such as a deletion process) having a lower priority (less frequently used) than the other fingers is used. Assign to.
  • step S43 the motion control unit 14 identifies whether the right hand / left hand classification of the hand currently used by the user has been detected. If detected, the process proceeds to step S44. Proceed to S45.
  • step S44 the motion control unit 14 sequentially performs each motion (for example, the motion illustrated in FIG. 6) on each finger other than the thumb 20a according to the order of the fingers according to the classification of the right hand / left hand. Assign to.
  • the finger number is changed and an operation is assigned to each finger. That is, the operation of the finger number “finger 1” is assigned to the finger 20b having the first coordinate x1 from the right.
  • the operation of “finger 2” is assigned to the finger 20c of the second coordinate x2 from the right.
  • the operation of “finger 3” is assigned to the finger 20d of the third coordinate x3 from the right.
  • the operation of “finger 4” is assigned to the finger 20e at the fourth coordinate x4 from the right.
  • step S45 the right / left hand cannot be distinguished.
  • the motion control unit 14 does not rearrange the finger numbers, for example, according to the finger numbers “finger 1”, “finger 2”, “finger 3”, and “finger 4” allocated in step S26 of FIG. Then, an operation (for example, the operation shown in FIG. 6) is assigned to each finger in order.
  • the coordinates of each finger in the proximity state other than the finger touched at the time of finger contact are determined. Some of them cannot be detected. In this case, the process shown in FIG. 5 is adopted.
  • step S51 the motion control unit 14 identifies whether or not proximity coordinates cannot be detected. For example, when the contact of a finger is detected, when the proximity finger that has been detected so far cannot be detected, or when the number of detected fingers decreases, the proximity coordinate is The process proceeds to the next step S52 on the assumption that it cannot be detected. Otherwise, the process proceeds to step S54.
  • step S52 the motion control unit 14 reads the coordinates (proximity coordinates) of each finger in the proximity state detected immediately before (contact with the finger) from the proximity coordinate storage unit 16, and all of the proximity state and the contact state are read. Know the finger coordinate position.
  • step S53 the operation control unit 14 executes the “finger number assignment process” in FIG. 3 again. That is, based on the coordinates of each finger read from the proximity coordinate storage unit 16, finger numbers are assigned to all fingers in the proximity state and the contact state.
  • step S54 the motion control unit 14 identifies whether or not the thumb 20a has been detected. For example, when the process shown in FIG. 3 is executed, it is identified whether or not the finger assigned with the special finger number “finger 0” is being detected. If the thumb has been detected, the process proceeds to step S55. If the thumb has not been detected, the process proceeds to step S58.
  • step S55 the motion control unit 14 assigns a special motion for the thumb 20a to the specific finger numbered by the thumb 20a. That is, since the thumb 20a is generally considered to be less frequently used than other fingers, a predetermined action having a lower priority (less frequently used) than the other fingers is assigned to the thumb.
  • step S56 the motion control unit 14 identifies whether or not the right hand / left hand classification of the hand currently used by the user has been detected. If detected, the process proceeds to step S57. Proceed to S58.
  • step S57 as in step S44 of FIG. 4, the motion control unit 14 performs each operation (for example, FIG. 5) on each finger other than the thumb 20a according to the order of fingers according to the classification of the right hand / left hand. 6) are assigned in order.
  • step S58 the right / left hand cannot be distinguished.
  • the motion control unit 14 does not rearrange the finger numbers, for example, according to the finger numbers “finger 1”, “finger 2”, “finger 3”, and “finger 4” allocated in step S26 of FIG. Then, an operation (for example, the operation shown in FIG. 6) is assigned to each finger in order.
  • FIG. 6 shows a configuration example of a table representing the correspondence relationship between the situation, the finger number, and the action. This table is arranged on the operation storage unit 15 shown in FIG.
  • the operation control unit 14 refers to the table having the configuration illustrated in FIG. 6 in each of the above-described steps S44, S45, S57, and S58, so that each of the user's hands can be determined according to the current situation of the input device 100.
  • the operation assigned to the finger can be switched.
  • the situation C ⁇ b> 1 is substantially coincident with the coordinates of the icon of the corresponding image when the input device 100 starts a specific application program that displays an image list.
  • the coordinates of the finger in the contact state substantially coincide with the coordinates of the mail icon displayed in the mail list or one item in the list.
  • the situation C3 corresponds to the case where the coordinates of the finger in the contact state substantially coincide with the coordinates of an arbitrary place in the camera preview when the input apparatus 100 is running the camera application program.
  • the operation of “enlarged display of selected image” is assigned to the finger corresponding to the finger number “finger 1 (FN1)”. Further, an operation of “display detailed information of selected image” is assigned to the finger corresponding to the finger number “finger 2 (FN2)”. In addition, an operation of “launch mailer application and attach selected image to mail” is assigned to the finger corresponding to finger number “finger 3 (FN3)”.
  • the operation of “display text of mail” is assigned to the finger corresponding to the finger number “finger 1 (FN1)”.
  • the “reply to mail” operation is assigned to the finger corresponding to the finger number “finger 2 (FN2)”.
  • an operation of “forward mail” is assigned to the finger corresponding to the finger number “finger 3 (FN3)”.
  • an operation of “photograph with the focus on the contact location” is assigned to the finger corresponding to the finger number “finger 1 (FN1)”.
  • an operation of “focus on the contact location and lock the focus” is assigned to the finger corresponding to the finger number “finger 2 (FN2)”.
  • the contents of the table shown in FIG. 6 are determined in advance in association with the finger number and the situation and are not only stored in advance in the operation storage unit 15 but also can be rewritten by an input operation. Good. Thereby, the efficiency of input operation can be improved more by changing the operation
  • the input device of the present embodiment includes the input detection unit, the coordinate detection unit, the operation allocation unit, and the operation execution unit.
  • the input detection unit detects the proximity and contact of a plurality of input means with respect to a predetermined coordinate area.
  • the input detection unit is, for example, the touch panel 11.
  • the coordinate detection unit detects a proximity coordinate that is a proximity coordinate detected by the input detection unit and a contact coordinate that is a contact coordinate detected by the input detection unit.
  • the coordinate detection unit is, for example, the coordinate detection unit 13.
  • the motion assigning unit assigns each motion to each input means that is close to or in contact with each coordinate based on each coordinate detected by the coordinate detecting unit.
  • the motion allocation unit is, for example, the motion control unit 14.
  • the action executing unit executes the action assigned by the action assigning unit to the input means that has touched the contact coordinates detected by the coordinate detecting unit.
  • the operation execution unit is, for example, the operation control unit 14.
  • the operation is switched depending on the difference of the operated fingers.
  • a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation.
  • the assigned operation is executed only by a simple touch operation, so that it is easy to learn the operation method.
  • the number of actions that can be executed can be changed according to the number of fingers that are actually approaching or touching, the versatility is high.
  • the input device may include a display unit (for example, the display unit 10) that displays information on operations assigned by the operation assigning unit.
  • a display unit for example, the display unit 10.
  • the user can know in advance what kind of operation will be performed when each finger is operated and touched, and even if the user is not familiar with the operation, it can be easily operated. .
  • the input device may include an input means determination unit (for example, the operation control unit 14).
  • the input means determination unit uses the thumb 20a as the input means that is close to or in contact with the first coordinates. Judge that there is.
  • the first coordinates are, for example, the coordinates of the area A1 in FIG.
  • the other coordinates are, for example, the coordinates of the areas A2 to A5 in FIG.
  • the first direction is, for example, the x direction in FIG.
  • the action assignment unit has a lower priority than the action assigned to the input means that is close to or in contact with other coordinates with respect to the thumb ( For example, an operation such as deletion may be assigned.
  • the input device is arranged such that the position between the first coordinates and the other coordinates is higher than
  • a left / right determination unit may be provided for determining whether each input means is a finger on the left or right hand based on the relationship.
  • the left / right determination unit is, for example, the operation control unit 14.
  • the motion assigning unit may assign each motion to each input means that is close to or touches each coordinate based on whether each input means is a finger of the left or right hand.
  • a high-priority operation (generally the index finger) is assigned a high-priority action
  • a low-frequency-use finger (eg little finger) is assigned a priority.
  • the user can use the right hand and the left hand as needed, and even when the right hand and the left hand are switched, the operation assigned to each finger is the same, and thus the operation is easy.
  • the input device may include an operation storage unit (for example, the operation storage unit 15) that sequentially stores a plurality of operations.
  • the motion allocation unit approaches or approaches each coordinate in the order of the coordinates in the first direction in the coordinates detected by the coordinate detection unit.
  • the first hand is, for example, the right hand.
  • the order of the coordinates in the first direction is, for example, the ascending order in the x direction in FIG.
  • each operation stored in the operation storage unit may be assigned to each input means that is close to or touches each coordinate.
  • the second hand is, for example, the left hand.
  • the reverse order of the coordinate order in the first direction is, for example, the descending order in the x direction in FIG.
  • the input device may include a direction detection unit (for example, a direction detection unit 17) that detects the direction of the input device.
  • the motion allocating unit may allocate each motion to each input unit that is close to or in contact with the coordinates detected by the coordinate detecting unit based on the direction detected by the direction detecting unit.
  • the same operation can be assigned to the same finger of the user, and an efficient input operation can be performed.
  • the input device may include an operation storage unit (for example, the operation storage unit 15) that sequentially stores a plurality of operations.
  • the motion allocating unit applies to each input means that is close to or touches each coordinate in the order of the coordinates in the first direction in the coordinates detected by the coordinate detecting unit.
  • Each operation stored in the operation storage unit may be assigned.
  • the first direction is, for example, a direction in which the input device is vertically long.
  • the order of the coordinates in the first direction is, for example, the order in the x direction in FIG.
  • the motion allocating unit sequentially sets the coordinates in the second direction in the coordinates detected by the coordinate detection unit. You may assign each operation
  • the second orientation is, for example, a landscape orientation of the input device.
  • the order of the coordinates in the second direction is, for example, the order in the y direction in FIG.
  • a plurality of types of motions can be assigned to each finger according to the priority order suitable for the user operation.
  • the input device may include a proximity coordinate storage unit (for example, the proximity coordinate storage unit 16) that stores information on the proximity coordinates detected by the coordinate detection unit.
  • the motion allocating unit may allocate each motion to the input unit that has touched the contact coordinates detected by the coordinate detection unit and the input unit that has been close to the close coordinate stored by the close coordinate storage unit.
  • the present invention is not limited to the configuration of the above-described embodiment, and can be applied to any configuration that can achieve the functions shown in the claims or the functions of the configuration of the present embodiment. Is possible.
  • the present invention also applies a program that supplies an input control program that realizes the functions of the above-described embodiments to an input device via a network or various storage media, and that is read and executed by a computer (CPU) in the input device. It is a range.
  • the present invention enables an input device, an information terminal, an input control method, an input control program, and the like that can execute various types of operations according to a user's input operation and can improve user operability. Useful for.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 入力装置は、所定の座標領域に対する複数の入力手段の近接および接触を検知する入力検知部と、近接座標および接触座標を検出する座標検出部と、検出された各座標に基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てる動作割当部と、検出された接触座標へ接触した入力手段に対して割り当てられた動作を実行する動作実行部と、を備える。

Description

入力装置、情報端末、入力制御方法、および入力制御プログラム
 本発明は、入力装置、情報端末、入力制御方法、および入力制御プログラムに関する。特に、タッチパネル等の物理表面に対するユーザの入力操作を受け付けるための技術に関する。
 近年のスマートフォンを代表とする様々な携帯端末や、パーソナルコンピュータ等の情報処理機器においては、入力操作用のデバイスとしてタッチパネルを備えているものが多い。また、タッチパネルを用いた一般的な入力デバイスにおいては、タッチパネルの表面に対するユーザの指の接触/非接触の2種類の状態に基づいて入力操作を検出している。
 また、スマートフォンのような携帯端末においては、種類が異なる様々な機能が備わっており、様々な機能の中からユーザが所望する機能をユーザの入力操作により選択的に実行する必要がある。しかし、一般的な入力デバイスでは、タッチパネルに対するタッチの有無だけでユーザの操作を識別しているので、様々な機能の中から所望の機能を選択して実行するために、ユーザは多くのタッチ操作を行わざるを得なかった。すなわち、ユーザ視点では、操作性は不十分であった。
 このような入力デバイスにおいてユーザの操作性を改善するための技術が、例えば特許文献1および特許文献2に開示されている。
 特許文献1においては、タッチパネル面への物体(指やペン)の近接および接触を検知し、物体の接近する速度を把握して、この速度の高低に応じてコンテンツのモードを切り替えたりアイコンの拡大率を変更したりすることを提案している。
 特許文献2においては、タッチパネル面へ指が接近した場合に、自動的に表示画面上に操作メニューを表示することを提案している。これによれば、表示される操作メニューの中に複数の操作ボタンを配置できるので、ユーザがタッチ操作するボタンを選択することで、実行すべき機能を切り替えることができる。
日本国特開2010-205050号公報 日本国特開2002-358162号公報
 しかしながら、特許文献1の技術では、どの程度の速度で指を近づければユーザが意図している動作が実行されるのかを事前にユーザが知ることはできない。従って、ユーザが思い通りに操作できない可能性が高く、ユーザは試行錯誤を繰り返しながら、時間をかけて操作方法を習得しなければならない。また、指を近づける速度を調整するために、ユーザは指をゆっくりと操作する必要があり、結果的に入力操作自体に時間がかかる。
 特許文献2の技術では、ユーザから見て操作と実行される動作との対応関係が分かりやすいが、固定的にメニューを表示する動作だけであるため、汎用性がない。つまり、種類の異なる様々なメニューを表示することはできない。また、ユーザが操作のために指をタッチパネルに近づければ、意図していない場合でもメニューが表示されてしまうので、この動作をユーザが煩わしいと感じることも考えられる。
 本発明は、上記事情に鑑みてなされたものであって、ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能な入力装置、情報端末、入力制御方法、および入力制御プログラムを提供することを目的とする。
 本発明の入力装置は、所定の座標領域に対する複数の入力手段の近接および接触を検知する入力検知部と、前記入力検知部により検知された近接時の座標である近接座標および前記入力検知部により検出された接触時の座標である接触座標を検出する座標検出部と、前記座標検出部により検出された各近接座標に基づいて、各近接座標へ近接した各入力手段に対して各動作を割り当てる動作割当部と、前記座標検出部により検出されたいずれかの近接座標および前記座標検出部により検出された接触座標が略一致する場合、前記接触座標へ接触した入力手段に対して前記動作割当部により割り当てられた動作を実行する動作実行部と、を備える。
 この構成によれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。
 また、本発明の情報端末は、上記入力装置を備える。
 この構成によれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。
 また、本発明の入力制御方法は、所定の座標領域に対する複数の入力手段の近接および接触を検知するステップと、前記検知された近接時の座標である近接座標および前記検出された接触時の座標である接触座標を検出するステップと、前記検出された各近接座標に基づいて、各近接座標へ近接した各入力手段に対して各動作を割り当てるステップと、前記検出されたいずれかの近接座標および前記検出された接触座標が略一致する場合、前記接触座標へ接触した入力手段に対して前記割り当てられた動作を実行するステップと、を有する。
 この方法によれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。
 また、本発明の入力制御プログラムは、上記入力制御方法の各ステップをコンピュータに実行させるためのプログラムである。
 このプログラムによれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。
 本発明によれば、ユーザの入力操作に応じて種類の異なる様々な動作を実行可能であり、ユーザの操作性を改善することも可能になる。
本発明の実施形態における入力装置の構成例を示すブロック図 本発明の実施形態における入力装置の主要な動作例を示すフローチャート 図2のステップS13の処理における詳細な動作例を示すフローチャート 図2のステップS16の処理における詳細な動作の第1例を示すフローチャート 図2のステップS16の処理における詳細な動作の第2例を示すフローチャート 本発明の実施形態における状況と指番号と動作との対応関係を表すテーブルの構成例を示す模式図 本発明の実施形態におけるタッチパネルの操作面およびユーザの手の状態の第1例を示す平面図 図7の場合のタッチパネルにおける座標領域での各指の位置を示す模式図 本発明の実施形態におけるタッチパネルの操作面およびユーザの手の状態の第2例を示す平面図 本発明の実施形態におけるタッチパネルの操作面およびユーザの手の状態の第3例を示す平面図 本発明の実施形態におけるタッチパネルの操作面およびユーザの手の状態の第4例を示す平面図 図11の場合のタッチパネルにおける座標領域での各指の位置を示す模式図 本発明の実施形態における左手で操作する場合のタッチパネルの操作面およびユーザの手の状態と、この場合のタッチパネルにおける座標領域での各指の位置の一例を示す図
 本発明の実施形態について、各図を参照しながら以下に説明する。
 本実施形態の入力装置の主要部の構成例が図1に示されている。入力装置100は、例えば、情報端末に搭載される。情報端末は、例えば、スマートフォン、携帯電話端末、携帯型情報端末、携帯型音楽プレーヤのような携帯型端末や、パーソナルコンピュータを代表とする様々な情報処理装置として構成されることが想定される。
 図1に示すように、この入力装置100は、表示部10、タッチパネル11、接近/接触判定部12、座標検出部13、動作制御部14、動作記憶部15、近接座標記憶部16、向き検出部17、および表示制御部18を備えている。
 なお、図1に示した近接/接触判定部12、座標検出部13、動作制御部14、および表示制御部18については、専用の電気回路のハードウェアで構成することもできるし、マイクロコンピュータが所定のプログラムを実行することにより実現することもできる。
 表示部10は、例えば液晶表示パネルにより構成され、文字、図形、画像などの様々な可視情報を表示可能な画面を有している。表示部10の表示内容は表示制御部18によって制御される。
 タッチパネル11は、表示部10の画面と重ねた状態で配置された操作面を有しており、この操作面上の微小領域毎に、入力手段(指やスタイラスペンなど)の接近および接触を検出するために必要な機能を有している。
 代表例としては、静電容量に基づいてタッチパネル11がその操作面に接近および接触する指などの入力手段を検出することが想定される。
 接近/接触判定部12は、タッチパネル11が出力する電気信号に基づき、その操作面に接近した入力手段や接触した入力手段の有無を微小領域毎に判定する。タッチパネル11が静電容量を検出する場合には、操作面と入力手段との距離が小さくなるに従って静電容量が大きくなる。例えば、2種類の閾値と検出された静電容量の大きさとを比較することにより、「入力手段なし/近接した入力手段あり/接触した入力手段あり」の3種類の状態を識別できる。また、操作面の微小領域毎に入力手段を検出するので、互いに独立した異なる領域で複数の入力手段の接近および接触を同時に検出することができる。
 座標検出部13は、接近/接触判定部12が接近又は接触を検出したそれぞれの入力手段について、該当する位置の座標を検出する。タッチパネル11の操作面に対応する座標面11Aが、例えば図8に示すように左上を原点P1(0,0)とし、図8において右方向に向かうx軸と、下方向に向かうy座標と、で構成されているとする。この場合には、入力手段の検出位置と原点との距離に応じた(x,y)座標の値が、座標検出部13によって検出される。
 動作制御部14は、接近/接触判定部12の判定結果および座標検出部13の検出結果に基づいて、検出された入力手段のそれぞれに動作を割り当てる。また、動作制御部14は、入力手段による入力操作を検出した場合、つまり接触状態を検出した場合に、割り当てられた動作を実行する。動作制御部14の具体的な動作については後で詳細に説明する。
 動作記憶部15は、例えば読み出し専用メモリ(ROM)、あるいは不揮発性メモリのような記憶装置で構成されており、指などの入力手段のそれぞれに割り当てるべき動作を表す情報を保持している。例えば図6に示すような情報が動作記憶部15に予め保持されている。
 近接座標記憶部16は、データの書き込み及び読み出しが自在なメモリ(RAM)により構成されており、動作制御部14の制御により、近接状態になった各入力手段の座標を表す情報を一時的に保持する。近接状態とは、タッチパネル11の操作面から比較的近い所定距離離れた状態(ホバー状態)である。
 向き検出部17は、表示部10やタッチパネル11の面がどのような向きで使用されているのかを検出する。例えば、加速度センサなどを用いてタッチパネル11の操作面の周端の4辺の中で最も地面に近い(低い)辺を検出したり、入力装置100を実際に使用しているユーザの体に近い辺を検出したりする。これにより、ユーザと入力装置100との相対的な位置関係を把握することができる。
 表示制御部18は、ユーザが必要とする情報、例えば画像、図形、文字などを必要に応じて表示部10の画面上に表示させる。また、動作制御部14の状態に応じて、ユーザの操作に役立つ文字などのガイダンス情報を表示部10の画面上に表示させる。
 次に、図1に示した入力装置100におけるタッチパネル11の操作面およびユーザの手の状態の例が図7及び図9に示されている。また、図7に示した状態で検出される座標面11A上の各指の領域が図8に示されている。
 図7に示した状態では、タッチパネル11の操作面に比較的近い位置にユーザの手20が配置され、親指20a、人差し指20b、中指20c、薬指20d、小指20eの中で親指20a以外の指が操作面に対して近接状態になった場合を想定している。
 従って、図8に示すように、図7の人差し指20b、中指20c、薬指20d、小指20eの位置にそれぞれ対応する領域A1、A2、A3、A4で、近接状態の指がそれぞれ検出される。そして、動作制御部14が、領域A1、A2、A3、A4の指に対して、これらの並び順に従って番号を付与する。図8に示した例では、領域A1、A2、A3、A4の指に対して、x座標の値が小さい方から大きい方に向かって「指1」、「指2」、「指3」、「指4」の番号を付与している。
 図9では、図7に示した状態からユーザが中指20cだけを更に動かして、中指20cをタッチパネル11の操作面に接触させた場合を想定している。つまり、ユーザが中指20cで何らかの操作を行おうとしている状態である。この時には、図8に示したように、4つの指の領域A1、A2、A3、A4がそれぞれ検出されており、接触した中指20cには指番号として「指2」が付与されている。
 動作制御部14は、中指20cの接触検出により、「指2」に割り当てられた動作を実行する。「指2」に割り当てられた動作は、動作記憶部15に保持されている情報により決定される。例えば、図6に示したテーブルを利用する場合には、2番目の指番号(FN2)に対応付けられた動作を動作制御部14が実行する。
 次に、図1に示した入力装置100の主要な動作の概要が図2に示されている。この動作を行う入力制御プログラムは、入力装置100内のROMに格納され、入力装置100内のCPUによって実行される。
 ステップS11では、動作制御部14は、接近/接触判定部12の状態を監視し、近接状態の指の有無および接触状態の指の有無を識別する。近接状態または接触状態の指が検出されている場合は次のステップS12に進む。基本的には、接近状態が検知される前に近接状態が検知される。
 ステップS12では、接近/接触判定部12が検出した近接状態の指および接触状態の指のそれぞれについて、座標検出部13が、該当する領域の位置座標(x,y)を検出する。また、動作制御部14が、検出された各々の指の位置座標の情報を、近接座標記憶部16に記憶する。
 ステップS13では、接近/接触判定部12が現在検出している全ての指について、動作制御部14が指番号を割り当てる。例えば、x座標の値が小さい順に並べて順番に番号を割り当てる。具体的な動作については後述する。
 ステップS14では、動作制御部14が、表示制御部18を制御して、表示部10の画面上に利用可能な指の操作に関する案内情報(ガイダンス)を表示させる。すなわち、近接状態になっているそれぞれの指を接触させた場合にどのような動作が行われるのかを表す文字などの情報を、指番号と動作記憶部15の内容とに基づいて表示する。
 例えば、図10に示した例では、人差し指20b、中指20cの2本の指が操作面に近接している状態を想定している。この場合、人差し指20bに近い位置に「拡大」のガイダンスG1が表示され、中指20cに近い位置に「詳細情報」のガイダンスG2が表示されている。この例では、1番目の指番号(指1)に割り当てられる動作が「拡大」であり、2番目の指番号(指2)に割り当てられる動作が「詳細情報(表示)」である。
 なお、指によりガイダンスG2が隠されないように、ガイダンスG2を指の位置座標(x、y)を避けて、例えば指の上方などに、表示しても良い。また、ユーザ設定により、ガイダンスの表示可否を選択可能にしてもよい。これにより、初心者に必要な情報を与え、熟練者に余計な提示をせず、必要に応じてガイダンスを表示させることで、使い勝手をよりよくする。
 ステップS15では、動作制御部14が、検出されている複数の指の中に接触状態の指があるか否かを識別する。接触した指がなければステップS11に戻り、接触した指がある場合はステップS16に進む。
 ステップS16では、動作制御部14が、検出されているそれぞれの指に割り当てられている動作を最終的に決定し、接触している指の操作に対応する動作を、入力操作として受け付ける。
 ステップS17では、動作制御部14が、表示部10の画面上に表示されている様々なコンテンツ(図示せず)の中で、接触が検出された指の位置座標に対応する特定のコンテンツを選択する。
 ステップS18では、動作制御部14が、ステップS16で受け付けた入力操作に従って、ステップS17で選択したコンテンツに関する処理を実行する。例えば、例えば画面上に様々な情報を表示する。
 なお、図2に示すステップS11~S15の動作が繰り返し実行されるので、近接状態もしくは接触状態として検出される指は、ユーザの手および各指の操作状態に応じて逐次変化する。従って、実際に近接状態として検出される指の数などはユーザの意志に応じた手の位置などを反映した結果になる。つまり、ユーザは1本の指だけで操作することもできるし、2本~5本の指を必要に応じて使い分けることもできる。また、検出される指の本数が変化すれば、各々の指に割り当てられる動作も逐次変更される。
 次に、図2のステップS13に相当する詳細な動作が図3に示されている。
 ステップS21では、動作制御部14が、向き検出部17が出力する電気信号を監視して、タッチパネル11の向きが検出されているか否かを識別する。向きが検出されている場合は次のステップS22を実行する。
 ステップS22では、動作制御部14が、検出されたタッチパネル11の向きに応じた処理を行う。例えば、図8に示すような縦長の向きでユーザが入力装置100を使用している場合には、タッチパネル11の左上端部を原点P1とするx,y座標で位置が検出される。一方、横長の向きで使用する場合には、原点P1が左下端部、あるいは右上端部になるので、x,y軸の方向とユーザの手20および各指の並び方向との関係が変化する。
 従って、例えば、タッチパネル11を縦長の向きで使用する状態を基準とする場合には、動作制御部14が、横長の向きで使用する際に、縦長の場合と同様に原点P1がユーザから見て左上端部になるように座標変換を行う。これにより、複数の指の並び方向とx,y軸の方向との関係が変化するのを防止できる。あるいは、複数の指の領域(A1~A4など)の並び順を特定する際に、x座標の代わりにy座標を参照する、又はx,y座標の値が大きい指から小さい指に向かって順番に番号を付けるようにしても良い。タッチパネル11を縦長の向きなど基準状態で使用する場合には、座標変換は行わず、予め定めた条件で複数の指の並び順を特定する。
 ステップS23では、動作制御部14は、接近/接触判定部12が現在検出している近接状態の指(接触状態の指も含む)の数が複数か否かを識別する。複数の指を検出している場合はステップS26に進む。
 ステップS25では、ステップS23において検出中の指が複数でない場合には、動作制御部14は、検出中の指に指番号の初期値を割り当てる。例えば、図8に示す指番号の「指1」、「指2」、「指3」、「指4」、・・・や、図6に示す指番号FN1、FN2、FN3、・・・のように初期値である最小値が「1」の場合には、指番号の「指1(FN1)」を割り当てる。
 ステップS26では、ステップS23において検出中の指が複数である場合には、動作制御部14は、現在検出している近接状態の指(接触状態の指も含む)の全てについて、座標検出部13が検出した各指の位置座標をx座標の値が小さい順番に並べる。また、動作制御部14は、これらの指に順番に指番号を割り振る。
 例えば、図7に示すように4本の指(20b,20c,20d,20e)が近接状態である時には、これらに対応する各領域A1~A4の座標を図8に示すように、人差し指20b、中指20c、薬指20d、小指20eの順に並んでいる。従って、この場合はx軸方向の昇順で、人差し指20bに「指1」、中指20cに「指2」、薬指20dに「指3」、小指20eに「指4」の指番号を順に割り当てる。
 ステップS27では、動作制御部14が、現在検出している近接状態の指(接触状態の指も含む)の全て、もしくは端部のみについて、隣接する指同士のy座標の値の差分Δyを算出し、これらを予め定めた閾値と比較する。
 例えば、図11に示すように、右手の5本の指20a、20b、20c、20d、20e全てがタッチパネル11の操作面に近接状態である時には、図12に示すように、各指20a、20b、20c、20d、20eに対応する領域A1~A5が検出される。ここで、図12に示すように、領域A2~A5の各位置のy座標は差がほとんどなくほぼ整列しているが、親指20aの領域A1のy座標だけが大きくずれている。
 そこで、ステップS27では、複数の指の中で親指を特定するために、図12における領域A1-A2、A2-A3、A3-A4、A4-A5のy座標の差分Δyをそれぞれ算出し、これらを所定閾値と比較している。
 ステップS28では、動作制御部14が、ステップS27の比較結果に基づき、端部の指のΔyが所定閾値以上か否か、つまり左端又は右端の指が親指か否かを識別する。
 ステップS29では、動作制御部14が、ステップS28で親指を検出した場合には、該当する端部の指を親指20aとして認識する。
 ステップS30では、動作制御部14が、検出された親指20aに対して、特別な指番号を割り当てる。例えば親指だけに割り当て可能な指番号0「指0:FN0」を用意しておき、該当する指にこれを割り当てる。
 ステップS31では、動作制御部14が、ステップS29で検出した親指20aと、それ以外の指との並び順(位置関係)に基づいて、右手/左手を識別する。例えば、図12に示すようにy座標の差分Δyが大きい領域A1が左端側にあって、A1よりもx座標が大きい位置に他の指が存在する場合には、右手として認識する。逆に、図13に示すように、y座標の差分Δyが大きい領域A5が右端側にあって、A5よりもx座標が小さい位置に他の指が存在する場合には、左手として認識する。
 次に、図2のステップS16に相当する詳細な動作の第1例が図4に示されている。
 ステップS41では、動作制御部14は、親指20aが検出済みか否かを識別する。例えば、図3に示した処理を実行した場合には、特別な指番号「指0」が割り当てられた指があるかを識別する。親指が検出済みの場合はステップS42の処理に進み、親指が未検出であればステップS45に進む。例えば、図12に示すような状態であればステップS42に進み、図8に示すような状態であればステップS45に進む。
 ステップS42では、動作制御部14は、親指20aの番号が付けられた特定の指に対して、親指20aのための特別な動作を割り当てる。すなわち、親指20aは一般的に他の指と比べて使用頻度が低いと考えられるので、他の指よりも優先度の低い(使用頻度の低い)予め定めた動作(削除処理等)を親指20aに対して割り当てる。
 ステップS43では、動作制御部14は、ユーザが現在使用している手の右手/左手の区分を検出済みか否かを識別し、検出済みであればステップS44に進み、未検出であればステップS45に進む。
 ステップS44では、動作制御部14は、親指20a以外の各々の指に対して、右手/左手の区分に応じて、指の並び順に従い、それぞれの動作(例えば図6に示した動作)を順番に割り当てる。
 例えば図7、図8に示すように右手を使用する状態では、x座標の値の昇順に従ってS26で割り振られた指番号「指1」、「指2」、「指3」、「指4」の並び順と、使用頻度が高い順番である人差し指20b、中指20c、薬指20d、小指20eの順とが一致している。従って、この場合はそのまま指番号の動作を割り当てる。つまり、左から1番目の指20bに指番号「指1」の動作を割り当て、左から2番目の指20cに「指2」の動作を割り当て、左から3番目の指20dに「指3」の動作を割り当て、左から4番目の指(20eに「指4」の動作を割り当てる。
 一方、図13に示すようにユーザが左手を使用している状態では、S26で割り振られた指番号「指1」、「指2」、「指3」、「指4」の並び順がx座標の値の降順になっている。従って、この場合は図13に示すように、指番号を付け替えてから各指に動作を割り当てる。すなわち、右から1番目の座標x1の指20bに指番号「指1」の動作を割り当てる。右から2番目の座標x2の指20cに「指2」の動作を割り当てる。右から3番目の座標x3の指20dに「指3」の動作を割り当てる。右から4番目の座標x4の指20eに「指4」の動作を割り当てる。
 ステップS45では、右手/左手の区別ができない状態である。この場合、動作制御部14は、指番号の並べ替えは行わず、例えば図3のステップS26で割り振られた指番号「指1」、「指2」、「指3」、「指4」に従って、各指にそのまま動作(例えば図6に示した動作)を順番に割り当てる。
 次に、図2のステップS16に相当する詳細な動作の第2例が図5に示されている。
 タッチパネル11の種類によっては、タッチパネル11の操作面における静電容量の検出により指の近接状態/接触状態を検出する場合には、指の接触時に接触した指以外の近接状態の各指の座標が検出できなくなるものがある。この場合は図5に示した処理を採用する。
 ステップS51では、動作制御部14が、近接座標が検出不可能な状態か否かを識別する。例えば、指の接触を検出した時、それまでに検出していた近接状態の指を検出できなくなった時、あるいは検出している指の数が減少した時のような場合には、近接座標が検出不可能であるとみなして次のステップS52に進む。それ以外の場合はステップS54に進む。
 ステップS52では、動作制御部14が、直前(指が接触する前)に検出された近接状態の各指の座標(近接座標)を近接座標記憶部16から読み込み、近接状態および接触状態の全ての指の座標位置を把握する。
 ステップS53では、動作制御部14が、図3の「指番号の割り当て処理」を再び実行する。つまり、近接座標記憶部16から読み込んだ各指の座標に基づいて、近接状態および接触状態の全ての指に指番号を割り当てる。
 ステップS54では、動作制御部14は、親指20aが検出済みか否かを識別する。例えば、図3に示した処理を実行した場合には、特別な指番号「指0」が割り当てられた指を検出中か否かを識別する。親指が検出済みの場合はステップS55の処理に進み、親指が未検出であればステップS58に進む。
 ステップS55では、動作制御部14は、親指20aの番号が付けられた特定の指に対して、親指20aのための特別な動作を割り当てる。すなわち、親指20aは一般的に他の指と比べて使用頻度が低いと考えられるので、他の指よりも優先度の低い(使用頻度の低い)予め定めた動作を親指に対して割り当てる。
 ステップS56では、動作制御部14は、ユーザが現在使用している手の右手/左手の区分を検出済みか否かを識別し、検出済みであればステップS57に進み、未検出であればステップS58に進む。
 ステップS57では、図4のステップS44と同様に、動作制御部14は、親指20a以外の各々の指に対して、右手/左手の区分に応じて、指の並び順に従いそれぞれの動作(例えば図6に示した動作)を順番に割り当てる。
 ステップS58では、右手/左手の区別ができない状態である。この場合、動作制御部14は、指番号の並べ替えは行わず、例えば図3のステップS26で割り振られた指番号「指1」、「指2」、「指3」、「指4」に従って、各指にそのまま動作(例えば図6に示した動作)を順番に割り当てる。
 このような図5の処理によれば、タッチパネル11の種類によらず、複数の指に動作を割り当て、その動作を実行することができる。
 次に、状況と指番号と動作との対応関係を表すテーブルの構成例が図6に示されている。このテーブルは図1に示した動作記憶部15上に配置される。
 動作制御部14は、図6に示したような構成のテーブルを前述の各ステップS44、S45、S57、S58で参照することにより、入力装置100の現在の状況に応じて、ユーザの手の各指に割り当てる動作を切り替えることができる。
 図6に示した例では、状況C1は、画像一覧を表示する特定のアプリケーションプログラムを入力装置100が起動している時に、接触状態の指の座標が該当する画像のアイコンの座標とほぼ一致する場合に相当する。また、状況C2は、電子メールのアプリケーションプログラムを入力装置100が起動している時に、接触状態の指の座標がメール一覧表示中のメールアイコン又はリスト中の1項目の座標とほぼ一致する場合に相当する。状況C3は、カメラのアプリケーションプログラムを入力装置100が起動している時に、接触状態の指の座標がカメラプレビュー中の任意の場所の座標とほぼ一致する場合に相当する。
 例えば、状況C1に該当する場合には、指番号「指1(FN1)」に対応する指に対して「選択画像の拡大表示」の動作が割り当てられる。また、指番号「指2(FN2)」に対応する指に対して「選択画像の詳細情報表示」の動作が割り当てられる。また、指番号「指3(FN3)」に対応する指に対して「メーラのアプリケーションを起動して選択画像をメールに添付する」の動作が割り当てられる。
 また、状況C2に該当する場合には、指番号「指1(FN1)」に対応する指に対して「メールの本文表示」の動作が割り当てられる。また、指番号「指2(FN2)」に対応する指に対して「メールに返信」の動作が割り当てられる。また、指番号「指3(FN3)」に対応する指に対して「メールを転送」の動作が割り当てられる。
 また、状況C3に該当する場合には、指番号「指1(FN1)」に対応する指に対して「接触箇所にフォーカスを合わせて撮影する」の動作が割り当てられる。また、指番号「指2(FN2)」に対応する指に対して「接触箇所にフォーカスを合わせてフォーカスをロックする」の動作が割り当てられる。
 なお、図6に示したテーブルの内容は、指番号及び状況に対応付けて予め決定されて、動作記憶部15上にあらかじめ保持されるだけでなく、入力操作により書き換え可能となるようにしてもよい。これにより、ユーザの好みや環境に合わせて各指に割り当てる動作を変更することで、入力操作の効率をより改善することができる。
 このように、本実施形態の入力装置は、入力検知部と、座標検出部と、動作割当部と、動作実行部と、を備える。入力検知部は所定の座標領域に対する複数の入力手段の近接および接触を検知する。入力検知部は、例えばタッチパネル11である。座標検出部は、入力検知部により検知された近接時の座標である近接座標および入力検知部により検出された接触時の座標である接触座標を検出する。座標検出部は、例えば座標検出部13である。動作割当部は、座標検出部により検出された各座標に基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てる。動作割当部は、例えば動作制御部14である。動作実行部は、座標検出部により検出された接触座標へ接触した入力手段に対して動作割当部により割り当てられた動作を実行する。動作実行部は、例えば動作制御部14である。
 これにより、例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。また、一般的なタッチパネルの操作と同様に、単純なタッチ操作だけで割り当てられた動作が実行されるので、操作方法の習得が容易である。また、実際に近接または接触した指の数に応じて実行可能な動作の数を変更できるので、汎用性が高い。
 また、入力装置は、動作割当部により割り当てられる動作の情報を表示する表示部(例えば表示部10)を備えてもよい。
 これにより、ユーザは各々の指を操作して接触した場合にどのような動作が行われるのかを事前に知ることができ、操作を習熟していない場合であっても、簡単に操作可能になる。
 また、入力装置は、入力手段判定部(例えば動作制御部14)を備えてもよい。入力手段判定部は、座標検出部により検出された第1の座標以外の他の座標が第1の方向に略整列している場合、第1の座標へ近接または接触した入力手段が親指20aであると判定する。第1の座標は、例えば図12における領域A1の座標である。他の座標は、例えば、図12における領域A2~A5の座標である。第1の方向は、例えば図12におけるx方向である。また、動作割当部は、入力手段判定部により親指であると判定された場合、親指に対して、他の座標へ近接または接触した入力手段に対して割り当てられる動作よりも優先度の低い動作(例えば削除等の動作)を割り当ててもよい。
 これにより、ユーザは親指も利用できるため使用可能な指の数が増え、様々な種類の動作を指の違いで使い分けることが可能になる。さらに、親指には使用頻度の低い動作が割り当てられるので、効率的な入力操作が可能になる。
 また、入力装置は、座標検出部により検出された第1の座標以外の他の座標が第1の方向に略整列している場合、第1の座標と他の座標との位置・BR>ヨ係に基づいて、各入力手段が左右どちらの手の指であるかを判定する左右判定部を備えてもよい。左右判定部は、例えば動作制御部14である。また、動作割当部は、各入力手段が左右どちらの手の指であるかに基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当ててもよい。
 これにより、ユーザの各指の使用頻度を考慮して、使用頻度の高い指(一般的には人差し指)には優先度の高い動作を割り当て、使用頻度の低い指(例えば小指)には優先度の低い動作を割り当てることができ、効率的な入力操作が可能になる。さらに、ユーザは必要に応じて右手と左手とを使い分けることができ、右手と左手を切り替えた場合でも各指に割り当てられる動作は同じであるので、操作が容易である。
 また、入力装置は、複数の動作を順に記憶する動作記憶部(例えば動作記憶部15)を備えてもよい。動作割当部は、左右判定部により各入力手段が第1の手の指であると判定された場合、座標検出部により検出された座標における第1の方向の座標の順に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。第1の手は、例えば右手である。第1の方向の座標の順は、例えば図12におけるx方向の昇順である。また、動作割当部は、左右判定部により各入力手段が第2の手の指であると判定された場合、座標検出部13により検出された座標における第1の方向の座標の順とは逆順に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。第2の手は、例えば左手である。第1の方向の座標の順とは逆順は、例えば図12におけるx方向の降順である。
 これにより、ユーザが左右の手を使い分ける場合であっても、複数種類の動作を、ユーザの操作に適した優先順位に従って各々の指に割り当てることが可能になる。
 また、入力装置は、当該入力装置の向きを検出する向き検出部(例えば向き検出部17)を備えてもよい。動作割当部は、向き検出部により検出された向きに基づいて、座標検出部により検出された座標へ近接または接触した各入力手段に対して各動作を割り当ててもよい。
 これにより、ユーザが入力装置を縦長/横長のいずれの向きで操作する場合であっても、ユーザの同じ指に対して同じ動作を割り当てることができ、効率的な入力操作が可能になる。
 また、入力装置は、複数の動作を順に記憶する動作記憶部(例えば動作記憶部15)を備えてもよい。動作割当部は、向き検出部により第1の向きが検出された場合、座標検出部により検出された座標における第1の方向の座標の順に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。第1の向きは、例えば入力装置が縦長の向きである。第1の方向の座標の順は、例えば図12におけるx方向の順である。また、動作割当部は、向き検出部により検出された第1の向きと直交する第2の向きが検出された場合、座標検出部により検出された座標における第2の方向の座標の順に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。第2の向きは、例えば入力装置が横長の向きである。第2の方向の座標の順は、例えば図12におけるy方向の順である。
 これにより、ユーザが入力装置を縦長/横長のいずれの向きで操作する場合であっても、複数種類の動作を、ユーザの操作に適した優先順位に従って各々の指に割り当てることが可能になる。
 また、入力装置は、座標検出部により検出された近接座標の情報を記憶する近接座標記憶部(例えば近接座標記憶部16)を備えてもよい。動作割当部は、座標検出部により検出された接触座標へ接触した入力手段と、近接座標記憶部により記憶された近接座標へ近接した入力手段と、に対して各動作を割り当ててもよい。
 これにより、指の接触時に近接状態の他の指の座標が検知できなくなった場合であっても、必要な各指の座標を特定することができ、各指に動作を正しく割り当てることが可能になる。
 本発明は、上記実施形態の構成に限られるものではなく、特許請求の範囲で示した機能、または本実施形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用可能である。
 また、本発明は、上記実施形態の機能を実現する入力制御プログラムを、ネットワークあるいは各種記憶媒体を介して入力装置に供給し、この入力装置内のコンピュータ(CPU)が読み出して実行するプログラムも適用範囲である。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2011年12月1日出願の日本特許出願No.2011-263957に基づくものであり、その内容はここに参照として取り込まれる。
 本発明は、ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能な入力装置、情報端末、入力制御方法、および入力制御プログラム等に有用である。
 10 表示部
 11 タッチパネル
 11A 座標面
 12 接近/接触判定部
 13 座標検出部
 14 動作制御部
 15 動作記憶部
 16 近接座標記憶部
 17 向き検出部
 18 表示制御部
 20 ユーザの手
 20a 親指
 20b 人差し指
 20c 中指
 20d 薬指
 20e 小指
 100 入力装置
 C1,C2,C3 状況
 G1,G2 ガイダンス情報
 FN1,FN2,FN3 指番号

Claims (11)

  1.  所定の座標領域に対する複数の入力手段の近接および接触を検知する入力検知部と、
     前記入力検知部により検知された近接時の座標である近接座標および前記入力検知部により検出された接触時の座標である接触座標を検出する座標検出部と、
     前記座標検出部により検出された各座標に基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てる動作割当部と、
     前記座標検出部により検出された接触座標へ接触した入力手段に対して前記動作割当部により割り当てられた動作を実行する動作実行部と、
     を備える入力装置。
  2.  請求項1に記載の入力装置であって、更に、
     前記動作割当部により割り当てられる動作の情報を表示する表示部を備える入力装置。
  3.  請求項1または2に記載の入力装置であって、更に、
     前記座標検出部により検出された第1の座標以外の他の座標が第1の方向に略整列している場合、前記第1の座標へ近接または接触した入力手段が親指であると判定する入力手段判定部を備え、
     前記動作割当部は、前記入力手段判定部により親指であると判定された場合、前記親指に対して、前記他の座標へ近接または接触した入力手段に対して割り当てられる動作よりも優先度の低い動作を割り当てる入力装置。
  4.  請求項1ないし3のいずか1項に記載の入力装置であって、更に、
     前記座標検出部により検出された第1の座標以外の他の座標が第1の方向に略整列している場合、前記第1の座標と前記他の座標との位置関係に基づいて、各入力手段が左右どちらの手の指であるかを判定する左右判定部を備え、
     前記動作割当部は、各入力手段が左右どちらの手の指であるかに基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てる入力装置。
  5.  請求項4に記載の入力装置であって、更に、
     複数の動作を順に記憶する動作記憶部を備え、
     前記動作割当部は、前記左右判定部により各入力手段が第1の手の指であると判定された場合、前記座標検出部により検出された座標における前記第1の方向の座標の順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当て、前記左右判定部により各入力手段が第2の手の指であると判定された場合、前記座標検出部により検出された座標における前記第1の方向の座標の順とは逆順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当てる入力装置。
  6.  請求項1ないし5のいずれか1項に記載の入力装置であって、更に、
     当該入力装置の向きを検出する向き検出部を備え、
     前記動作割当部は、前記向き検出部により検出された向きに基づいて、前記座標検出部により検出された座標へ近接または接触した各入力手段に対して各動作を割り当てる入力装置。
  7.  請求項6に記載の入力装置であって、更に、
     複数の動作を順に記憶する動作記憶部を備え、
     前記動作割当部は、前記向き検出部により前記第1の向きが検出された場合、前記座標検出部により検出された座標における第1の方向の座標の順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当て、前記向き検出部により検出された前記第1の向きと直交する第2の向きが検出された場合、前記座標検出部により検出された座標における前記第2の方向の座標の順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当てる入力装置。
  8.  請求項1ないし7のいずれか1項に記載の入力装置であって、更に、
     前記座標検出部により検出された近接座標の情報を記憶する近接座標記憶部を備え、
     前記動作割当部は、前記座標検出部により検出された接触座標へ接触した入力手段と、前記近接座標記憶部により記憶された近接座標へ近接した入力手段と、に対して各動作を割り当てる入力装置。
  9.  請求項1ないし9のいずれか1項に記載の入力装置を備える情報端末。
  10.  所定の座標領域に対する複数の入力手段の近接および接触を検知するステップと、
     前記検知された近接時の座標である近接座標および前記検出された接触時の座標である接触座標を検出するステップと、
     前記検出された各座標に基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てるステップと、
     前記検出された接触座標へ接触した入力手段に対して前記割り当てられた動作を実行するステップと、
     を有する入力制御方法。
  11.  請求項10に記載の入力制御方法の各ステップをコンピュータに実行させるための入力制御プログラム。
PCT/JP2012/006728 2011-12-01 2012-10-19 入力装置、情報端末、入力制御方法、および入力制御プログラム WO2013080425A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011263957A JP2013117784A (ja) 2011-12-01 2011-12-01 入力装置、情報端末、入力制御方法、および入力制御プログラム
JP2011-263957 2011-12-01

Publications (1)

Publication Number Publication Date
WO2013080425A1 true WO2013080425A1 (ja) 2013-06-06

Family

ID=48534932

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/006728 WO2013080425A1 (ja) 2011-12-01 2012-10-19 入力装置、情報端末、入力制御方法、および入力制御プログラム

Country Status (2)

Country Link
JP (1) JP2013117784A (ja)
WO (1) WO2013080425A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017507416A (ja) * 2014-03-03 2017-03-16 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated ジェスチャ制御のためのシステムおよび方法
WO2017157542A1 (de) * 2016-03-12 2017-09-21 Audi Ag Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
WO2023140340A1 (ja) * 2022-01-19 2023-07-27 メタマティクス プライベート リミテッド 指識別に基づくユーザー・インターフェースを実現するためのシステム、方法及びそのためのプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6270633B2 (ja) * 2014-06-04 2018-01-31 三菱電機株式会社 エレベータの呼び登録装置および呼び登録方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358162A (ja) * 2001-06-01 2002-12-13 Sony Corp 画像表示装置
WO2006027924A1 (ja) * 2004-09-03 2006-03-16 Matsushita Electric Industrial Co., Ltd. 入力装置
JP2007286696A (ja) * 2006-04-12 2007-11-01 Toyota Motor Corp 入力装置
JP2008123032A (ja) * 2006-11-08 2008-05-29 Toyota Motor Corp 情報入力装置
WO2008078603A1 (ja) * 2006-12-22 2008-07-03 Panasonic Corporation ユーザインターフェイス装置
JP2008287323A (ja) * 2007-05-15 2008-11-27 Mitsubishi Electric Corp 情報入力表示装置
JP2010244132A (ja) * 2009-04-01 2010-10-28 Mitsubishi Electric Corp タッチパネル付きユーザインタフェース装置、ユーザインタフェース制御方法およびユーザインタフェース制御プログラム
JP2011034502A (ja) * 2009-08-05 2011-02-17 Sony Corp 表示装置、表示方法及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358162A (ja) * 2001-06-01 2002-12-13 Sony Corp 画像表示装置
WO2006027924A1 (ja) * 2004-09-03 2006-03-16 Matsushita Electric Industrial Co., Ltd. 入力装置
JP2007286696A (ja) * 2006-04-12 2007-11-01 Toyota Motor Corp 入力装置
JP2008123032A (ja) * 2006-11-08 2008-05-29 Toyota Motor Corp 情報入力装置
WO2008078603A1 (ja) * 2006-12-22 2008-07-03 Panasonic Corporation ユーザインターフェイス装置
JP2008287323A (ja) * 2007-05-15 2008-11-27 Mitsubishi Electric Corp 情報入力表示装置
JP2010244132A (ja) * 2009-04-01 2010-10-28 Mitsubishi Electric Corp タッチパネル付きユーザインタフェース装置、ユーザインタフェース制御方法およびユーザインタフェース制御プログラム
JP2011034502A (ja) * 2009-08-05 2011-02-17 Sony Corp 表示装置、表示方法及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017507416A (ja) * 2014-03-03 2017-03-16 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated ジェスチャ制御のためのシステムおよび方法
WO2017157542A1 (de) * 2016-03-12 2017-09-21 Audi Ag Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
CN108778818A (zh) * 2016-03-12 2018-11-09 奥迪股份公司 操作装置和用于检测操作装置的至少一个操作功能的用户选择的方法
US11061511B2 (en) 2016-03-12 2021-07-13 Audi Ag Operating device and method for detecting a user selection of at least one operating function of the operating device
WO2023140340A1 (ja) * 2022-01-19 2023-07-27 メタマティクス プライベート リミテッド 指識別に基づくユーザー・インターフェースを実現するためのシステム、方法及びそのためのプログラム

Also Published As

Publication number Publication date
JP2013117784A (ja) 2013-06-13

Similar Documents

Publication Publication Date Title
US10191573B2 (en) Pointer display device, pointer display/detection method, pointer display/detection program and information apparatus
US20200012424A1 (en) Method of operating a display unit and a terminal supporting the same
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
US9671893B2 (en) Information processing device having touch screen with varying sensitivity regions
US9060068B2 (en) Apparatus and method for controlling mobile terminal user interface execution
JP5790203B2 (ja) 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
KR200450989Y1 (ko) 양면 터치스크린을 구비한 플랫 패널 형상의 모바일 장치
KR101424294B1 (ko) 터치스크린 장치의 사용자로부터 수신된 입력 및 제스쳐에 응답하여 동작을 수행하는 컴퓨터로 구현된 방법 및 컴퓨터판독가능 매체
US20130234982A1 (en) Mobile terminal and display control method
US8866776B2 (en) Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof
JP5718042B2 (ja) タッチ入力処理装置、情報処理装置およびタッチ入力制御方法
JP5458783B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
JPWO2009031214A1 (ja) 携帯端末装置、及び表示制御方法
JP2010146032A (ja) 携帯端末装置、及び表示制御方法
JP6142564B2 (ja) 情報表示装置および表示制御プログラム
JP5703422B2 (ja) 携帯電子機器
WO2013080425A1 (ja) 入力装置、情報端末、入力制御方法、および入力制御プログラム
JP6183820B2 (ja) 端末、及び端末制御方法
US20150277649A1 (en) Method, circuit, and system for hover and gesture detection with a touch screen
JP2018139158A (ja) 携帯端末及びプログラム
WO2013047023A1 (ja) 表示装置、表示方法およびプログラム
EP3433713B1 (en) Selecting first digital input behavior based on presence of a second, concurrent, input
JP2018023792A (ja) ゲーム装置及びプログラム
JP6220374B2 (ja) 情報処理装置、出力文字コード判定方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12853994

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12853994

Country of ref document: EP

Kind code of ref document: A1