WO2016098418A1 - 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム - Google Patents
入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム Download PDFInfo
- Publication number
- WO2016098418A1 WO2016098418A1 PCT/JP2015/077830 JP2015077830W WO2016098418A1 WO 2016098418 A1 WO2016098418 A1 WO 2016098418A1 JP 2015077830 W JP2015077830 W JP 2015077830W WO 2016098418 A1 WO2016098418 A1 WO 2016098418A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- input
- finger
- input device
- area
- displayed
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/169—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Definitions
- the present invention controls an input device that receives user input to the outer edge of a housing, a wearable terminal including the input device, a portable terminal including the input device, a control method for the input device, and an operation of the input device. It relates to a control program.
- GUI Graphic User Interface
- FIG. 1 There is a GUI disclosed in Patent Document 1 as a technique related to the improvement of the operability of the GUI.
- the operability is improved by displaying the sub menu radially from the touch position on the first menu.
- a submenu is displayed so that a series of stroke operations for selecting a menu returns to the vicinity of the first touch position.
- JP 2009-37583 A Japanese Patent Publication “JP 2009-37583 A” (published on February 19, 2009)
- Patent Document 1 basically assumes an operation with one finger, and considering the use on a wearable terminal with a small display screen, the following problems are encountered. is there.
- the derivative display of the submenu has a limited display area, so it is necessary to display a small menu or to display a background image.
- the visibility may be significantly reduced.
- the direction of the submenu is not constant, the submenu may be hidden by a finger and cannot be seen, and the operability may be significantly reduced.
- a small wearable terminal such as a smart watch has a small display screen
- the touch operation on the screen edge or the side of the chassis is easier for the user to perform than the touch operation on the screen.
- the terminal moves (displaces) because the terminal is not supported. Another problem arises that it is difficult to perform touch operations.
- the inventors of the present invention for example, support one side of the terminal with the thumb and touch the other side with the index finger (or another finger other than the thumb). A new finding has been found that the operability of the terminal is improved by operating with multiple fingers.
- the present invention has been made in view of the above problems, and an object thereof is to provide an input device that can improve operability when performing an input operation with a plurality of fingers.
- an information terminal is an input device that receives a user's input to an outer edge portion of a housing of an input device, and includes a first finger of the user with respect to the outer edge portion.
- a detection unit that detects a contact position and a second input region that receives an input by the user's second finger are set based on a position that faces the contact position of the user's first finger detected by the detection unit.
- a second setting unit a second setting unit.
- an information terminal control method is a method for controlling an input device that accepts a user input to an outer edge portion of a housing of the input device, and includes the outer edge.
- FIG. 1 It is a block diagram which shows the structure of the terminal device which concerns on embodiment of this invention.
- FIG. 1 (A)-(d) is a figure which shows the variation of the operation method of the said terminal device, respectively.
- FIG. 1 (A) And (b) is a figure which shows the variation of the structure of the said terminal device, respectively.
- (A)-(d) is a figure for demonstrating the basic operation
- (A)-(d) is a figure for demonstrating the operation example which concerns on Embodiment 1 of the said terminal device, respectively.
- (A)-(d) is a figure for demonstrating the operation example which concerns on Embodiment 2 of the said terminal device, respectively.
- (A)-(d) is a figure for demonstrating the operation example which concerns on the modification of Embodiment 2 of the said terminal device, respectively.
- (A)-(c) is a figure for demonstrating the operation example which concerns on another modification of Embodiment 2 of the said terminal device, respectively.
- (A)-(c) is a figure for demonstrating the operation example which concerns on Embodiment 3 of the said terminal device, respectively.
- (A)-(c) is a figure for demonstrating the operation example which concerns on the modification of Embodiment 3 of the said terminal device, respectively.
- (A)-(c) is a figure for demonstrating the operation example which concerns on another modification of Embodiment 3 of the said terminal device, respectively.
- (A)-(d) is a figure for demonstrating the operation example which concerns on another modification of Embodiment 3 of the said terminal device, respectively.
- (A)-(d) is a figure for demonstrating the operation example which concerns on another modification of Embodiment 3 of the said terminal device, respectively.
- (A)-(d) is a figure for demonstrating the operation example which concerns on Embodiment 4 of the said terminal device, respectively. It is a figure which shows the variation of the display item of a display menu regarding the said terminal device. It is a figure which shows another variation of the display item of a display menu regarding the said terminal device.
- FIGS. 1 to 16 Embodiments of the present invention will be described with reference to FIGS. 1 to 16 as follows.
- components having the same functions as those described in the specific embodiment may be denoted by the same reference numerals and description thereof may be omitted.
- FIG. 1 is a block diagram illustrating a configuration of the terminal device 10.
- the terminal device 10 of the present embodiment has a function of accepting user input to the outer edge portion of the housing (particularly the display unit 3).
- the terminal device 10 is not limited to a wearable terminal such as a watch, but may be a mobile terminal such as a smartphone, a terminal installed on a table or a wall, and the like.
- the embodiment embodying the present invention may be not only an information terminal such as the wearable terminal, mobile terminal, and portable terminal described above, but also a control device such as a volume control knob for audio equipment. .
- the size of the terminal device 10 is not limited to a small size (screen size: about 2 inches) like a watch, but is a size that allows the two ends of the housing (or the display unit 3) to be touched simultaneously with two fingers of one hand. It only needs to be present (screen size: about 5 inches).
- the terminal device 10 includes a detection unit 1, a control unit 2, a display unit 3, and a storage unit 4.
- the detection unit 1 includes a touch panel (detection unit) 11 superimposed on the display unit 3 and a side touch sensor provided on a side surface of the outer edge of the display unit 3 provided in the casing of the terminal device 10. (Detector) 12.
- the touch panel 11 detects the contact or approach of an object into the display screen of the display unit 3 provided in the housing, and the first finger or the outer edge of the housing (or the display unit 3).
- the contact or approach of the second finger is detected (detection step).
- the casing (or display unit 3) is superimposed on the display unit 3 provided in the casing and the touch panel 11 that detects the contact or approach of an object into the display screen of the display unit 3 is detected. It is possible to detect the contact or approach of the first finger or the second finger to the outer edge of the first finger. Therefore, since it is not necessary to provide a new detection member in order to detect contact or approach to the outer edge of the housing (or display unit 3), the number of parts can be reduced.
- the side surface touch sensor 12 detects the contact or approach of the first finger or the second finger to the side surface of the housing. According to the above configuration, the contact or approach of the first finger or the second finger to the outer edge of the housing can be detected by the side touch sensor 12 disposed on the side surface of the housing of the terminal device 10.
- the form of the detection unit 1 is not limited to the form of the touch panel 11 and the side touch sensor 12, and the end (corner) of the display included in the display unit 3 or the terminal device 10. Any form may be used as long as the touch on the side of the housing can be detected.
- Control unit 2 The control part 2 controls each part with which the terminal device 10 is provided [for example, it comprises CPU (Central Processing Unit)]. As shown in FIG. 1, the control unit 2 includes a detection unit controller 21, a setting unit (first setting unit, second setting unit) 22, a display control unit 23, a process specifying unit 24, and a process execution unit 25. .
- the control unit 2 includes a detection unit controller 21, a setting unit (first setting unit, second setting unit) 22, a display control unit 23, a process specifying unit 24, and a process execution unit 25.
- the detection unit controller 21 includes a contact position specifying unit 221, and the contact position of the object in the display screen based on the detection result of the contact or approach of the object to the display screen of the display unit 3 by the touch panel 11. (Coordinates) are specified. Further, the contact position specifying unit 221 of the detection unit controller 21 is based on the detection result of the contact or approach of the first finger or the second finger to the outer edge of the display unit 3 by the touch panel 11, at the outer edge of the display unit 3. The contact position (coordinates) of the object is specified.
- the detection unit controller 21 specifies the contact position of the object on the side touch sensor 12 based on the detection result of the contact or approach of the object by the side touch sensor 12.
- the contact position specifying unit 221 uses the setting unit 22 and / or the process specifying unit to store information related to the contact position of the object in the specified display screen or information related to the contact position of the object in the side touch sensor 12. 24.
- the setting unit 22 is configured to set a first input region that receives input from the first finger at or near the contact position of the first finger detected by the detection unit 1.
- the setting unit 22 is configured to set a second input region that receives an input by the user's second finger with reference to the position facing the contact position of the first finger detected by the detection unit 1 ( Second setting step).
- the second input area by the second finger is set opposite to the contact position of the first finger of the user who has contacted the outer edge of the display unit 3.
- the operability when performing an input operation with a plurality of fingers can be improved.
- the setting unit 22 passes the information related to the set first input region and second input region to the detection unit controller 21, the display control unit 23, and / or the processing specifying unit 24.
- the setting unit 22 sets the first input area when the detection unit 1 detects the contact position of the second finger after the detection unit 1 detects the contact position of the first finger.
- the second input area is set, and the detection unit 1 detects the contact position of the first finger and the second finger position.
- the setting of the first input area and the setting of the second input area by the setting unit 22 may be alternately performed by alternately detecting the contact position of the finger. According to the above configuration, the first input area and the second input area are alternately set by alternately performing the input with the first finger and the input with the second finger. Thereby, the operability when performing an input operation with a plurality of fingers can be improved.
- the display control unit 23 controls the display unit 3 to display a predetermined image or the like (for example, an icon included in a main menu, a sub menu, and each menu (menu item) described later).
- the display control unit 23 of the present embodiment has, as the first input image for prompting input by the user's first finger in the first input region of the display unit 3 or in the vicinity thereof, as follows. Control to display the main menu is performed. According to the above configuration, the first input image is displayed in or near the first input area. As a result, the user can visually recognize the first input image (main menu), and can input to the first input area while visually recognizing the image.
- the display control unit 23 displays a submenu as a second input image for prompting input by the user's second finger in the second input area of the display unit 3 or in the vicinity thereof. It is designed to perform control.
- the submenu is displayed in the second input area to be set or in the vicinity thereof when triggered by the input of the first finger to the first input area with reference to the main menu.
- the user can visually recognize the submenu with the input as an opportunity, and can input to the second input area while visually recognizing the submenu.
- the visibility of each menu on the display screen and the operability for the terminal device 10 can be improved as described above.
- the submenu since the submenu is not displayed in the second input area or in the vicinity thereof until the above input, the user cannot recognize the presence of the second input area before the input. That is, the user cannot make an input to the second input area before the input. Thereby, the acceptance of the input to the second input area at the time of input to the first input area can be prevented. Therefore, it is possible to prevent a malfunction from occurring due to input reception at a plurality of locations.
- the display control unit 23 displays the first input image when the detection unit 1 detects the contact position of the second finger after detecting the contact position of the first finger.
- the second input image is displayed, and the detection unit 1 detects the contact position of the first finger.
- the first input image and the second input image may be alternately displayed. According to the above configuration, the first input image and the second input image are alternately displayed by alternately performing the input with the first finger and the input with the second finger.
- the user can alternately visually recognize each of the first input image and the second input image with the input as an opportunity, and while viewing the image, the first input region and the second input It becomes possible to alternately input to the area.
- the operability when performing an input operation with a plurality of fingers can be improved.
- the display control unit 23 may display submenus of lower hierarchical layers according to the order of alternately displaying the first input image and the second input image. According to the above configuration, it is possible to select menu items of lower-level submenus according to the order of alternately displaying the first input image and the second input image. Thereby, the operability when performing an input operation with a plurality of fingers can be improved.
- the process specifying unit 24 includes information related to the contact position of the object in the display screen specified by the contact position specifying unit 221 of the detection unit controller 21, or information related to the contact position of the object in the side touch sensor 12, and Based on the information related to the input to the first input area and the input to the second input area set by the setting unit 22, the processing content to be executed corresponding to the input operation of the user is specified, and the information related to the specified processing content is The data is passed to the processing execution unit 25.
- the process execution unit 25 performs a process of causing the corresponding block (particularly the display control unit 23) of the control unit 2 to execute a process corresponding to the process content based on the information related to the process content received from the process specifying unit 24. It has become.
- the display unit 3 of the present embodiment includes, for example, a liquid crystal panel as a predetermined display screen, and displays an image or the like.
- the display panel used for the display unit 3 is not limited to a liquid crystal panel, and may be an organic EL (electroluminescence) panel, an inorganic EL panel, a plasma panel, or the like.
- a main menu is displayed as a first input image for prompting input by the user's first finger in the first input area, particularly in the first input area or in the vicinity thereof. It has come to be.
- a submenu is displayed in the second input area or in the vicinity thereof as a second input image for prompting input by the user's second finger to the second input area. ing.
- the terminal device 10 demonstrated the structure provided with the display part 3 in this embodiment, the form which embodies this invention is not limited to this,
- the display part does not necessarily need to be provided.
- an input device or a control device that accepts only a touch operation on the outer edge of the housing may be used.
- Storage unit 4 In the storage unit 4, various types of information necessary for the operation of each unit of the control unit 2 described above are recorded in advance, and further, various types of information generated by the above-described units in accordance with the operation of the terminal device 10 are recorded afterwards.
- examples of information recorded in advance in the storage unit 4 include an OS (Operating System) that is basic software for operating the terminal device 10, various applications (software), and a GUI displayed on the display unit 3.
- Information related to (Graphical User Interface) can be listed.
- specification part 221 of the detection part controller 21 Information relating to the first input area or the second input area set by the setting unit 22, a first input image (main menu image) or a second input image (submenu image) generated by the display control unit 23 ) Can be listed.
- FIG. 2A shows a form in which both the first input area and the second input area are present at the peripheral edge of the display screen on the touch panel.
- the presence positions of the first input area and the second input area coincide with the display positions of the first input image (main menu) and the second input image (submenu).
- the thumb first finger
- the second input image is displayed in the area A2 on the touch panel.
- the input to the sub menu is executed by bringing the index finger (second finger) into contact with the contact position P2 with respect to the sub menu display displayed in the area A2 on the touch panel.
- either the first input area or the second input area is present at the peripheral edge of the display screen on the touch panel, and the other is the peripheral edge of the housing.
- arranged to the side of the part is shown.
- the side touch sensor 12 is preferably arranged on the entire side surface of the peripheral edge of the casing of the terminal device 10.
- FIG. 2 (b) shows a form in which the first input area is present on the side touch sensor 12 and the second input area is present at the peripheral edge of the display screen on the touch panel.
- a thumb is brought into contact with the contact position P1 on the side touch sensor 12 in the vicinity of the first menu display displayed in the area A1 on the touch panel
- a second input image (submenu is displayed in the area A2 on the touch panel. ) Is displayed.
- the input to the submenu is executed by bringing the index finger into contact with the contact position P2 with respect to the submenu display displayed in the area A2 on the touch panel.
- the form shown in FIG. 2C shows a form in which the first input area exists on the peripheral edge of the display screen on the touch panel and the second input area exists on the side touch sensor 12.
- a second input image (submenu) is displayed in the area A2 on the touch panel.
- the input to the submenu is executed by bringing the index finger into contact with the contact position P2 on the side touch sensor 12 in the vicinity of the submenu display displayed in the area A2 on the touch panel.
- the form shown in (d) of FIG. 2 shows a form in which both the first input area and the second input area are present on the side touch sensor 12 disposed on the side surface of the peripheral edge of the housing.
- a thumb is brought into contact with the contact position P1 on the side touch sensor 12 in the vicinity of the first menu display displayed in the area A1 on the touch panel
- a second input image is displayed in the area A2 on the touch panel.
- the input to the submenu is executed by bringing the index finger into contact with the contact position P2 on the side touch sensor 12 in the vicinity of the submenu display displayed in the area A2 on the touch panel.
- FIG. 3A shows a configuration example in which a touch operation can be performed at the edge of the screen edge of the display unit 3.
- the touch panel 11 is used for touching the edge of the screen (the corner of the protective glass) by using a narrow frame touch panel sheet (touch panel 11) and forming the terminal protective glass in a shape protruding from the housing to the front surface. It comes to react.
- the display image can be extended to the end of the terminal by providing the protective glass with a lens effect.
- the touch panel 11 has a sensor arranged to the edge of the housing, and can be touched at the end (edge / corner) of the terminal.
- FIG. 3B shows a configuration example in which a touch operation can be performed on the side surface of the casing of the terminal device 10.
- a side touch sensor 12 different from the touch panel 11 is attached to the side of the housing, and the side touch sensor 12 is one-dimensional in the vertical direction of the screen, and it is determined which position on the side is touched. Can be done.
- FIGS. 3A and 3B a configuration example in which the cross-sectional shape of the housing is a circular shape and a rectangular shape is shown, but a configuration in which a side touch sensor is arranged on the side surface of the housing in a circular shape. Alternatively, it may be configured to be touchable at the edge of the screen in a rectangular shape.
- the side surface touch sensors are provided only on the two opposite sides of the rectangle, but the side surface touch sensors may be provided on all four sides.
- FIG. 4A illustrates a form in which the casing cross section of the terminal device 10 has a circular shape
- FIG. 4B illustrates a form in which the casing cross section of the terminal apparatus 10 has a rectangular shape. Show.
- FIGS. 4A and 4B when the first touch with the thumb (first finger) is performed at the contact position P1 in the area A1, the contact position is opposed.
- the submenu (second input image) related to the area A2 is displayed with the position to be used as a reference.
- the main menu (first input image) is displayed near the first touch position as “Song selection, playback menu, volume, other application selection” ”Or the like is displayed, and when any one is selected by the first touch, a submenu related to the first selection is displayed in the submenu area on the opposite side.
- icons buttons; menu items
- song advance are displayed in the submenu so that they can be selected.
- volume is first selected in the main menu, a volume scale is displayed on the sub menu so that the user can trace and adjust the scale (sliding operation is possible).
- the main menu may be displayed in the vicinity of the contact position when the thumb (first finger) touches the outer edge of the display unit 3, or the thumb touches before the thumb touches. Then, it may be displayed near the expected part. More specifically, for example, the following forms (1) and (2) are conceivable. (1) Immediately after starting the application, the main menu is displayed on the screen edge of the display unit 3 from the beginning (before the thumb touches), and when the center of the screen (area other than the menu) is touched, the main menu on the screen edge is displayed. Disappears. Thereafter, it is displayed in the vicinity of the contact position when triggered by the contact with the outer edge of the display unit 3. (2) The main menu is not displayed immediately after starting the application. When the outer edge of the display unit 3 is touched, the main menu is displayed in the vicinity of the contact position.
- FIGS. 4C and 4D show a form in which a submenu is displayed near the opposite side position (existing position of the area A2) passing through the center of the screen from the first touch position (contact position P1). ing. Note that the display position of the submenu is not strictly limited to the position on the opposite side.
- FIG. 4 relates to a touch operation method and a user interface for improving touch operability and screen visibility in a small input device such as a watch.
- operation menus are displayed on the edge of the screen, and touch the screen edge or the side of the housing to operate the screen. This improves operability and visibility. For example, when a plurality of operation buttons are displayed at the center of the screen, one button needs to be displayed in a small size, the visibility is poor, and this may cause an erroneous touch. In addition, the operation finger is obstructed and the screen is difficult to see.
- a submenu related to touch (support of the terminal) for selecting the first main menu is provided. It is displayed near the side opposite to the first touch to facilitate detailed operations with the other finger.
- FIG. 5A and 5B show an example of a basic touch operation on the screen edge of the terminal device 10 or on the side of the housing.
- a menu (menu item) displayed on the screen edge is selected / operated by a combination of these basic touch operations.
- FIG. 5 show an operation example when selecting / executing any item from the displayed menu.
- menu selection is performed by “single tap (touch ⁇ release)” or “touch and hold” with the thumb at the contact position P1.
- the related submenu is displayed in the area A2 based on the position facing the contact position P1.
- the menu selection is performed by “single tap (touch ⁇ release)” or “select the position where the touched finger is released after sliding”. If there are many menu items (lists, etc.), it is necessary to scroll the menu. To distinguish between this operation and single taps or operations that are separated by touch, “double tap", "touch” Then, the user may perform an operation such as “swipe in the selected item toward the center of the screen” or “select the item touched with the index finger at that time by releasing the touch of the thumb”.
- the volume is adjusted by performing an operation (slide operation) for tracing and moving the scale in the submenu.
- the movement according to the direction and movement amount slid from the first touch position with respect to the area A2 is performed.
- the form related to the volume adjustment is shown.
- the present invention is not limited to such a form, and the image is enlarged / removed by performing an operation (sliding operation) for tracing the scale in the submenu. Reduction (adjustment of enlargement ratio) or the like may be performed.
- a form is sequentially sent in the moved direction from the first touch position in the area A2 (for example, screen scrolling, page turning / returning, music forwarding / returning, cursor movement). , Enlarge / reduce image, etc.).
- the screen scroll may be scrolled downward with respect to the paper surface by sliding clockwise from the first touch position on the submenu, and depending on the amount of movement of the finger. The scrolling speed may be changed.
- the first touch selection position is displayed by displaying a submenu related to the side opposite to the first touch selection position, while supporting the housing with one finger
- a detailed touch operation can be performed with the other finger, and the operability can be improved.
- the visibility of the screen can be improved by displaying the operation menu at the edge of the screen.
- FIG. 6 shows an operation example of the application of the music player.
- FIG. 6A shows a state when the main menu is displayed.
- the state shown in the figure shows a state when the main menu is displayed on the side first touched.
- main menus for example, icons relating to “playback menu”, “song selection”, and “volume” are displayed in the vicinity of the lower left side with respect to the paper surface of the display unit 3, and touched respectively. Then, the submenu related to the touch item is displayed on the opposite side.
- FIG. 6 shows a state when the “playback menu” is displayed or operated.
- icons buttons: menu items
- the music advance / return operation allows the music advance / return to be performed sequentially (continuously) by sliding the finger in the direction of the arrow from the position touched first. Depending on the amount of movement for sliding the finger, the music feed / return speed may be increased.
- (c) of FIG. 6 shows a state when the song list is displayed or operated.
- a list menu item
- a list menu item
- FIG. 6 shows a state when the volume adjustment bar is displayed or operated.
- a scale for volume adjustment is displayed in the area A2. You can adjust the current volume position by sliding the cursor.
- FIG. 7 shows another operation example of the application of the music player.
- FIG. 7A shows a state when the main menu is displayed.
- FIG. 7B shows a state when the “reproduction menu” is displayed or operated.
- FIG. 7C shows a state when the music list is displayed or operated.
- FIG. 7D shows a state when the volume adjustment bar is displayed or operated.
- the main menu is displayed on the lower left side of the screen, and an example of operating it with the thumb is shown.
- the main menu is displayed on the upper right side of the screen,
- the main menu may be operated with the index finger (first finger), and the submenu may be operated with the thumb (second finger).
- the index finger acts as a support (fulcrum), and the edge is traced with the thumb.
- the main menu is not initially displayed, it may be displayed near the position where the edge is first touched (side), and the main menu is displayed in advance at the top or bottom of the screen. Also good.
- FIG. 8 shows still another operation example of the music player application.
- the form shown in the figure is an example of music selection operation, and shows a display method when the hierarchy is multistage such as “ARTIST”, “ALBUM”, or “Song Name”.
- FIG. 8A shows a state when the artist list is displayed or operated.
- FIG. 8B shows a state when the album list is displayed or operated.
- FIG. 8C shows a state at the time of displaying or operating the song name list.
- a song selection icon is touched with a thumb (first finger) in the area A1 (contact position P1) from the main menu
- an artist list is displayed on the opposite screen edge (area A2), and another finger ( The second finger) can be selected (contact position P2).
- the album list of the selected artist is further displayed on the screen edge (area A3) on the opposite side, and the thumb and other lists are displayed. It can be selected alternately with the finger (contact position P3).
- the song title of the selected album is further displayed on the screen end (area A4) on the opposite side, and other fingers, thumbs, Can be selected alternately with (contact position P4).
- the list may be sent to the next page, or the list may be sent sequentially downward.
- FIG. 9 shows an operation example of an application that performs character input (Japanese character input) such as mail.
- A shows the state at the time of initial display (vowel key display).
- FIG. 9B shows a state when character input is displayed or operated.
- FIG. 9C shows a state when the destination list is displayed or operated.
- FIGS. 9A and 9B is an example of character input operation.
- “Vowel” is displayed at the first touched position (side; contact position P1 of area A1) and selected by touch.
- the character candidate (consonant candidate: menu item) of the “NA” line is displayed on the opposite side (area A2).
- the display position of “vowel” is not limited to the left side, but is displayed on the side tapped first.
- the character of “vowel” can be selected by tapping (pressing ⁇ releasing), sliding with the finger touched, and displaying the consonant candidate of the character touched by the finger each time, or sliding it. You may display the consonant candidate of the position where the finger
- the form shown in (c) of FIG. 9 is an example of destination input operation.
- “vowel” is displayed on one side (area A1), and the address is related to the character selected for touch.
- the list is displayed on the opposite side (area A2).
- the display of “vowel” is triggered by the tap operation in the address field, but the display position is not limited to the left side, and it is usually displayed on the side that is first touched from the past operation history. May be.
- the display position may be changed to the right side. Note that the candidate selection method to be displayed is the same as the selection method in the form shown in FIGS.
- FIG. 10 shows an example of the flow of character input in an operation example of an application that performs character input (Japanese input) such as e-mail.
- FIG. 10A shows a state when the first character is input.
- FIG. 10B shows a state when the second character is input.
- FIG. 10C shows a state when the conversion candidate is displayed.
- FIGS. 10A and 10B are examples of character input operations, in which a vowel candidate is selected by touching with a thumb (may be kept pressed or released) and other fingers may be selected.
- a candidate may be selected by a single tap (touch ⁇ release), or a candidate at a released position by sliding a finger may be selected.
- a candidate may be selected by double tap, or a candidate may be selected by swiping in toward the center of the screen.
- the candidate may be selected by releasing the thumb while touching with another finger.
- conversion candidates may be displayed based on the input characters. Even when the conversion candidate is displayed, when a vowel is selected with the thumb for the next character input, the conversion candidate may be deleted and the consonant candidate may be displayed.
- the list is scrolled / paged, which is the same operation as the “single tap” or “release finger” operation. Therefore, it is preferable to “input” by “double tap”, “swipe in the screen”, or “release the thumb touch”.
- the temporary selection may be canceled and the subsequent operation may be prioritized.
- the temporarily selected item may be “input”.
- FIG. 11 shows an operation example of an application for inputting characters in English (English character input) such as e-mail.
- FIG. 11A shows a state when the first character is input.
- FIG. 11B shows a state when the second character is input.
- FIG. 11C shows a state when the conversion candidate is displayed.
- FIGS. 11A and 11B are examples of character input operations, in which candidates for 3 to 4 alphabet letters are displayed on the thumb side (area A1), and the thumb (first finger) is used.
- a candidate for each character corresponding to the touched candidate (contact position P1) is displayed on the other finger side (second finger side) (area A2).
- the selection (input) method on the other finger side is the same as the selection method in the form shown in FIG. 10, and the candidate may be selected by a single tap (touch ⁇ release), or the finger is slid and released.
- a candidate may be selected.
- a candidate may be selected by double tap, or a candidate may be selected by swiping in toward the center of the screen.
- the candidate may be selected by releasing the thumb while touching with another finger.
- input candidates menu items in units of words may be displayed.
- the display method and selection (input) method are the same as the display method and selection method in the embodiment shown in FIG. If you continue to input characters without selecting an input candidate, touch the next character candidate on the thumb to hide the input candidate and display the consonant candidate corresponding to the thumb touch on the right end. You may make it do.
- FIG. 12 shows another operation example of an application for inputting characters (English character input) in English such as e-mail.
- 12A and 12B show examples of operations for displaying candidates on both ends of the display unit 3.
- FIGS. 12C and 12D show an operation example in which all the character keys are arranged at both ends of the display unit 3.
- candidates of 3 to 4 alphabet letters are displayed on both the thumb side (area A1) and the other finger side (area A2) and touched first.
- a candidate for each character corresponding to the candidate is displayed on the opposite side (region A2).
- the 3 to 4 alphabets that are displayed first are adapted to the arrangement of the QWERTY keyboard, but may be arranged in alphabetical order.
- the form shown in (c) and (d) of FIG. 12 shows an example in which all alphabets are arranged at both ends.
- word input candidates may be displayed at the opposite end during character input.
- you want to input the next character without selecting a word input candidate touch the “x” at the top of the input candidate to hide the input candidate and display the original alphabet key.
- the alphabet is arranged in accordance with the QWERTY keyboard, but may be arranged in alphabetical order.
- FIG. 13 shows still another operation example of the application for inputting characters in English (English character input) such as e-mail.
- English English character input
- FIG. 13 shows still another operation example of the application for inputting characters in English (English character input) such as e-mail.
- English English character input
- candidates menu items
- FIG. 13 arranges all alphabets at one end (area A1), predicts the next input character according to the character selected on one side (area A1), and sets candidates on the opposite side.
- An example of display in (area A2) is shown.
- first finger side When the first character is input on the thumb side (first finger side; area A1), it narrows down to the next most likely character, displays it on the opposite side (area A2), and the other finger (second finger) Allows selection in If there is no candidate, input again on the thumb side. Further input candidates may be displayed on the other finger side, or may be alternately displayed on the thumb side and the other finger side.
- FIG. 13 show an example in which an input word is predicted and candidates are displayed on the opposite side (region A2) according to the character selected on one side (region A1).
- FIGS. 13A and 13B When the form shown in FIGS. 13A and 13B is combined with the form shown in FIGS. 13C and 13D, when the number of input characters is small, the former form character candidates are displayed. If the word can be predicted to some extent, the display may be switched to display the word.
- the input character and word prediction methods include commonly used dictionary data for commonly used words, a method for extracting candidates based on the dictionary data, and a method for presenting candidates from the user's past input history. Conceivable.
- FIG. 14 shows an operation example of the application of the web browser.
- FIG. 14A shows a state during initial display (menu display).
- icons such as “page operation”, “enlargement / reduction operation”, “bookmark”, and “tab selection” are displayed at the left end (area A1).
- the submenu related to the touch item is displayed on the opposite side (area A2).
- FIG. 14B shows a display example or an operation example of the page scroll operation.
- “page operation” an operation bar for page scrolling is displayed, and the scroll operation is performed sequentially (continuously) by sliding a finger in the direction of the arrow from the position first touched in the area A2. You may enable it to scroll up and down.
- the scrolling speed may be increased according to the amount of movement for sliding the finger.
- FIG. 14 shows a display example or an operation example of the enlargement / reduction operation.
- an operation bar for enlargement / reduction may be displayed, and the enlargement ratio may be adjusted by sliding the cursor on the scale after touching. If you move your finger out of the list, you may move to the next page.
- FIG. 14 shows a display example or an operation example of a bookmark.
- a bookmark list may be displayed so that selection can be made by touch (tap). After the touch, a list of positions where the finger is slid and released may be selected. If you move your finger out of the list, you may move to the next page.
- FIGS. 15 and 16 [Variations of display items in each menu] Next, variations of display items (menu items) of each menu of the main menu and the sub menu will be described with reference to FIGS. 15 and 16.
- Applications that can be used by the terminal device 10 described above are not limited to those described in the above-described embodiment, and can be used for various applications as illustrated in FIGS. 15 and 16.
- the main menu is displayed on the side touched first, and when any of the items of the main menu is selected, the submenu 1 is displayed on the opposite side. Further, if any item is selected in the submenu 1, the submenu 2 is displayed on the side opposite to the submenu 1 (or the same side may be used).
- control blocks in particular, the detection unit controller 21, the setting unit 22, and the display control unit 23 of the terminal device 10 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU It may be realized by software using (Central Processing Unit).
- a logic circuit hardware
- IC chip integrated circuit
- CPU Central Processing Unit
- the terminal device 10 includes a CPU that executes instructions of a program that is software that implements each function, a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU), A storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like are provided. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
- a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
- the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
- a transmission medium such as a communication network or a broadcast wave
- the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
- An input device (terminal device 10) according to aspect 1 of the present invention is an input device that receives a user input to an outer edge portion of a housing of the input device, and detects a contact position of the first finger of the user with respect to the outer edge portion. And a second input area for receiving an input by the user's second finger based on a position facing the contact position of the first finger of the user detected by the detection unit (1).
- 2 setting units (setting unit 22).
- the second input area by the second finger is set opposite to the contact position of the first finger of the user who has contacted the outer edge of the housing.
- the input device is the input apparatus according to aspect 1, in which a first input area for receiving input by the first finger is set at or near the contact position of the first finger detected by the detection unit.
- One setting unit (setting unit 22) may be further provided. According to the above configuration, in addition to the input by the second finger, the input by the first finger can be accepted. Therefore, it becomes possible to accept a plurality of inputs.
- the setting of the first input area by the first setting unit and the setting of the second input area by the second setting unit are alternately performed. It may be. Thereby, the operability when performing an input operation with a plurality of fingers can be improved.
- the input device is the input apparatus according to aspect 2 or 3 described above, in which the touch operation with the first finger is performed on the first input area and the second input area is the above. It may be possible to perform a slide operation or a scroll operation with the second finger. According to the above configuration, operability when performing an input operation with a plurality of fingers can be improved.
- the input device is the input apparatus according to aspect 2, in which the first input image for prompting the user to input with the first finger in the first input area is provided in or near the first input area. You may further provide the display control part (23) to display. According to the above configuration, the first input image is displayed in or near the first input area. As a result, the user can visually recognize the first input image, and can input to the first input area while visually recognizing the image.
- the input device is the input apparatus according to aspect 5, in which the display control unit is arranged in the second input area or in the vicinity thereof in response to an input made to the first input area.
- a second input image for prompting the user to input with the second finger in the second input area may be displayed.
- the second input image is displayed in the second input area or in the vicinity thereof in response to an input to the first input area.
- the user can visually recognize the second input image with the input as a trigger, and can input the second input area while visually recognizing the image.
- the second input image is not displayed in or near the second input area until the above input, the user cannot recognize the presence of the second input area before the input. That is, the user cannot make an input to the second input area before the input. Thereby, the acceptance of the input to the second input area at the time of input to the first input area can be prevented. Therefore, it is possible to prevent a malfunction from occurring due to input reception at a plurality of locations.
- the second input image includes a plurality of menu items, and a slide operation with the second finger is performed on the second input area.
- the menu item associated with the position where the contact with the second finger is released may be selected.
- the second input image includes a plurality of menu items, and the touch operation with the first finger is performed on the first input area.
- the touch with the first finger is released from the state in which the touch operation with the second finger is performed on the second input area, the touch with the second finger is performed.
- a menu item associated with the position of the operation may be selected.
- the first input image for prompting the user to input with the first finger in the first input area is provided in or near the first input area.
- the detection unit detects the contact position of the first finger and the contact position of the second finger alternately.
- the first input image and the second input image may be alternately displayed. According to the above configuration, the first input image and the second input image are alternately displayed by alternately performing the input with the first finger and the input with the second finger.
- the user can alternately visually recognize each of the first input image and the second input image with the input as an opportunity, and while viewing the image, the first input region and the second input It becomes possible to alternately input to the area.
- the operability when performing an input operation with a plurality of fingers can be improved.
- the second input image is represented by a first input image for prompting the user to input with the first finger in the first input area.
- a submenu corresponding to the menu may be indicated.
- the sub menu is displayed in the second input area and the vicinity thereof, triggered by the input to the first input area by the first finger referring to the main menu.
- the display control unit according to aspect 9 is hierarchically arranged according to an order in which the first input image and the second input image are alternately displayed.
- a submenu of a lower hierarchy may be displayed. According to the above configuration, it is possible to select menu items of lower-level submenus according to the order of alternately displaying the first input image and the second input image. Thereby, the operability when performing an input operation with a plurality of fingers can be improved.
- the detection unit is superimposed on a display unit included in the housing, and the display unit has a display screen. While detecting the contact or approach of the object, the contact or approach of the first finger or the second finger to the outer edge may be detected.
- the first finger or the outer finger is detected by the detection unit that detects the contact or approach of the object within the display screen of the display unit that is superimposed on the display unit of the housing.
- the contact or approach of the second finger can be detected. Therefore, since it is not necessary to provide a new detection member in order to detect contact or approach to the outer edge, the number of parts can be reduced.
- the detection unit may be arranged on a side surface of the casing. According to the said structure, the contact or approach of a 1st finger
- the wearable terminal according to aspect 14 of the present invention preferably includes the input device according to any of aspects 1 to 13. According to the above configuration, it is possible to realize a wearable terminal that can improve operability when performing an input operation with a plurality of fingers.
- the mobile terminal according to aspect 15 of the present invention includes the input device according to any of aspects 1 to 13. According to the above configuration, it is possible to realize a mobile terminal capable of improving operability when performing an input operation with a plurality of fingers.
- a control method for an input device is a control method for an input device that accepts a user's input to the outer edge portion of the housing of the input device, wherein the contact position of the first finger of the user with respect to the outer edge portion is determined.
- An input device control program is a control program for controlling the operation of the input device of aspect 1, and is a control for operating a computer as the second setting unit in the input device. It may be a program.
- the input device may be realized by a computer.
- the input device is operated by the computer by causing the computer to operate as each unit (limited to software elements) included in the input device.
- An input device control program to be realized and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
- the present invention can be used for an input device that accepts user input to the outer edge of the housing, a wearable terminal including the input device, a portable terminal including the input device, and the like.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
複数の指による入力操作を行うときの操作性を向上させる。端末装置(10)の筐体の外縁部に対するユーザの第1指の接触位置を検出する検出部(1)と、検出部(1)が検出した上記ユーザの上記第1指の接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する設定部(22)と、を備える。
Description
本発明は、筐体の外縁部に対するユーザの入力を受け付ける入力装置、該入力装置を備えるウェアラブル端末、上記入力装置を備える携帯端末、上記入力装置の制御方法、および上記入力装置の動作を制御するための制御プログラムに関する。
スマートウォッチなどの小型のウェアラブル端末は、タッチパネルが重畳された表示画面が小さいため、従来からGUI(Graphical User Interface)の操作性の向上が大きな課題となっている。このようなGUIの操作性の向上に関する技術として特許文献1に開示されたGUIがある。このGUIでは、最初のメニューへのタッチ位置から放射状にサブメニューを表示することで操作性を向上させている。また、このGUIでは、メニューを選択する一連のストローク操作が最初のタッチ位置付近に戻るようにサブメニューが表示されるようになっている。
しかしながら、上記特許文献1に開示されたGUIは、基本的に1本の指での操作を想定したもので、表示画面の小さいウェアラブル端末上での使用を考えると、以下のような問題点がある。
例えば、上記特許文献1に開示されたGUIをウェアラブル端末に適用した場合、サブメニューの派生的な表示には、表示エリアに限界があるため、小さくメニュー表示をする必要があったり、背景の画像に被せる必要があったりと、視認性が著しく低下してしまう場合がある。また、サブメニューの派正方向が一定でないため、サブメニューが指で隠れて見えない場合が生じ、操作性が著しく低下してしまうという場合もある。
ところで、スマートウォッチなど小型のウェアラブル端末は、表示画面が小さいため、画面内のタッチ操作よりも、画面エッジまたは筺体側面でのタッチ操作の方がユーザにとって操作し易いと考えられる。しかしながら、このようなスマートウォッチを腕に付けた(巻いた)状態で画面エッジや側面でのタッチ操作を1本指で行う場合、端末の支えがないために端末が動いて(ずれて)しまいタッチ操作を行い難いという別の問題が生じる。
本発明者らは、以上の問題点について鋭意検討した結果、例えば、端末の1辺を親指で支え、人差し指(または、親指以外の他の指)でもう1方の辺をタッチするといったように複数の指で操作を行う方が端末の操作性が向上するとの知見を新たに見出した。
本発明は、以上の問題点に鑑みて為されたものであり、その目的は、複数の指による入力操作を行うときの操作性を向上させることができる入力装置などを提供することにある。
上記の課題を解決するために、本発明の一態様に係る情報端末は、入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置であって、上記外縁部に対するユーザの第1指の接触位置を検出する検出部と、上記検出部が検出した上記ユーザの上記第1指の接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定部と、を備えることを特徴としている。
また、上記の課題を解決するために、本発明の一態様に係る情報端末の制御方法は、入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置の制御方法であって、上記外縁部に対するユーザの第1指の接触位置を検出する検出ステップと、上記検出ステップにて検出された上記第1指の上記接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定ステップと、を含むことを特徴としている。
本発明の一態様によれば、複数の指による入力操作を行うときの操作性を向上させることができるという効果を奏する。
本発明の実施形態について図1~図16に基づいて説明すれば、次の通りである。以下、説明の便宜上、特定の実施形態にて説明した構成と同一の機能を有する構成については、同一の符号を付記し、その説明を省略する場合がある。
〔端末装置10の構成について〕
図1に基づき、本発明の実施形態に係る端末装置(入力装置,ウェアラブル端末,携帯端末)10の構成について説明する。図1は、端末装置10の構成を示すブロック図である。本実施形態の端末装置10は、後述するように、筐体(特に表示部3)の外縁部に対するユーザの入力を受け付ける機能を有している。なお、端末装置10は、例えば、時計のようなウェアラブル端末に限らず、スマートフォンなどのモバイル端末や、テーブルや壁に設置された端末などであっても良い。また、本発明を具現化する形態は、上述したウェアラブル端末、モバイル端末、および携帯端末などのような情報端末だけでなく、オーディオ機器の音量調節用のつまみのような制御装置であっても良い。また、端末装置10のサイズは、時計のような小型(画面サイズ:2インチ程度)に限定されず、片手の2本の指で筐体(または表示部3)の両端を同時にタッチできるサイズであれば良い(画面サイズ:5インチ程度)。図1に示すように、端末装置10は、検出部1、制御部2、表示部3および記憶部4を備える。
図1に基づき、本発明の実施形態に係る端末装置(入力装置,ウェアラブル端末,携帯端末)10の構成について説明する。図1は、端末装置10の構成を示すブロック図である。本実施形態の端末装置10は、後述するように、筐体(特に表示部3)の外縁部に対するユーザの入力を受け付ける機能を有している。なお、端末装置10は、例えば、時計のようなウェアラブル端末に限らず、スマートフォンなどのモバイル端末や、テーブルや壁に設置された端末などであっても良い。また、本発明を具現化する形態は、上述したウェアラブル端末、モバイル端末、および携帯端末などのような情報端末だけでなく、オーディオ機器の音量調節用のつまみのような制御装置であっても良い。また、端末装置10のサイズは、時計のような小型(画面サイズ:2インチ程度)に限定されず、片手の2本の指で筐体(または表示部3)の両端を同時にタッチできるサイズであれば良い(画面サイズ:5インチ程度)。図1に示すように、端末装置10は、検出部1、制御部2、表示部3および記憶部4を備える。
(検出部1)
検出部1は、本実施形態では、表示部3に重畳されたタッチパネル(検出部)11と、端末装置10の筐体に設けられた表示部3の外縁部における側面に設けられた側面タッチセンサ(検出部)12と、を備えている。
検出部1は、本実施形態では、表示部3に重畳されたタッチパネル(検出部)11と、端末装置10の筐体に設けられた表示部3の外縁部における側面に設けられた側面タッチセンサ(検出部)12と、を備えている。
タッチパネル11は、筐体に設けられた表示部3が有する表示画面内への、対象物の接触または接近を検出するとともに、筐体(または表示部3)の外縁部への、第1指または第2指の接触または接近を検出するようになっている(検出ステップ)。これにより、筐体に設けられた表示部3に重畳され、かつ、表示部3が有する表示画面内への、対象物の接触または接近を検出するタッチパネル11によって、筐体(または表示部3)の外縁部への、第1指または第2指の接触または接近を検出することができる。それゆえ、筐体(または表示部3)の外縁部への接触または接近を検出するために、新たな検出部材を備える必要がないので、部品点数を抑えることができる。
一方、側面タッチセンサ12は、筐体の側面への、第1指または第2指の接触または接近を検出するようになっている。上記構成によれば、端末装置10の筐体の側面に配された側面タッチセンサ12によって、筐体の外縁部への、第1指または第2指の接触または接近を検知することができる。
なお、検出部1(タッチデバイス)の形態は、上記タッチパネル11および上記側面タッチセンサ12のような形態に限定されず、表示部3に含まれるディスプレイの端(角)、または、端末装置10の筺体の側面でのタッチが検知できれば、どのような形態であっても良い。
(制御部2)
制御部2は、端末装置10が備える各部を統括的に制御するものである〔例えば、CPU(Central Processing Unit)で構成される〕。図1に示すように、制御部2は、検出部コントローラ21、設定部(第1設定部,第2設定部)22、表示制御部23、処理特定部24および処理実行部25を備えている。
制御部2は、端末装置10が備える各部を統括的に制御するものである〔例えば、CPU(Central Processing Unit)で構成される〕。図1に示すように、制御部2は、検出部コントローラ21、設定部(第1設定部,第2設定部)22、表示制御部23、処理特定部24および処理実行部25を備えている。
(検出部コントローラ21)
検出部コントローラ21は、接触位置特定部221を備えており、タッチパネル11による表示部3の表示画面内への対象物の接触または接近の検出結果に基づいて、表示画面内における対象物の接触位置(座標)を特定するようになっている。また、検出部コントローラ21の接触位置特定部221は、タッチパネル11による表示部3の外縁部への第1指または第2指の接触または接近の検出結果に基づいて、表示部3の外縁部における対象物の接触位置(座標)を特定するようになっている。
検出部コントローラ21は、接触位置特定部221を備えており、タッチパネル11による表示部3の表示画面内への対象物の接触または接近の検出結果に基づいて、表示画面内における対象物の接触位置(座標)を特定するようになっている。また、検出部コントローラ21の接触位置特定部221は、タッチパネル11による表示部3の外縁部への第1指または第2指の接触または接近の検出結果に基づいて、表示部3の外縁部における対象物の接触位置(座標)を特定するようになっている。
また、検出部コントローラ21は、側面タッチセンサ12による対象物の接触または接近の検出結果に基づいて、側面タッチセンサ12における対象物の接触位置を特定するようになっている。なお、接触位置特定部221は、特定した表示画面内における対象物の接触位置に係る情報、または、側面タッチセンサ12における対象物の接触位置に係る情報を、設定部22および/または処理特定部24に渡すようになっている。
(設定部22)
設定部22は、検出部1が検出した第1指の接触位置またはその近傍に、上記第1指による入力を受け付ける第1入力領域を設定するようになっている。また、設定部22は、検出部1が検出した上記第1指の接触位置に対向する位置を基準として、ユーザの第2指による入力を受け付ける第2入力領域を設定するようになっている(第2設定ステップ)。上記構成によれば、表示部3の外縁部に接触したユーザの第1指の接触位置の向かい側に、第2指による第2入力領域が設定される。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。また、上記構成によれば、第2指による入力に加え、第1指による入力を受け付けることが可能となる。それゆえ、複数の入力を受け付けることが可能となる。なお、設定部22は、設定した第1入力領域および第2入力領域に係る情報を検出部コントローラ21、表示制御部23および/または処理特定部24に渡すようになっている。
設定部22は、検出部1が検出した第1指の接触位置またはその近傍に、上記第1指による入力を受け付ける第1入力領域を設定するようになっている。また、設定部22は、検出部1が検出した上記第1指の接触位置に対向する位置を基準として、ユーザの第2指による入力を受け付ける第2入力領域を設定するようになっている(第2設定ステップ)。上記構成によれば、表示部3の外縁部に接触したユーザの第1指の接触位置の向かい側に、第2指による第2入力領域が設定される。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。また、上記構成によれば、第2指による入力に加え、第1指による入力を受け付けることが可能となる。それゆえ、複数の入力を受け付けることが可能となる。なお、設定部22は、設定した第1入力領域および第2入力領域に係る情報を検出部コントローラ21、表示制御部23および/または処理特定部24に渡すようになっている。
また、設定部22は、検出部1が上記第1指の接触位置を検知した後で上記第2指の接触位置を検出した場合に、上記第1入力領域を設定し、検出部1が上記第2指の接触位置を検知した後で上記第1指の接触位置を検出した場合に、上記第2入力領域を設定し、検出部1によって上記第1指の接触位置の検出と上記第2指の接触位置の検出とが交互に行われることにより、設定部22による上記第1入力領域の設定、および上記第2入力領域の設定が交互に行われるようになっていても良い。上記構成によれば、第1指による入力と第2指による入力とを交互に行うことにより、第1入力領域の設定、および第2入力領域の設定が交互に行われる。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
(表示制御部23)
表示制御部23は、表示部3に所定の画像等〔例えば、後述するメインメニュー、サブメニューおよび各メニュー(メニュー項目)に含まれるアイコンなど〕を表示させる制御を行うものである。特に、本実施形態の表示制御部23は、表示部3の上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの第1指による入力を促すための第1入力用画像として、メインメニューを表示させる制御を行うようになっている。上記構成によれば、第1入力領域またはその近傍に、第1入力用画像が表示される。これにより、ユーザは、第1入力用画像(メインメニュー)を視認することができ、当該画像を視認しつつ、第1入力領域に対する入力を行うことが可能となる。
表示制御部23は、表示部3に所定の画像等〔例えば、後述するメインメニュー、サブメニューおよび各メニュー(メニュー項目)に含まれるアイコンなど〕を表示させる制御を行うものである。特に、本実施形態の表示制御部23は、表示部3の上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの第1指による入力を促すための第1入力用画像として、メインメニューを表示させる制御を行うようになっている。上記構成によれば、第1入力領域またはその近傍に、第1入力用画像が表示される。これにより、ユーザは、第1入力用画像(メインメニュー)を視認することができ、当該画像を視認しつつ、第1入力領域に対する入力を行うことが可能となる。
また、表示制御部23は、表示部3の上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの第2指による入力を促すための第2入力用画像として、サブメニューを表示させる制御を行うようになっている。上記構成によれば、メインメニューを参照した第1入力領域への第1指の入力を契機として、設定される第2入力領域またはその近傍にサブメニューが表示される。これにより、ユーザは、当該入力を契機として、サブメニューを視認することができ、当該サブメニューを視認しつつ、第2入力領域に対する入力を行うことが可能となる。また、以上により表示画面における各メニューの視認性、および端末装置10に対する操作性を向上させることができる。
また、上記入力まで、第2入力領域またはその近傍にサブメニューが表示されないため、ユーザは、当該入力前に第2入力領域の存在を認識することができない。すなわち、ユーザは、当該入力前に第2入力領域に対する入力を行うことができない。これにより、第1入力領域への入力時における、第2入力領域への入力の受け付けを防ぐことができる。それゆえ、複数箇所への入力受付によって誤作動が生じてしまうことを防ぐことができる。
また、表示制御部23は、検出部1が上記第1指の接触位置を検知した後で上記第2指の接触位置を検出した場合に、上記第1入力用画像を表示し、検出部1が上記第2指の接触位置を検知した後で上記第1指の接触位置を検出した場合に、上記第2入力用画像を表示し、検出部1によって上記第1指の接触位置の検出と上記第2指の接触位置の検出とが交互に行われた場合に、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示しても良い。上記構成によれば、第1指による入力と第2指による入力とを交互に行うことにより、第1入力用画像および上記第2入力用画像のそれぞれが交互に表示される。これにより、ユーザは、当該入力を契機として、第1入力用画像および上記第2入力用画像のそれぞれを交互に視認することができ、当該画像を視認しつつ、第1入力領域および第2入力領域に対する入力を交互に行うことが可能となる。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
また、表示制御部23は、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示する順序に応じて、階層的により下位の階層のサブメニューを表示しても良い。上記構成によれば、第1入力用画像および上記第2入力用画像のそれぞれを交互に表示する順序に応じてより下位の階層のサブメニューのメニュー項目を選択することが可能になる。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
(処理特定部24)
処理特定部24は、検出部コントローラ21の接触位置特定部221が特定した表示画面内における対象物の接触位置に係る情報、または、側面タッチセンサ12における対象物の接触位置に係る情報、ならびに、設定部22が設定した第1入力領域に対する入力および第2入力領域に対する入力に係る情報に基づいて、ユーザの入力操作に対応する実行すべき処理内容を特定し、特定した処理内容に係る情報を処理実行部25に渡すようになっている。
処理特定部24は、検出部コントローラ21の接触位置特定部221が特定した表示画面内における対象物の接触位置に係る情報、または、側面タッチセンサ12における対象物の接触位置に係る情報、ならびに、設定部22が設定した第1入力領域に対する入力および第2入力領域に対する入力に係る情報に基づいて、ユーザの入力操作に対応する実行すべき処理内容を特定し、特定した処理内容に係る情報を処理実行部25に渡すようになっている。
(処理実行部25)
処理実行部25は、処理特定部24から受け取った処理内容に係る情報に基づき、その処理内容に応じた処理を制御部2の対応するブロック(特に表示制御部23)に実行させる処理を行うようになっている。
処理実行部25は、処理特定部24から受け取った処理内容に係る情報に基づき、その処理内容に応じた処理を制御部2の対応するブロック(特に表示制御部23)に実行させる処理を行うようになっている。
(表示部3)
本実施形態の表示部3は、所定の表示画面として、例えば、液晶パネルを備え、画像等を表示させるものである。但し、表示部3に用いられる表示パネルは、液晶パネルに限定されるものではなく、有機EL(エレクトロルミネッセンス)パネル、無機ELパネル、またはプラズマパネル等であってもよい。
本実施形態の表示部3は、所定の表示画面として、例えば、液晶パネルを備え、画像等を表示させるものである。但し、表示部3に用いられる表示パネルは、液晶パネルに限定されるものではなく、有機EL(エレクトロルミネッセンス)パネル、無機ELパネル、またはプラズマパネル等であってもよい。
また、本実施形態の表示部3では、特に上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの第1指による入力を促すための第1入力用画像として、メインメニューが表示されるようになっている。また、表示部3では、上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの第2指による入力を促すための第2入力用画像として、サブメニューが表示されるようになっている。
なお、本実施形態では、端末装置10が表示部3を備える構成について説明したが、本発明を具現化する形態はこれに限定されず、必ずしも表示部を備えていなくても良い。例えば、表示部3がない場合でも、筐体の外縁部のタッチ操作のみを受け付ける入力装置または制御装置などであっても良い。
(記憶部4)
記憶部4には、上述した制御部2の各部の動作に必要な各種情報が予め記録され、さらに、端末装置10の動作に伴って上記各部によって生成される各種情報が事後的に記録される。例えば、記憶部4に予め記録される情報の例としては、端末装置10を動作させるための基本ソフトであるOS(Operating System)や、各種アプリケーション(ソフトウェア)、および表示部3に表示されるGUI(Graphical User Interface)に係る情報などを挙示することができる。
記憶部4には、上述した制御部2の各部の動作に必要な各種情報が予め記録され、さらに、端末装置10の動作に伴って上記各部によって生成される各種情報が事後的に記録される。例えば、記憶部4に予め記録される情報の例としては、端末装置10を動作させるための基本ソフトであるOS(Operating System)や、各種アプリケーション(ソフトウェア)、および表示部3に表示されるGUI(Graphical User Interface)に係る情報などを挙示することができる。
また、端末装置10の動作に伴って上記各部によって生成される各種情報の例としては、検出部コントローラ21の接触位置特定部221によって特定される第1指または第2指の接触位置に係る情報や、設定部22によって設定される第1入力領域または第2入力領域に係る情報や、表示制御部23によって生成される第1入力用画像(メインメニュー画像)または第2入力画像(サブメニュー画像)に係る情報などを挙示することができる。
〔端末装置10の操作方法のバリエーションについて〕
次に、図2に基づき、端末装置10の操作方法のバリエーションについて説明する。ここでは、端末装置10の操作方法の4つのバリエーションについて説明するが、本発明を具現化した形態は、このような4つのバリエーションに限定されず、ディスプレイの端(角)、または、筺体の側面でのタッチが検知できる形態であれば、どのような形態であっても良い。
次に、図2に基づき、端末装置10の操作方法のバリエーションについて説明する。ここでは、端末装置10の操作方法の4つのバリエーションについて説明するが、本発明を具現化した形態は、このような4つのバリエーションに限定されず、ディスプレイの端(角)、または、筺体の側面でのタッチが検知できる形態であれば、どのような形態であっても良い。
図2の(a)に示す形態は、第1入力領域および第2入力領域のいずれもがタッチパネル上の表示画面の周縁部に存在する形態を示している。この形態では、第1入力領域および第2入力領域のそれぞれの存在位置は、第1入力用画像(メインメニュー)および第2入力用画像(サブメニュー)の表示位置と一致している。この形態では、タッチパネル上の領域A1に表示された最初のメニュー表示(メインメニュー)に対して接触位置P1に親指(第1指)を接触させると、タッチパネル上の領域A2に第2入力用画像(サブメニュー)が表示される。また、この形態では、サブメニューに対する入力は、タッチパネル上の領域A2に表示されたサブメニュー表示に対して接触位置P2に人差し指(第2指)を接触させることで実行される。
次に、図2の(b)および(c)に示す形態は、第1入力領域および第2入力領域のいずれか一方がタッチパネル上の表示画面の周縁部に存在し、他方が筐体の周縁部の側面に配された側面タッチセンサ12上に存在する形態を示している。なお、これらの図に示すように、側面タッチセンサ12は、端末装置10の筐体の周縁部の側面の全面に配されていることが好ましい。
図2の(b)に示す形態では、第1入力領域が側面タッチセンサ12上に存在し、第2入力領域が、タッチパネル上の表示画面の周縁部に存在する形態を示している。この形態では、タッチパネル上の領域A1に表示された最初のメニュー表示の近傍における側面タッチセンサ12上の接触位置P1に親指を接触させると、タッチパネル上の領域A2に第2入力用画像(サブメニュー)が表示される。また、この形態では、サブメニューに対する入力は、タッチパネル上の領域A2に表示されたサブメニュー表示に対して接触位置P2に人差し指を接触させることで実行される。
一方、図2の(c)に示す形態では、第1入力領域がタッチパネル上の表示画面の周縁部に存在し、第2入力領域が側面タッチセンサ12上に存在する形態を示している。この形態では、タッチパネル上の領域A1に表示された最初のメニュー表示に対して接触位置P1に親指を接触させると、タッチパネル上の領域A2に第2入力用画像(サブメニュー)が表示される。また、この形態では、サブメニューに対する入力は、タッチパネル上の領域A2に表示されたサブメニュー表示の近傍における側面タッチセンサ12上の接触位置P2に人差し指を接触させることで実行される。
次に、図2の(d)に示す形態は、第1入力領域および第2入力領域のいずれもが筐体の周縁部の側面に配された側面タッチセンサ12上に存在する形態を示している。この形態では、タッチパネル上の領域A1に表示された最初のメニュー表示の近傍における側面タッチセンサ12上の接触位置P1に親指を接触させると、タッチパネル上の領域A2に第2入力用画像(サブメニュー)が表示される。また、この形態では、サブメニューに対する入力は、タッチパネル上の領域A2に表示されたサブメニュー表示の近傍における側面タッチセンサ12上の接触位置P2に人差し指を接触させることで実行される。
〔端末装置10の構造のバリエーションについて〕
次に、図3に基づき、端末装置10の構造のバリエーションについて説明する。ここでは、時計などのウェアラブル情報端末の構成例を示す。図3の(a)は、表示部3の画面端のエッジでタッチ操作可能な構成例を示している。この形態では、狭額縁のタッチパネルシート(タッチパネル11)を用い、端末の保護ガラスが筺体より前面に突起した形状にすることで、画面端エッジ(保護ガラスの角)へのタッチにもタッチパネル11が反応するようになっている。また、この形態では、保護ガラスにレンズ効果を持たせることにより、端末の端まで表示映像を広げることができるようになっている。このような構成で、画面端に操作用の画像を表示した場合、その操作画面を直接タッチして操作することが可能となる。また、タッチパネル11は、センサーが筐体の端ぎりぎりまで配置されており、端末の端(エッジ/角)でもタッチ可能となっている。
次に、図3に基づき、端末装置10の構造のバリエーションについて説明する。ここでは、時計などのウェアラブル情報端末の構成例を示す。図3の(a)は、表示部3の画面端のエッジでタッチ操作可能な構成例を示している。この形態では、狭額縁のタッチパネルシート(タッチパネル11)を用い、端末の保護ガラスが筺体より前面に突起した形状にすることで、画面端エッジ(保護ガラスの角)へのタッチにもタッチパネル11が反応するようになっている。また、この形態では、保護ガラスにレンズ効果を持たせることにより、端末の端まで表示映像を広げることができるようになっている。このような構成で、画面端に操作用の画像を表示した場合、その操作画面を直接タッチして操作することが可能となる。また、タッチパネル11は、センサーが筐体の端ぎりぎりまで配置されており、端末の端(エッジ/角)でもタッチ可能となっている。
次に、図3の(b)は、端末装置10の筺体の側面でタッチ操作可能な構成例を示している。この形態では、筺体の側面にタッチパネル11とは別の側面タッチセンサ12を付設したもので、側面タッチセンサ12は画面縦方向に1次元のものとし、側面のどの位置にタッチされたか判断することができるようになっている。なお、図3の(a)および(b)のそれぞれでは、筐体の断面形状が円形状および矩形形状の構成例を示したが、円形状の形態で筺体側面に側面タッチセンサを配した構成としても良いし、矩形形状の形態で、画面端エッジでタッチ可能な構成としても良い。また、図3の(b)に示す形態では、矩形の互いに対向する2辺のみに側面タッチセンサを付設した構成としているが、4辺すべてに側面タッチセンサを付設しても良い。
〔端末装置10の基本動作について〕
次に、図4に基づき、端末装置10の基本動作について説明する。図4の(a)は、端末装置10の筐体断面の形状が円形状である形態を示し、図4の(b)は、端末装置10の筐体断面の形状が矩形形状である形態を示す。端末装置10の基本動作では、図4の(a)および(b)に示すように、領域A1の接触位置P1において親指(第1指)による最初のタッチが行われると、その接触位置に対向する位置を基準として、領域A2に関連するサブメニュー(第2入力用画像)が表示される。より具体的には、例えば、音楽再生中の画面を表示した場合、最初のタッチ位置付近には、メインメニュー(第1入力用画像)として、「曲選択、再生メニュー、音量、他のアプリケーション選択」などを表示しておき、最初のタッチでいずれかを選択した場合、反対側のサブメニュー領域には、最初に選択したものに関連するサブメニューを表示するようにする。また、メインメニューにて「再生メニュー」を選択した場合は、サブメニューに「曲戻し、一時停止、曲送り」などのアイコン(ボタン;メニュー項目)を表示し、選択できるようにする。さらに、メインメニューにて「音量」を最初に選択した場合は、サブメニューに音量の目盛りを表示し、目盛りをなぞって調整できるよう(スライド操作可能)にする。
次に、図4に基づき、端末装置10の基本動作について説明する。図4の(a)は、端末装置10の筐体断面の形状が円形状である形態を示し、図4の(b)は、端末装置10の筐体断面の形状が矩形形状である形態を示す。端末装置10の基本動作では、図4の(a)および(b)に示すように、領域A1の接触位置P1において親指(第1指)による最初のタッチが行われると、その接触位置に対向する位置を基準として、領域A2に関連するサブメニュー(第2入力用画像)が表示される。より具体的には、例えば、音楽再生中の画面を表示した場合、最初のタッチ位置付近には、メインメニュー(第1入力用画像)として、「曲選択、再生メニュー、音量、他のアプリケーション選択」などを表示しておき、最初のタッチでいずれかを選択した場合、反対側のサブメニュー領域には、最初に選択したものに関連するサブメニューを表示するようにする。また、メインメニューにて「再生メニュー」を選択した場合は、サブメニューに「曲戻し、一時停止、曲送り」などのアイコン(ボタン;メニュー項目)を表示し、選択できるようにする。さらに、メインメニューにて「音量」を最初に選択した場合は、サブメニューに音量の目盛りを表示し、目盛りをなぞって調整できるよう(スライド操作可能)にする。
なお、メインメニューは、親指(第1指)が表示部3の外縁部に接触したことを契機として、当該接触位置の近傍に表示されてもよいし、親指が接触する前から、親指が接触すると予想される部分の近傍に表示されていてもよい。より具体的には、例えば、以下の(1)および(2)に示す形態が考えられる。
(1)アプリケーションを起動した直後は、メインメニューが最初(親指が接触する前)から表示部3の画面端に表示され、画面中央(メニュー以外の領域)をタッチすると画面端のメインメニューの表示は消える。以降は、表示部3の外縁部に接触したことを契機として、当該接触位置の近傍に表示される。
(2)アプリケーションを起動した直後は、メインメニューは表示されていない。表示部3の外縁部に接触したことを契機として、当該接触位置の近傍にメインメニューが表示される。
(1)アプリケーションを起動した直後は、メインメニューが最初(親指が接触する前)から表示部3の画面端に表示され、画面中央(メニュー以外の領域)をタッチすると画面端のメインメニューの表示は消える。以降は、表示部3の外縁部に接触したことを契機として、当該接触位置の近傍に表示される。
(2)アプリケーションを起動した直後は、メインメニューは表示されていない。表示部3の外縁部に接触したことを契機として、当該接触位置の近傍にメインメニューが表示される。
次に、図4の(c)および(d)には、最初のタッチ位置(接触位置P1)から画面中央を通る対辺の位置(領域A2の存在位置)付近にサブメニューを表示した形態を示している。なお、サブメニューの表示位置は、このように厳密に対辺の位置に限るものではない。
図4に示す形態は、時計などの小型の入力装置でのタッチ操作性と画面視認性を向上させるための、タッチ操作の方法とユーザーインターフェイスに関するものである。
小型の入力装置は、画面の表示領域も限られているため、操作用のメニューなどは画面の端に表示し、その画面に対して、画面端エッジや筺体の側面にタッチして操作することで操作性および視認性が向上する。例えば、画面中央に操作ボタンを複数表示すると、1つのボタンを小さく表示する必要があり、視認性も悪く、誤タッチの原因ともなる。また操作する指が妨げとなり画面も見辛くなる。
また、小型の入力装置のエッジ/側面での操作をする際、時計などが腕に巻かれた状態だと、1本の指でエッジ/側面をタッチする(押す)と筐体がずれて押し難い。そこで、1本の指で支えて、他のもう1本の指で操作する方が操作し易くなる。しかしながら、このように2本指で操作された場合、入力装置は2点のタッチが入ったと認識されて、どちらが操作としてタッチされた指か判断が困難であり、誤動作を生じる可能性がある。従って、2本指での誤操作を抑えつつ、操作性および視認性を向上させるための操作方法として、上述したように、最初のメインメニューを選択するタッチ(端末の支え)に関連するサブメニューを、最初のタッチとは反対の辺付近に表示して、他のもう1本の指で詳細な操作をし易くする。
〔実施形態1;端末装置10の操作例その1〕
次に、図5に基づき、端末装置10の実施形態1に係る操作例について説明する。図5の(a)および(b)は、端末装置10の画面端エッジ、または筺体側面での基本的なタッチ操作の例を示す。これらの基本タッチ操作の組み合わせにて、画面端に表示されたメニュー(メニュー項目)の選択/操作を行う。
次に、図5に基づき、端末装置10の実施形態1に係る操作例について説明する。図5の(a)および(b)は、端末装置10の画面端エッジ、または筺体側面での基本的なタッチ操作の例を示す。これらの基本タッチ操作の組み合わせにて、画面端に表示されたメニュー(メニュー項目)の選択/操作を行う。
図5の(a)および(b)は、表示されたメニューからいずれかの項目を選択/実行する際の操作例を示す。図5の(a)に示す領域A1に表示されたメインメニューにおけるメニュー選択の例では、接触位置P1において親指により「シングルタップ(タッチ→離す)」または「タッチ長押し」などでメニュー選択を行うと、図5の(b)に示すように、接触位置P1に対向する位置を基準とする領域A2に、関連するサブメニューが表示される。
図5の(b)に示す例では、領域A1に表示されたメインメニューで「設定」のメニューが選択され、この「設定」のメニューに関連するサブメニューが領域A2に表示されている様子を示している。
サブメニューでは、「シングルタップ(タッチ→離す)」または「タッチした指をスライド後に離した位置を選択」などでメニュー選択を行う。なお、メニューの項目が多数並ぶ(リスト等)場合は、メニューをスクロールする必要があり、この操作とシングルタップやタッチを離して選択する操作とを区別するために、「ダブルタップ」、「タッチして選択したものを画面中央方向にスワイプイン」、または、「親指のタッチを離すことで、その時に人差し指でタッチされていた項目を選択」などの操作を行っても良い。
次に、図5の(c)および(d)は、それぞれ、表示されたサブメニューの操作メニューについて、エッジをスライドする(なぞる)操作(目盛りのカーソルをタッチ後スライドして調整)を行う形態を示す。
図5の(c)に示す例では、サブメニューにおいて目盛りをなぞって移動させる操作(スライド操作)を行うことによって音量調節を行う形態を示している。この形態では、領域A2に対する最初のタッチ位置からスライドした方向および移動量に応じた移動が行われる。なお、同図に示す例では、音量調節に係る形態を示したが、このような形態に限定されず、サブメニューにおいて目盛りをなぞって移動させる操作(スライド操作)を行うことによって画像の拡大/縮小(拡大率の調節)などを行っても良い。
次に、図5の(d)に示す例では、領域A2における最初のタッチ位置から、動かした方向に順次送りを行う形態(例えば、画面スクロール、ページめくり/戻し、曲送り/戻し、カーソル移動、画像の拡大/縮小など)を示している。例えば、画面スクロール(スクロール操作)は、サブメニューに対する最初のタッチ位置より、時計回りの方向にスライドさせると紙面に対して下方向にスクロールするようにしても良く、またその指の移動量に応じて、スクロールする速度を変えても良い。
(効果について)
上記形態のように、時計などの小型の入力装置において、最初のタッチ選択位置とは、反対側の辺に関連するサブメニューを表示することにより、筐体を1本の指で支えながら、他のもう1本の指で詳細なタッチ操作をすることができ操作性を向上させることができる。また、表示内容に限りのある小型の入力装置であっても、画面の端に操作メニューを表示することにより、画面の視認性を向上させることができる。
上記形態のように、時計などの小型の入力装置において、最初のタッチ選択位置とは、反対側の辺に関連するサブメニューを表示することにより、筐体を1本の指で支えながら、他のもう1本の指で詳細なタッチ操作をすることができ操作性を向上させることができる。また、表示内容に限りのある小型の入力装置であっても、画面の端に操作メニューを表示することにより、画面の視認性を向上させることができる。
〔実施形態2;端末装置10の操作例その2〕
次に、図6~図8に基づき、端末装置10の実施形態2に係る操作例について説明する。図6は、ミュージックプレーヤーのアプリケーションの操作例を示す。図6の(a)は、メインメニュー表示時の状態を示す。同図に示す状態は、最初にタッチした辺にメインメニューが表示されたときの状態を示している。同図に示す形態では、メインメニューとして、例えば、「再生メニュー」、「曲選択」および「音量」に係るアイコンが表示部3の紙面に対して左下側の近傍に表示されており、それぞれタッチすると、タッチ項目に関連するサブメニューが反対側の辺に表示されるようになっている。
次に、図6~図8に基づき、端末装置10の実施形態2に係る操作例について説明する。図6は、ミュージックプレーヤーのアプリケーションの操作例を示す。図6の(a)は、メインメニュー表示時の状態を示す。同図に示す状態は、最初にタッチした辺にメインメニューが表示されたときの状態を示している。同図に示す形態では、メインメニューとして、例えば、「再生メニュー」、「曲選択」および「音量」に係るアイコンが表示部3の紙面に対して左下側の近傍に表示されており、それぞれタッチすると、タッチ項目に関連するサブメニューが反対側の辺に表示されるようになっている。
次に、図6の(b)は、「再生メニュー」の表示時または操作時の状態を示す。「再生メニュー」の場合は、一時停止、曲送り/戻しに係るアイコン(ボタン:メニュー項目)が表示される。曲送り/戻しの操作は、最初にタッチした位置から矢印の方向に指をスライドさせると、順次(連続的に)曲送り/戻しを行えるようにする。指をスライドさせる移動量に応じて、曲送り/戻しの速度を上げても良い。
次に、図6の(c)は、曲リストの表示時または操作時の状態を示す。「曲選択」の場合は、曲のリスト(メニュー項目)が表示される。タッチにより曲を選択する。タッチの後、指をスライドさせて離した位置の曲を選択するようにしても良い。指をスライドさせてリスト外に移動した場合は、次のページに移行しても良い。
次に、図6の(d)は、音量調整バーの表示時または操作時の状態を示す。メインメニューにて「音量」のアイコンを選択した場合は、領域A2に音量調整用の目盛りが表示される。現在の音量位置のカーソルをスライド操作して調整することができる。
次に、図7は、ミュージックプレーヤーのアプリケーションの別の操作例を示す。図7の(a)は、メインメニュー表示時の状態を示す。また、図7の(b)は、「再生メニュー」の表示時または操作時の状態を示す。また、図7の(c)は、曲リストの表示時または操作時の状態を示す。また、図7の(d)は、音量調整バーの表示時または操作時の状態を示す。
図6に示した形態では、画面左下側にメインメニューが表示され、それを親指で操作する例を示したが、図7に示す形態のように、画面右上側にメインメニューを表示して、人差し指(第1指)でメインメニューを操作し、親指(第2指)でサブメニューを操作するようにしても良い。この場合は、人差し指が支え(支点)となり、親指でエッジをなぞるような操作となる。なお、メインメニューは、最初に表示されていない場合は、最初にエッジをタッチした位置付近(辺)に表示するようにすれば良く、画面の上部や下部に予めメインメニューを表示するようにしても良い。
次に、図8は、ミュージックプレーヤーのアプリケーションのさらに別の操作例を示す。同図に示す形態は、曲選択の操作例であり、「ARTIST」、「ALBUM」、または「Song Name」等、階層が多段となる場合の表示方法を示す。図8の(a)は、アーティストリストの表示時または操作時の状態を示す。また、図8の(b)は、アルバムリストの表示時または操作時の状態を示す。また、図8の(c)は、曲名リストの表示時または操作時の状態を示す。
メインメニューから曲選択のアイコンを例えば、領域A1にて親指(第1指)でタッチ(接触位置P1)すると、反対側の画面端(領域A2)にアーティストのリストが表示され、他の指(第2指)で選択可能となる(接触位置P2)。領域A2にてアーティストのリストの中からいずれかが選択(接触位置P2)されると、選択されたアーティストのアルバムリストが、更に反対側の画面端(領域A3)に表示され、親指と他の指とで交互に選択できるようになる(接触位置P3)。領域A3にてアルバムリストの中からいずれかが選択(接触位置P3)されると、選択されたアルバムの曲名が、更に反対側の画面端(領域A4)に表示され、他の指と親指とで交互に選択できるようになる(接触位置P4)。上記のように他の指と親指とで交互に選択することにより、階層構造になっているメニューまたはサブメニューを順により下位の階層に向けて各メニュー項目を選択することができる。
なお、各リストの下段の「↓」の領域をタッチすることにより、次のページに送るか、または順次リストが下方向に送られるようにしても良い。
また、元に戻る際は、「ARTIST」、「ALBUM」または「Song Name」と表示された領域をタッチすることにより、それぞれのリスト表示に戻るようにしても良い。
(効果について)
上記形態のように、画面端に操作メニューを表示し、エッジで操作させることにより、画面の表示内容(再生中の曲情報、曲リストなど)が、キー表示や指によって隠れることがなく、視認性を確保することができる。また、画面エッジでキー選択させることにより、画面内に小さい入力キーが並べられた場合に比べ、誤入力(ボタンの誤操作)も低減でき、操作性を向上させることができる。
〔実施形態3;端末装置10の操作例その3〕
次に、図9~図13に基づき、端末装置10の実施形態3に係る操作例について説明する。図9は、メールなど文字入力(日本語文字入力)を行うアプリケーションの操作例を示す。図9の(a)は、初期表示時(母音キー表示)の状態を示す。また、図9の(b)は、文字入力の表示時または操作時の状態を示す。また、図9の(c)は、宛先リストの表示時または操作時の状態を示す。
上記形態のように、画面端に操作メニューを表示し、エッジで操作させることにより、画面の表示内容(再生中の曲情報、曲リストなど)が、キー表示や指によって隠れることがなく、視認性を確保することができる。また、画面エッジでキー選択させることにより、画面内に小さい入力キーが並べられた場合に比べ、誤入力(ボタンの誤操作)も低減でき、操作性を向上させることができる。
〔実施形態3;端末装置10の操作例その3〕
次に、図9~図13に基づき、端末装置10の実施形態3に係る操作例について説明する。図9は、メールなど文字入力(日本語文字入力)を行うアプリケーションの操作例を示す。図9の(a)は、初期表示時(母音キー表示)の状態を示す。また、図9の(b)は、文字入力の表示時または操作時の状態を示す。また、図9の(c)は、宛先リストの表示時または操作時の状態を示す。
図9の(a)および(b)に示す形態は、文字入力の操作例であり、最初にタッチした位置(辺;領域A1の接触位置P1)に、「母音」を表示し、タッチにより選択された文字、例えば「な」が選択されると、反対側の辺(領域A2)に「な」行の文字候補(子音候補:メニュー項目)を表示する。「母音」の表示位置は、左辺に限らず、最初にタップされた辺に表示する。また、「母音」の文字の選択は、タップ(押して→離す)でも良いし、指タッチさせたままスライドし、指が触れている文字の子音候補を都度表示させても良いし、スライドさせて指が離れた位置の子音候補を表示しても良い。また、子音候補の選択も同様に、タップでの選択でも良いし、指をスライドさせて指が離れた位置の文字を選択しても良い。
図9の(c)に示す形態は、宛先入力の操作例であり、宛先欄をタップすると、一方の辺(領域A1)に「母音」を表示し、タッチに選択された文字に関連するアドレスリストを反対側の辺(領域A2)に表示する。また、「母音」の表示は、宛先欄のタップ操作をトリガーとして表示されることになるが、表示位置は左辺に限らず、過去の操作履歴から、普段よく最初にタッチされる辺に表示しても良い。一度左辺に表示された後に、右辺にタップが入ったときは、表示位置を右辺に変更しても良い。なお、表示される候補の選択方法は、図9の(a)および(b)に示す形態における選択方法と同様である。
次に、図10は、メールなど文字入力(日本語入力)を行うアプリケーションの操作例にて、文字入力の流れの一例を示す。図10の(a)は、1文字目の入力時の状態を示す。また、図10の(b)は、2文字目の入力時の状態を示す。図10の(c)は、変換候補の表示時の状態を示す。
図10の(a)および(b)に示す形態は、文字入力の操作例であり、親指で母音候補をタッチにて選択(押し続けても良いし、離しても良い)し、他の指で子音候補をタッチして選択(入力)する操作例を示す。この操作では、シングルタップ(タッチ→離す)で候補選択しても良いし、指をスライドさせて離した位置の候補を選択するようにしても良い。また、ダブルタップで候補選択するようにしても良いし、画面中央方向にスワイプインして候補選択するようにしても良い。また、その他、他の指でタッチしたまま親指を離す等で候補選択しても良い。
次に、図10の(c)に示すように、入力された文字に基づき、変換候補(メニュー項目)を表示しても良い。変換候補を表示しても、次の文字入力のために親指で母音を選択した場合は、変換候補を消し、子音候補を表示するようにしても良い。
また、変換候補のように、候補数が多い場合には、リストをスクロール/ページ送りさせる可能性があり、「シングルタップ」や「指を離す」操作と同一の操作となる。従って、「ダブルタップ」、「画面内へのスワイプイン」、または「親指のタッチを離す」にて「入力」させることが好ましい。または、「シングルタップ」あるいは「指を離す」で仮選択の状態にし、再度右端でスクロール操作/次頁がタッチされた場合は、仮選択を解除し、後の操作を優先させても良い。また、仮選択の状態で、親指側での次の文字入力を行うための操作が行われた場合は、仮選択されたものを「入力」としても良い。
次に、図11は、メールなど英語での文字入力(英語文字入力)を行うアプリケーションの操作例を示す。図11の(a)は、1文字目の入力時の状態を示す。また、図11の(b)は、2文字目の入力時の状態を示す。図11の(c)は、変換候補の表示時の状態を示す。
図11の(a)および(b)に示す形態は、文字入力の操作例であり、親指側(領域A1)にアルファベット3文字~4文字の候補を表示し、親指(第1指)にてタッチ(接触位置P1)された候補に対応する1文字毎の候補を他の指側(第2指側)に表示する(領域A2)。他の指側での選択(入力)方法は図10に示す形態における選択方法と同様であり、シングルタップ(タッチ→離す)で候補選択しても良いし、指をスライドさせて離した位置の候補を選択するようにしても良い。また、ダブルタップで候補選択するようにしても良いし、画面中央方向にスワイプインして候補選択するようにしても良い。また、その他、他の指でタッチしたまま親指を離す等で候補選択しても良い。
次に、図11の(c)に示すように、単語単位の入力候補(メニュー項目)を表示しても良い。表示方法や選択(入力)方法は、図10に示した形態における表示方法や選択方法と同様である。入力候補を選択せずに、続けて文字を入力する場合は、親指側で次の文字候補にタッチすることで入力候補の表示を消し、右端には親指のタッチに対応する子音の候補を表示するようにしても良い。
次に、図12は、メールなど英語での文字入力(英語文字入力)を行うアプリケーションの別の操作例を示す。図12の(a)および(b)は、表示部3の両端に候補を表示する操作例を示す。また、図12の(c)および(d)は、表示部3の両端にすべての文字キーを配置する操作例を示す。
図12の(a)および(b)に示す形態では、親指側(領域A1)、他の指側(領域A2)の両方にアルファベット3文字~4文字の候補を表示し、最初にタッチされた候補に対応する1文字毎の候補を反対側(領域A2)に表示する。なお、本実施形態では、最初に表示されるアルファベット3文字~4文字は、QWERTYキーボードの配列に合わせたものにしているが、アルファベット順に並べたものでも良い。
次に、図12の(c)および(d)に示す形態は、すべてのアルファベットを両端に並べた例を示す。このように配置することで、1回のタッチで入力が可能となる。なお、文字入力中に、単語の入力候補を反対側の端に表示しても良い。この場合、単語の入力候補を選択せずに次の文字を入力する場合は、入力候補の上段の「×」をタッチすることで入力候補の表示を消し、元のアルファベットのキーを表示しても良い。また、本実施形態では、アルファベットの配置はQWERTYキーボードに合わせたものにしているが、アルファベット順に並べたものでも良い。
次に、図13は、メールなど英語での文字入力(英語文字入力)を行うアプリケーションのさらに別の操作例を示す。ここでは、英語での文字入力で片端にすべてのアルファベットを配置し、次に入力される文字や、単語を予測して、反対側の端に候補(メニュー項目)を表示する例を示す。
図13の(a)および(b)は、片端(領域A1)にアルファベットをすべて配置し、片側(領域A1)にて選択した文字に応じて、次の入力文字を予測して候補を反対側(領域A2)に表示する例を示す。
親指側(第1指側;領域A1)で1文字目が入力されると、次に続く可能性の高い文字に絞り、反対側(領域A2)に表示し、他の指(第2指)での選択を可能とする。候補に無い場合には親指側で再度入力を行う。更に続く入力候補は、他の指側に表示しても良いし、親指側と他の指側とで交互に表示しても良い。
図13の(c)および(d)は、片側(領域A1)にて選択した文字に応じて、入力単語を予測して候補を反対側(領域A2)に表示する例を示す。
親指側(第1指側;領域A1)で1文字目が入力されると、入力される可能性が高い単語を、反対側(領域A2)に表示し、他の指(第2指)での選択を可能とする。候補に無い場合には親指側で再度入力を行う。
図13の(a)および(b)に示す形態と、図13の(c)および(d)に示す形態と、を組み合わせて、入力文字数が少ない場合は、前者の形態の文字候補を表示し、ある程度単語が予測できるようになれば、単語を表示するように切り替えても良い。
また、入力文字や単語の予測方法は、一般的に良く使われる単語の辞書データを予め用意し、それを基に候補を抽出する方法や、ユーザの過去の入力履歴から候補を提示する方法が考えられる。
(効果について)
上記形態によれば、表示部3の画面端に文字入力キーを表示し、エッジで操作させることにより、画面の表示内容(本文)が、キー表示や指によって隠れることがなく、視認性を確保することができる。また、画面エッジでキー選択させることにより、画面内に小さい入力キーを並べられた場合に比べ、誤入力(ボタンの誤操作)も低減でき、操作性を向上させることができる。
〔実施形態4;端末装置10の操作例その4〕
次に、図14に基づき、端末装置10の実施形態4に係る操作例について説明する。図14は、ウェブブラウザのアプリケーションの操作例を示す。図14の(a)は、初期表示時(メニュー表示)の状態を示す。同図に示すように、初期表示では、メインメニューとして、例えば、「ページ操作」、「拡大/縮小操作」、「ブックマーク」、および「タブ選択」などのアイコン(メニュー項目)が左端(領域A1)に表示されており、それぞれタッチすると、タッチ項目に関連するサブメニューが反対側の辺(領域A2)に表示される。
上記形態によれば、表示部3の画面端に文字入力キーを表示し、エッジで操作させることにより、画面の表示内容(本文)が、キー表示や指によって隠れることがなく、視認性を確保することができる。また、画面エッジでキー選択させることにより、画面内に小さい入力キーを並べられた場合に比べ、誤入力(ボタンの誤操作)も低減でき、操作性を向上させることができる。
〔実施形態4;端末装置10の操作例その4〕
次に、図14に基づき、端末装置10の実施形態4に係る操作例について説明する。図14は、ウェブブラウザのアプリケーションの操作例を示す。図14の(a)は、初期表示時(メニュー表示)の状態を示す。同図に示すように、初期表示では、メインメニューとして、例えば、「ページ操作」、「拡大/縮小操作」、「ブックマーク」、および「タブ選択」などのアイコン(メニュー項目)が左端(領域A1)に表示されており、それぞれタッチすると、タッチ項目に関連するサブメニューが反対側の辺(領域A2)に表示される。
図14の(b)は、ページスクロール操作の表示例または操作例を示す。「ページ操作」の場合は、ページスクロール用の操作バーが表示され、スクロールの操作は、領域A2にて最初にタッチした位置から矢印の方向に指をスライドさせると、順次(連続的に)ページを上下方向にスクロールが行えるようにしても良い。指をスライドさせる移動量に応じて、スクロール速度を上げても良い。
図14の(c)は、拡大/縮小操作の表示例または操作例を示す。「拡大/縮小」の場合は、拡大/縮小用の操作バーが表示され、目盛り上のカーソルをタッチ後スライドさせることにより、拡大率の調整が行えるようにしても良い。指をスライドさせてリスト外に移動した場合は、次のページに移行しても良い。
図14の(d)は、ブックマークの表示例または操作例を示す。「ブックマーク」の場合は、ブックマークリストが表示され、タッチ(タップ)により選択を行えるようにしても良い。タッチの後、指をスライドさせて離した位置のリストを選択するようにしても良い。指をスライドさせてリスト外に移動した場合は、次のページに移行しても良い。
(効果について)
表示部3の画面端に操作メニューを表示し、エッジで操作させることにより、画面の表示内容(ウェブページ)が、キー表示や指によって隠れることがなく、視認性を確保することができる。また、画面エッジでキー選択させることにより、画面内に小さい入力キーを並べられた場合に比べ、誤入力(ボタンの誤操作)も低減でき、操作性を向上させることができる。
表示部3の画面端に操作メニューを表示し、エッジで操作させることにより、画面の表示内容(ウェブページ)が、キー表示や指によって隠れることがなく、視認性を確保することができる。また、画面エッジでキー選択させることにより、画面内に小さい入力キーを並べられた場合に比べ、誤入力(ボタンの誤操作)も低減でき、操作性を向上させることができる。
〔各メニューの表示項目のバリエーション〕
次に、図15および図16に基づき、メインメニューおよびサブメニューの各メニューの表示項目(メニュー項目)のバリエーションについて説明する。上述した端末装置10が利用可能なアプリケーションは、上述した実施形態に記載したものに限定されず、図15および図16に示すような様々なアプリケーションに利用できる。これらの図に示す形態では、各アプリケーションの起動時に、最初にタッチされた辺にメインメニューを表示し、メインメニューの項目のいずれかが選択されたら、反対の辺にサブメニュー1を表示する。さらにサブメニュー1にていずれかの項目が選択されれば、サブメニュー1とは反対の辺(同じ辺でも良い)にサブメニュー2を表示する。
次に、図15および図16に基づき、メインメニューおよびサブメニューの各メニューの表示項目(メニュー項目)のバリエーションについて説明する。上述した端末装置10が利用可能なアプリケーションは、上述した実施形態に記載したものに限定されず、図15および図16に示すような様々なアプリケーションに利用できる。これらの図に示す形態では、各アプリケーションの起動時に、最初にタッチされた辺にメインメニューを表示し、メインメニューの項目のいずれかが選択されたら、反対の辺にサブメニュー1を表示する。さらにサブメニュー1にていずれかの項目が選択されれば、サブメニュー1とは反対の辺(同じ辺でも良い)にサブメニュー2を表示する。
〔ソフトウェアによる実現例〕
端末装置10の制御ブロック(特に検出部コントローラ21、設定部22および表示制御部23)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
端末装置10の制御ブロック(特に検出部コントローラ21、設定部22および表示制御部23)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、端末装置10は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る入力装置(端末装置10)は、入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置であって、上記外縁部に対するユーザの第1指の接触位置を検出する検出部(1)と、上記検出部が検出した上記ユーザの上記第1指の接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定部(設定部22)と、を備える構成である。
本発明の態様1に係る入力装置(端末装置10)は、入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置であって、上記外縁部に対するユーザの第1指の接触位置を検出する検出部(1)と、上記検出部が検出した上記ユーザの上記第1指の接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定部(設定部22)と、を備える構成である。
上記構成によれば、筐体の外縁部に接触したユーザの第1指の接触位置の向かい側に、第2指による第2入力領域が設定される。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様2に係る入力装置は、上記態様1において、上記検出部が検出した上記第1指の接触位置またはその近傍に、上記第1指による入力を受け付ける第1入力領域を設定する第1設定部(設定部22)をさらに備えていても良い。上記構成によれば、第2指による入力に加え、第1指による入力を受け付けることが可能となる。それゆえ、複数の入力を受け付けることが可能となる。
本発明の態様3に係る入力装置は、上記態様2において、上記第1設定部による上記第1入力領域の設定、および上記第2設定部による上記第2入力領域の設定が交互に行われるようになっていても良い。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様4に係る入力装置は、上記態様2または3において、上記第1入力領域に対して上記第1指によるタッチ操作を行ったままの状態で、上記第2入力領域に対して上記第2指によるスライド操作またはスクロール操作を行うことが可能となっていても良い。上記構成によれば、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様5に係る入力装置は、上記態様2において、上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像を表示させる表示制御部(23)をさらに備えていても良い。上記構成によれば、第1入力領域またはその近傍に、第1入力用画像が表示される。これにより、ユーザは、第1入力用画像を視認することができ、当該画像を視認しつつ、第1入力領域に対する入力を行うことが可能となる。
本発明の態様6に係る入力装置は、上記態様5において、上記表示制御部は、上記第1入力領域に対して入力がなされたことを契機として、上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの上記第2指による入力を促すための第2入力用画像を表示させても良い。
上記構成によれば、第1入力領域に対する入力を契機として、第2入力領域またはその近傍に、第2入力用画像が表示される。これにより、ユーザは、当該入力を契機として、第2入力用画像を視認することができ、当該画像を視認しつつ、第2入力領域に対する入力を行うことが可能となる。
また、上記入力まで、第2入力領域またはその近傍に第2入力用画像が表示されないため、ユーザは、当該入力前に第2入力領域の存在を認識することができない。すなわち、ユーザは、当該入力前に第2入力領域に対する入力を行うことができない。これにより、第1入力領域への入力時における、第2入力領域への入力の受け付けを防ぐことができる。それゆえ、複数箇所への入力受付によって誤作動が生じてしまうことを防ぐことができる。
本発明の態様7に係る入力装置は、上記態様6において、上記第2入力用画像は複数のメニュー項目を含んでおり、上記第2入力領域に対して上記第2指によるスライド操作を行っている状態から上記第2指による接触を解除した場合に、上記第2指による接触が解除された位置に対応付けられているメニュー項目が選択されるようになっていても良い。上記構成によれば、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様8に係る入力装置は、上記態様6において、上記第2入力用画像は複数のメニュー項目を含んでおり、上記第1入力領域に対して上記第1指によるタッチ操作が行われ、かつ上記第2入力領域に対して上記第2指によるタッチ操作が行われている状態から、上記第1入力領域に対する上記第1指による接触が解除された場合に、上記第2指によるタッチ操作の位置に対応付けられているメニュー項目が選択されるようになっていても良い。上記構成によれば、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様9に係る入力装置は、上記態様2において、上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像を表示させる表示制御部を備え、上記表示制御部は、上記第1入力領域に対して入力がなされたことを契機として、上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの上記第2指による入力を促すための第2入力用画像を表示させ、上記検出部によって上記第1指の接触位置の検出と上記第2指の接触位置の検出とが交互に行われた場合に、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示しても良い。上記構成によれば、第1指による入力と第2指による入力とを交互に行うことにより、第1入力用画像および上記第2入力用画像のそれぞれが交互に表示される。これにより、ユーザは、当該入力を契機として、第1入力用画像および上記第2入力用画像のそれぞれを交互に視認することができ、当該画像を視認しつつ、第1入力領域および第2入力領域に対する入力を交互に行うことが可能となる。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様10に係る入力装置は、上記態様6において、上記第2入力用画像は、上記第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像が示すメインメニューに対応するサブメニューを示しても良い。上記構成によれば、メインメニューを参照した第1指による第1入力領域への入力を契機として、第2入力領域およびその近傍にサブメニューが表示される。これにより、各メニューの視認性および入力装置の操作性を向上させることができる。
本発明の態様11に係る入力装置は、上記態様9において、上記表示制御部は、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示する順序に応じて、階層的により下位の階層のサブメニューを表示しても良い。上記構成によれば、第1入力用画像および上記第2入力用画像のそれぞれを交互に表示する順序に応じてより下位の階層のサブメニューのメニュー項目を選択することが可能になる。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様12に係る入力装置は、上記態様1~11のいずれかにおいて、上記検出部は、上記筐体が備える表示部に重畳されており、上記表示部が有する表示画面内への、対象物の接触または接近を検出するとともに、上記外縁部への、上記第1指または上記第2指の接触または接近を検出しても良い。上記構成によれば、筐体が備える表示部に重畳され、かつ、表示部が有する表示画面内への、対象物の接触または接近を検出する検出部によって、外縁部への、第1指または第2指の接触または接近を検出することができる。それゆえ、外縁部への接触または接近を検出するために、新たな検出部材を備える必要がないので、部品点数を抑えることができる。
本発明の態様13に係る入力装置は、上記態様1~11のいずれかにおいて、上記検出部は、上記筐体の側面に配されていても良い。上記構成によれば、筐体の側面に配された検出部によって、外縁部への、第1指または第2指の接触または接近を検知することができる。
本発明の態様14に係るウェアラブル端末は、上記態様1~13のいずれかの入力装置を備えていることが好ましい。上記構成によれば、複数の指による入力操作を行うときの操作性を向上させることができるウェアラブル端末を実現できる。
本発明の態様15に係る携帯端末は、上記態様1~13のいずれかの入力装置を備えていることが好ましい。上記構成によれば、複数の指による入力操作を行うときの操作性を向上させることができる携帯端末を実現できる。
本発明の態様16に係る入力装置の制御方法は、入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置の制御方法であって、上記外縁部に対するユーザの第1指の接触位置を検出する検出ステップと、上記検出ステップにて検出された上記第1指の上記接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定ステップと、を含む方法である。上記方法によれば、上記態様1と同様の効果を奏する。
本発明の態様17に係る入力装置の制御プログラムは、上記態様1の入力装置の動作を制御するための制御プログラムであって、上記入力装置における上記第2設定部としてコンピュータを動作させるための制御プログラムであっても良い。
〔付記事項〕
本発明の各態様に係る入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記入力装置が備える各部(ソフトウェア要素に限る)として動作させることにより上記入力装置をコンピュータにて実現させる入力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明の各態様に係る入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記入力装置が備える各部(ソフトウェア要素に限る)として動作させることにより上記入力装置をコンピュータにて実現させる入力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
本発明は、筐体の外縁部に対するユーザの入力を受け付ける入力装置、該入力装置を備えるウェアラブル端末、上記入力装置を備える携帯端末などに利用することができる。
1 検出部
3 表示部
10 端末装置(入力装置,ウェアラブル端末,携帯端末)
11 タッチパネル(検出部)
12 側面タッチセンサ(検出部)
22 設定部(第1設定部,第2設定部)
23 表示制御部
P1~P4 接触位置
3 表示部
10 端末装置(入力装置,ウェアラブル端末,携帯端末)
11 タッチパネル(検出部)
12 側面タッチセンサ(検出部)
22 設定部(第1設定部,第2設定部)
23 表示制御部
P1~P4 接触位置
Claims (17)
- 入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置であって、
上記外縁部に対するユーザの第1指の接触位置を検出する検出部と、
上記検出部が検出した上記ユーザの上記第1指の接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定部と、を備えることを特徴とする入力装置。 - 上記検出部が検出した上記第1指の接触位置またはその近傍に、上記第1指による入力を受け付ける第1入力領域を設定する第1設定部をさらに備えることを特徴とする請求項1に記載の入力装置。
- 上記第1設定部による上記第1入力領域の設定、および上記第2設定部による上記第2入力領域の設定が交互に行われることを特徴とする請求項2に記載の入力装置。
- 上記第1入力領域に対して上記第1指によるタッチ操作を行ったままの状態で、上記第2入力領域に対して上記第2指によるスライド操作またはスクロール操作を行うことが可能となっていることを特徴とする請求項2または3に記載の入力装置。
- 上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像を表示させる表示制御部をさらに備えることを特徴とする請求項2に記載の入力装置。
- 上記表示制御部は、上記第1入力領域に対して入力がなされたことを契機として、上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの上記第2指による入力を促すための第2入力用画像を表示させることを特徴とする請求項5に記載の入力装置。
- 上記第2入力用画像は複数のメニュー項目を含んでおり、
上記第2入力領域に対して上記第2指によるスライド操作を行っている状態から上記第2指による接触を解除した場合に、上記第2指による接触が解除された位置に対応付けられているメニュー項目が選択されることを特徴とする請求項6に記載の入力装置。 - 上記第2入力用画像は複数のメニュー項目を含んでおり、
上記第1入力領域に対して上記第1指によるタッチ操作が行われ、かつ上記第2入力領域に対して上記第2指によるタッチ操作が行われている状態から、上記第1入力領域に対する上記第1指による接触が解除された場合に、上記第2指によるタッチ操作の位置に対応付けられているメニュー項目が選択されることを特徴とする請求項6に記載の入力装置。 - 上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像を表示させる表示制御部を備え、
上記表示制御部は、
上記第1入力領域に対して入力がなされたことを契機として、上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの上記第2指による入力を促すための第2入力用画像を表示させ、
上記検出部によって上記第1指の接触位置の検出と上記第2指の接触位置の検出とが交互に行われた場合に、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示することを特徴とする請求項2に記載の入力装置。 - 上記第2入力用画像は、上記第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像が示すメインメニューに対応するサブメニューを示すことを特徴とする請求項6に記載の入力装置。
- 上記表示制御部は、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示する順序に応じて、階層的により下位の階層のサブメニューを表示することを特徴とする請求項9に記載の入力装置。
- 上記検出部は、
上記筐体が備える表示部に重畳されており、
上記表示部が有する表示画面内への、対象物の接触または接近を検出するとともに、上記外縁部への、上記第1指または上記第2指の接触または接近を検出することを特徴とする請求項1から11までのいずれか1項に記載の入力装置。 - 上記検出部は、上記筐体の側面に配されていることを特徴とする請求項1から11までのいずれか1項に記載の入力装置。
- 請求項1から13までのいずれか1項に記載の入力装置を備えることを特徴とするウェアラブル端末。
- 請求項1から13までのいずれか1項に記載の入力装置を備えることを特徴とする携帯端末。
- 入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置の制御方法であって、
上記外縁部に対するユーザの第1指の接触位置を検出する検出ステップと、
上記検出ステップにて検出された上記第1指の上記接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定ステップと、を含むことを特徴とする入力装置の制御方法。 - 請求項1に記載の入力装置の動作を制御するための制御プログラムであって、上記入力装置における上記第2設定部としてコンピュータを動作させるための制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/536,560 US20170329511A1 (en) | 2014-12-16 | 2015-09-30 | Input device, wearable terminal, mobile terminal, method of controlling input device, and control program for controlling operation of input device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014254477A JP2016115208A (ja) | 2014-12-16 | 2014-12-16 | 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム |
JP2014-254477 | 2014-12-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016098418A1 true WO2016098418A1 (ja) | 2016-06-23 |
Family
ID=56126320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2015/077830 WO2016098418A1 (ja) | 2014-12-16 | 2015-09-30 | 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20170329511A1 (ja) |
JP (1) | JP2016115208A (ja) |
WO (1) | WO2016098418A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107153503A (zh) * | 2017-01-04 | 2017-09-12 | 奇酷互联网络科技(深圳)有限公司 | 一种智能手表控制方法、智能手表控制装置及智能手表 |
US20180095501A1 (en) * | 2016-10-05 | 2018-04-05 | Samsung Electronics Co., Ltd. | Method of providing interaction in wearable device with a curved periphery |
WO2018129879A1 (zh) * | 2017-01-12 | 2018-07-19 | 广东乐源数字技术有限公司 | 一种可防金属指针误触亮屏的智能手表 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10133443B2 (en) | 2015-06-14 | 2018-11-20 | Google Llc | Systems and methods for smart home automation using a multifunction status and entry point icon |
USD812076S1 (en) | 2015-06-14 | 2018-03-06 | Google Llc | Display screen with graphical user interface for monitoring remote video camera |
USD803241S1 (en) | 2015-06-14 | 2017-11-21 | Google Inc. | Display screen with animated graphical user interface for an alert screen |
US9361011B1 (en) | 2015-06-14 | 2016-06-07 | Google Inc. | Methods and systems for presenting multiple live video feeds in a user interface |
US10365811B2 (en) | 2015-09-15 | 2019-07-30 | Verizon Patent And Licensing Inc. | Home screen for wearable devices |
CN105892872A (zh) * | 2016-04-06 | 2016-08-24 | 惠州Tcl移动通信有限公司 | 一种基于触摸屏的电子书自动滚屏控制方法及移动终端 |
USD882583S1 (en) * | 2016-07-12 | 2020-04-28 | Google Llc | Display screen with graphical user interface |
US10263802B2 (en) | 2016-07-12 | 2019-04-16 | Google Llc | Methods and devices for establishing connections with remote cameras |
JP6886249B2 (ja) * | 2016-07-21 | 2021-06-16 | 京セラ株式会社 | 電子機器、制御方法、及びプログラム |
US10386999B2 (en) | 2016-10-26 | 2019-08-20 | Google Llc | Timeline-video relationship presentation for alert events |
US11238290B2 (en) | 2016-10-26 | 2022-02-01 | Google Llc | Timeline-video relationship processing for alert events |
USD843398S1 (en) | 2016-10-26 | 2019-03-19 | Google Llc | Display screen with graphical user interface for a timeline-video relationship presentation for alert events |
US10705730B2 (en) * | 2017-01-24 | 2020-07-07 | International Business Machines Corporation | Display of a virtual keyboard on a supplemental physical display plane surrounding a primary physical display plane on a wearable mobile device |
WO2018173978A1 (ja) * | 2017-03-23 | 2018-09-27 | シャープ株式会社 | 電子機器 |
WO2018173976A1 (ja) * | 2017-03-23 | 2018-09-27 | シャープ株式会社 | 電子機器 |
US10819921B2 (en) | 2017-05-25 | 2020-10-27 | Google Llc | Camera assembly having a single-piece cover element |
US10972685B2 (en) | 2017-05-25 | 2021-04-06 | Google Llc | Video camera assembly having an IR reflector |
US10683962B2 (en) | 2017-05-25 | 2020-06-16 | Google Llc | Thermal management for a compact electronic device |
US10838596B2 (en) * | 2017-09-30 | 2020-11-17 | Huawei Technologies Co., Ltd. | Task switching method and terminal |
KR102512879B1 (ko) * | 2018-04-12 | 2023-03-22 | 라인플러스 주식회사 | 미디어 플레이어를 제어하는 방법 및 시스템 |
WO2019232712A1 (zh) * | 2018-06-06 | 2019-12-12 | 高驰运动科技(深圳)有限公司 | 一种智能手表交互方法、智能手表以及光电旋钮组件 |
USD928836S1 (en) * | 2018-12-27 | 2021-08-24 | General Electric Company | Display screen with animated icon |
JP7381564B2 (ja) * | 2019-03-27 | 2023-11-15 | 富士フイルム株式会社 | 操作装置及び表示制御プログラム |
US11599238B2 (en) * | 2019-04-02 | 2023-03-07 | Vyaire Medical, Inc. | System and method for generating a virtual reality interface for displaying patient health data |
KR20210002163A (ko) * | 2019-06-26 | 2021-01-07 | 삼성디스플레이 주식회사 | 전자 패널 및 이를 포함하는 전자 장치 |
US11294496B2 (en) * | 2019-08-05 | 2022-04-05 | Samsung Electronics Co., Ltd | Operation method based on touch input and electronic device thereof |
CN113641278A (zh) * | 2021-08-11 | 2021-11-12 | 维沃移动通信有限公司 | 控制方法、装置、电子设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003337649A (ja) * | 2002-05-20 | 2003-11-28 | Sony Corp | 入力方法及び入力装置 |
JP2009099067A (ja) * | 2007-10-18 | 2009-05-07 | Sharp Corp | 携帯型電子機器、および携帯型電子機器の操作制御方法 |
JP2010262557A (ja) * | 2009-05-11 | 2010-11-18 | Sony Corp | 情報処理装置および方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060092129A1 (en) * | 2004-10-20 | 2006-05-04 | Visteon Global Technologies, Inc. | Human machine interface for vehicle |
JP2006148536A (ja) * | 2004-11-19 | 2006-06-08 | Sony Corp | 携帯端末、文字入力方法、並びにプログラム |
US9030446B2 (en) * | 2012-11-20 | 2015-05-12 | Samsung Electronics Co., Ltd. | Placement of optical sensor on wearable electronic device |
-
2014
- 2014-12-16 JP JP2014254477A patent/JP2016115208A/ja active Pending
-
2015
- 2015-09-30 WO PCT/JP2015/077830 patent/WO2016098418A1/ja active Application Filing
- 2015-09-30 US US15/536,560 patent/US20170329511A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003337649A (ja) * | 2002-05-20 | 2003-11-28 | Sony Corp | 入力方法及び入力装置 |
JP2009099067A (ja) * | 2007-10-18 | 2009-05-07 | Sharp Corp | 携帯型電子機器、および携帯型電子機器の操作制御方法 |
JP2010262557A (ja) * | 2009-05-11 | 2010-11-18 | Sony Corp | 情報処理装置および方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180095501A1 (en) * | 2016-10-05 | 2018-04-05 | Samsung Electronics Co., Ltd. | Method of providing interaction in wearable device with a curved periphery |
WO2018066810A1 (en) | 2016-10-05 | 2018-04-12 | Samsung Electronics Co., Ltd. | Method of providing interaction in wearable device with a curved periphery |
EP3475802A4 (en) * | 2016-10-05 | 2019-09-18 | Samsung Electronics Co., Ltd. | PROCESS FOR PROVIDING INTERACTION IN A WEARABLE DEVICE WITH A CROPPED PERIPHERAL |
US10474195B2 (en) * | 2016-10-05 | 2019-11-12 | Samsung Electronics Co., Ltd. | Method of providing interaction in wearable device with a curved periphery |
CN107153503A (zh) * | 2017-01-04 | 2017-09-12 | 奇酷互联网络科技(深圳)有限公司 | 一种智能手表控制方法、智能手表控制装置及智能手表 |
WO2018129879A1 (zh) * | 2017-01-12 | 2018-07-19 | 广东乐源数字技术有限公司 | 一种可防金属指针误触亮屏的智能手表 |
Also Published As
Publication number | Publication date |
---|---|
JP2016115208A (ja) | 2016-06-23 |
US20170329511A1 (en) | 2017-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016098418A1 (ja) | 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム | |
KR101224588B1 (ko) | 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기 | |
JP4599898B2 (ja) | 画面表示制御のためのプログラム、方法及び携帯情報機器 | |
JP6381032B2 (ja) | 電子機器、その制御方法及びプログラム | |
US20120218201A1 (en) | User-Friendly Process for Interacting with Information Content on Touchscreen Devices | |
WO2012157562A1 (ja) | 表示装置、ユーザインタフェース方法及びプログラム | |
US20140078063A1 (en) | Gesture-initiated keyboard functions | |
US20080165133A1 (en) | Method, system and graphical user interface for displaying hyperlink information | |
US20080259041A1 (en) | Method, system, and graphical user interface for activating hyperlinks | |
US9189154B2 (en) | Information processing apparatus, information processing method, and program | |
US20110283212A1 (en) | User Interface | |
US9785331B2 (en) | One touch scroll and select for a touch screen device | |
JP2011150413A (ja) | 情報処理装置、操作入力方法及び操作入力プログラム | |
JP2009110286A (ja) | 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法 | |
KR20110113777A (ko) | 정보 디스플레이 | |
US20100171706A1 (en) | Information processor, user interface control method and program | |
JP6057441B2 (ja) | 携帯装置およびその入力方法 | |
US20130038538A1 (en) | Hand-held devices and methods of inputting data | |
JP2010204781A (ja) | 入力装置 | |
US20150106764A1 (en) | Enhanced Input Selection | |
TW201101113A (en) | Electronic device having virtual keyboard and the operating method of virtual keyboard | |
JP7517965B2 (ja) | 電子機器、制御プログラム、および電子機器の制御方法 | |
KR102090443B1 (ko) | 터치 제어 방법, 장치, 프로그램 및 컴퓨터 판독가능 기록매체 | |
JP6814676B2 (ja) | 電子機器および電子機器の制御方法 | |
JP2014160301A (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15869626 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 15536560 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 15869626 Country of ref document: EP Kind code of ref document: A1 |