WO2015040861A1 - 電子機器、電子機器の制御方法及び記憶媒体 - Google Patents

電子機器、電子機器の制御方法及び記憶媒体 Download PDF

Info

Publication number
WO2015040861A1
WO2015040861A1 PCT/JP2014/004782 JP2014004782W WO2015040861A1 WO 2015040861 A1 WO2015040861 A1 WO 2015040861A1 JP 2014004782 W JP2014004782 W JP 2014004782W WO 2015040861 A1 WO2015040861 A1 WO 2015040861A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus
input
electronic device
direction information
display
Prior art date
Application number
PCT/JP2014/004782
Other languages
English (en)
French (fr)
Inventor
勇介 中尾
Original Assignee
Necソリューションイノベータ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necソリューションイノベータ株式会社 filed Critical Necソリューションイノベータ株式会社
Priority to EP14846719.4A priority Critical patent/EP3048516A4/en
Priority to CN201480050810.6A priority patent/CN105556447A/zh
Priority to US14/914,119 priority patent/US20160210008A1/en
Priority to JP2015537560A priority patent/JPWO2015040861A1/ja
Publication of WO2015040861A1 publication Critical patent/WO2015040861A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/174Form filling; Merging

Definitions

  • the present invention relates to an electronic device, a control method for the electronic device, and a storage medium.
  • the following methods are widely known as operations for focusing on a desired input field. That is, as an operation for focusing on the input field, there is means for moving the focus to a desired input field using the TAB key of the keyboard (see Patent Document 1). As an operation for focusing on the input field, there is a means of clicking the mouse (left click or the like) with the cursor position on the desired input field. Further, as an operation for focusing on the input field, there is means for touching a desired input field when the operation terminal includes a touch panel.
  • the main object of the present invention is to provide a new means for focusing on a desired input field.
  • Display means for displaying on the display an input screen including a plurality of focus targets that are alternatively focused; Focus position determining means for determining which of the plurality of focus targets is focused; Input receiving means for receiving input of direction information indicating the direction, When the input receiving unit receives the input of the direction information in a state where the first focus target is in focus, the focus position determination unit determines whether the focus position determination unit starts from the first focus target based on the direction information.
  • An electronic apparatus that changes the focus position to another focus target is provided.
  • Computer An input screen including a plurality of focus targets that can alternatively be focused is displayed on the display,
  • direction information indicating a direction is received while the first focus object is in focus
  • the focus position is changed from the first focus object to another focus object based on the direction information.
  • the focus object is focused from the first focus object to another focus object based on the input direction information.
  • a computer-readable storage medium recording a program for executing a process for determining which of the plurality of focus targets is focused is provided.
  • the electronic device of the present embodiment may be a portable device or a stationary device.
  • Each unit included in the electronic device of the present embodiment is centered on an arbitrary computer CPU (Central Processing Unit), a memory, a program loaded in the memory, a storage unit such as a hard disk for storing the program, and a network connection interface.
  • CPU Central Processing Unit
  • the above programs include programs downloaded from a storage medium such as a CD (Compact-Disc), a server connected to the Internet, and the like in addition to programs stored in the memory from the stage of shipping the apparatus in advance. It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus.
  • FIG. 1 is a diagram conceptually illustrating an example of a hardware configuration of an electronic device according to the present embodiment.
  • the apparatus according to the present embodiment includes, for example, a CPU 1A, a RAM (Random Access Memory) 2A, a ROM (Read Only Memory) 3A, a display control unit 4A, a display 5A, and operation reception that are connected to each other via a bus 8A. Part 6A, operation part 7A and the like.
  • an input / output I / F Interface
  • a communication unit for communicating with the external device by wire and / or wireless a microphone, a speaker, a camera, and an auxiliary storage device
  • Other elements may be provided.
  • the CPU 1A controls the entire computer of the electronic device together with each element.
  • the ROM 3A includes an area for storing programs for operating the computer, various application programs, various setting data used when these programs operate.
  • the RAM 2A includes an area for temporarily storing data, such as a work area for operating a program.
  • the display 5A includes a display device (LED (Light Emitting Diode) display, liquid crystal display, organic EL (Electro Luminescence) display, etc.).
  • the display 5A may be a touch panel display integrated with a touch pad.
  • the display control unit 4A reads data stored in VRAM (Video RAM). The display control unit 4A performs predetermined processing on the read data, and then sends it to the display 5A to display various screens.
  • the operation reception unit 6A receives various operations via the operation unit 7A.
  • the operation unit 7A includes operation keys, operation buttons, switches, a jog dial, a touch panel display, and the like.
  • FIG. 2 shows an example of a functional block diagram of the electronic device 10. As illustrated, the electronic device 10 includes a display unit 11, a focus position determination unit 12, and an input reception unit 13. Hereinafter, each part will be described.
  • the display unit 11 displays an input screen including a plurality of focus targets that are alternatively focused on the display.
  • the focus target is an input field composed of GUI (GraphicalGUser Interface) parts such as a text field and a drop-down menu.
  • GUI GraphicalGUser Interface
  • the display of this embodiment is a touch panel display.
  • the touch panel display may be of any type, and any type such as a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method can be adopted.
  • FIG. 3 shows an example in which the display unit 11 displays an input screen on the touch panel display 20.
  • the input screen has a plurality of input fields 21 to 24.
  • the display unit 11 displays, for example, an input screen created by a predetermined application installed in the electronic device 10 on the display.
  • the display unit 11 displays an input screen acquired from an external device via a network such as the Internet on a display by a predetermined application installed in the electronic device 10.
  • the input receiving unit 13 receives an input of direction information indicating the direction.
  • the input receiving unit 13 receives input of direction information by a touch operation (eg, swipe operation or flick operation) that slides the touch position in a predetermined direction.
  • a touch operation eg, swipe operation or flick operation
  • the input receiving unit 13 detects a touch operation of sliding the touch position in a predetermined direction
  • the input receiving unit 13 recognizes the direction.
  • the input reception part 13 produces the direction information which shows the recognized direction. Based on this direction information, the focus position is changed.
  • There is an input screen configured to change a portion displayed on the touch panel display 20 by sliding the input screen by a swipe operation or a flick operation.
  • the input reception unit 13 may receive an input of direction information by the following operation, for example. That is, for example, the input receiving unit 13 receives an input of direction information by a touch operation in which an arbitrary position on the touch panel display 20 is touched and held and the other position is touched and slid in a predetermined direction. May be. In this case, the input receiving unit 13 recognizes the slide direction of the operation of touching another position and sliding it in a predetermined direction, and creates direction information indicating the recognized direction.
  • the direction information may indicate the direction from 0 degrees to 360 degrees, for example.
  • the predetermined direction determined in advance is 0 degree.
  • the direction information may indicate any one of a predetermined number of directions such as “upper, upper right, right, lower right, lower, lower left, left, upper left”.
  • the input receiving unit 13 selects one closest to the recognized direction from a predetermined number of predetermined directions. Then, the input receiving unit 13 creates direction information indicating the selected direction.
  • the focus position determination unit 12 determines which of a plurality of focus targets is focused. Specifically, the focus position determination unit 12 determines a focus target to be focused based on an input operation by the user. For example, it is assumed that the user performs a touch operation of touching the input field 21 on the input screen illustrated in FIG. Then, the focus position determination unit 12 determines that the input field 21 is focused. As a result, the display unit 11 displays an input screen in a state where the input field 21 is focused as shown in FIG.
  • the focus position determination unit 12 starts from the first focus target based on the direction information. Change the focus position to another focus target. Then, the display unit 11 displays an input screen in a state where the focus position after the change determined by the focus position determination unit 12 is focused.
  • the focus position determination unit 12 changes the focus position to another focus target positioned ahead of the first focus target in the direction indicated by the direction information on the input screen.
  • the focus position determination unit 12 exists at a position where it intersects (overlaps) the first focus target when the first focus target in focus is moved in the direction indicated by the direction information, for example.
  • the focus position may be changed to the focus target.
  • the focus position determination unit 12 moves, for example, a representative point (center point, upper left point, etc.) in the area occupied by the focused first focused object in the direction indicated by the direction information. When this is done, the focus position may be changed to a focus target existing at a position that intersects (overlaps) the representative point.
  • the input reception unit 13 creates direction information indicating the direction and passes it to the focus position determination unit 12.
  • the focus position determination unit 12 determines the focus position based on the acquired direction information. For example, the focus position determination unit 12 moves the focus position to an input field that exists at a position that intersects (overlaps) the input field 21 when the input field 21 in focus is moved in the downward direction indicated by the direction information. To change.
  • the input fields 22 to 24 are candidates for moving the focus position.
  • the focus position determination unit 12 may focus on the input field located closest to the current focus position.
  • the focus position determination unit 12 may focus on the input field located on the leftmost side on the input screen. Based on this premise, when the user performs a touch operation to slide the touch position downward while the input field 21 is in focus as shown in FIG. 3, the focus position moves to the input field 22. . When the user performs a touch operation to slide the touch position downward in this state, the focus position moves to the input field 24.
  • the focus position moves to the input field 23. Further, when the user performs a touch operation to slide the touch position upward while the input field 22 is in focus, the focus position moves to the input field 21.
  • the electronic device 10 in the present embodiment can determine and change the focus position based on the direction information received from the user.
  • the focus position on a certain focus target moves to another focus target positioned ahead of the direction indicated by the direction information than the focus target. For this reason, the user can intuitively easily grasp the operation and the result (change of the focus position) by the operation. As a result, the operability for the user is improved, and the efficiency of the user input work is expected to be improved.
  • the electronic device of the present embodiment is based on the configuration of the first embodiment, and accepts the input of length information in addition to the direction information from the user, and determines the focus position using these information. Different from the first embodiment.
  • An example of a functional block diagram of the electronic device 10 of the present embodiment is shown in FIG. 2 as in the first embodiment.
  • the input receiving unit 13 receives input of length information indicating the length in addition to the direction information. For example, the input receiving unit 13 receives input of direction information and length information by a touch operation (eg, swipe operation, flick operation) that slides the touch position in a predetermined direction. When the input receiving unit 13 detects a touch operation of sliding the touch position in a predetermined direction, the input receiving unit 13 recognizes the direction. And the input reception part 13 produces the direction information which shows the recognized direction. Further, the input receiving unit 13 recognizes the distance (slide distance) by which the touch position slides (moves) on the touch panel display 20. Then, the input receiving unit 13 creates length information indicating the recognized distance.
  • a touch operation eg, swipe operation, flick operation
  • the input reception unit 13 receives the input of direction information and length information in a state where the first focus target is focused. In this case, the focus position determination unit 12 changes the focus position from the first focus target to another focus target based on the received direction information and length information.
  • the focus position determination unit 12 changes the focus position to another focus target positioned ahead of the first focus target in the direction indicated by the direction information on the input screen. Then, when there are a plurality of other focus targets positioned ahead of the first focus target in the direction indicated by the direction information, the focus position determination unit 12 determines the distance from the first focus target as length information. The focus position is changed to a focus target close to the length indicated by.
  • the distance between the focus objects can be, for example, the distance between representative points (center point, upper left point, etc.) in the area occupied by the focus object. Note that the distance between focus targets is changed according to the magnification of the enlarged / reduced display on the input screen.
  • the focus position determining unit 12 can calculate the distance between the focus targets based on the magnification at the time when the input receiving unit 13 receives the input of the length information.
  • the input reception unit 13 creates direction information indicating the direction and length information indicating the slide distance, and passes them to the focus position determination unit 12.
  • the focus position determination unit 12 determines the focus position based on the acquired direction information and length information. In the case of this example, the focus position determination unit 12 has the distance from the input field 21 closest to the length indicated by the length information among the input fields 22 to 24 positioned below the input field 21. The focus position is moved to the input field 24.
  • the electronic device of this embodiment is based on the configuration of the first and second embodiments.
  • the electronic device of the present embodiment is different from the first and second embodiments in that it receives at least one of direction information and length information by a touch operation in a predetermined partial area along the outer periphery of the touch panel display 20. Different.
  • the process of determining and changing the focus position using the direction information and the length information received by the electronic device of the present embodiment is the same as in the first and second embodiments.
  • An example of a functional block diagram of the electronic device 10 of the present embodiment is shown in FIG. 2 as in the first and second embodiments.
  • the display unit 11 can display the touch area 31 so as to overlap the input screen.
  • the touch area 31 is displayed along the outer periphery of the touch panel display 20.
  • the size of the touch area 31 can be set such that a human thumb can be accommodated and the thumb can be slightly slid. Note that the size of the touch area 31 may be such that a human thumb covered with gloves or a work gloves can be accommodated and the thumb can be slightly slid.
  • the creation and display of the image of the touch area 31 may be performed by an application that created the input screen, may be performed by another application, or may be performed by middleware or an operating system.
  • the user performs an operation of inputting at least one of direction information and length information for changing the focus position in the touch area 31.
  • the user can perform a touch operation by placing the thumb of the left hand against the touch area 31 while holding the lower side of the electronic device 10 with the left hand.
  • the user can perform an input operation on the input field in focus with the right hand while performing an operation of changing the focus position with the left hand.
  • the electronic device according to the present embodiment may accept an operation other than the operation of changing the focus position in the touch area 31. For example, by an operation of tapping or double-tapping the touch area 31, an operation of tapping or double-tapping the input field focused at that time may be accepted.
  • the input receiving unit 13 When the input receiving unit 13 receives an input operation of sliding the touch position within the touch area 31 by the first length, the input receiving unit 13 increases the second length obtained by expanding the first length according to a predetermined rule. Accepts input as indicated length information.
  • the input receiving unit 13 may treat an input operation of sliding the touch position within the touch area 31 by the first length as an input of length information indicating the second length.
  • the predetermined rule is not particularly limited.
  • the predetermined length may be M times the first length (M is a real number larger than 1). In this way, it becomes possible to input length information corresponding to any distance between the plurality of input fields displayed on the input screen within the narrow touch area 31.
  • the length information corresponding to all the distances between the plurality of input fields displayed on the input screen is input by a finger whose movement distance is limited, such as the thumb of the hand holding the electronic device 10. Is possible.
  • the input receiving unit 13 may further change the extent of extending the first length according to the size of the touch area in the touch area 31.
  • the input reception unit 13 may hold information as illustrated in FIG. Then, the input receiving unit 13 determines the extent of extending the first length according to the information shown in FIG. 5 and the area (contact area) of the area detected as being touched in the touch area 31. May be.
  • the information shown in FIG. 5 shows the magnification for extending the first length in the contact area.
  • the contact area may be, for example, an area where a user's finger or the like contacts the touch region 31.
  • the size of the finger varies depending on the user. In addition, when the user wears gloves or a gloves, the contact area may be relatively large.
  • the input receiving unit 13 increases the expansion rate when the contact area is large compared to when the contact area is small.
  • the touch area 31 may not be always displayed on the touch panel display 20, but may be called according to a user operation. For example, when the touch area 31 is displayed as shown in FIG. 4 and a user operation for hiding the touch area 31 (eg, an operation of dragging the operation target 32 of the touch area calling component 30 leftward) is received, The display unit 11 may hide the touch area 31 as shown in FIG. Thereby, the visibility of the input screen is improved. Then, when a user operation for calling the touch area 31 (eg, an operation of dragging the operation target 32 of the touch area calling component 30 to the right) is received in a state where the touch area 31 is hidden as shown in FIG. The unit 11 may display the touch area 31 as shown in FIG.
  • a user operation for calling the touch area 31 eg, an operation of dragging the operation target 32 of the touch area calling component 30 to the right
  • the display positions of the touch area calling component 30 and the touch area 31 shown in FIGS. 4 and 6 are merely examples.
  • the display unit 11 can display the touch area calling component 30 and the touch area 31 at any position along the outer periphery of the touch panel display 20.
  • the display unit 11 may be configured such that the display position can be changed by a user operation (eg, drag operation).
  • the electronic device 10 can accept at least one of the direction information and the length information by a touch operation on the touch area 31 displayed along the outer periphery of the touch panel display 20.
  • the user performs an efficient operation of performing an input operation on the input field in focus with another hand while performing an operation of changing the focus position with the hand holding the touch panel display 20. be able to.
  • the operability for the user is improved, and the efficiency of the user's input work is expected to be improved.
  • the electronic apparatus of this embodiment is based on the configuration of the first to third embodiments.
  • the electronic device 10 of the present embodiment is different from the first to third embodiments in that the display is not a touch panel display but accepts user input via a keyboard or a mouse.
  • An example of a functional block diagram of the electronic device 10 of the present embodiment is shown in FIG. 2 as in the first to third embodiments.
  • the display unit 11 displays an input screen including a plurality of focus targets that are alternatively focused on the display.
  • FIG. 7 shows an example in which the display unit 11 displays an input screen on the display 40.
  • the input screen has a plurality of input fields 41 to 45.
  • the display unit 11 displays a cursor 46 so as to overlap the input screen.
  • the input reception unit 13 receives input of at least one of direction information and length information via a mouse or a keyboard.
  • the input receiving unit 13 may receive at least one of direction information and length information by an operation of moving the cursor 46.
  • direction information indicating the direction in which the cursor 46 has moved and length information indicating the distance to which the cursor 46 has moved are created.
  • the input receiving unit 13 performs direction information and length information by an operation of moving the cursor 46 while maintaining a predetermined operation (eg, left mouse click, pressing a predetermined button on the keyboard). At least one of the inputs may be accepted.
  • direction information indicating the direction in which the cursor 46 has moved while maintaining a predetermined operation and length information indicating the distance the cursor 46 has moved are created.
  • the configuration of the focus position determination unit 12 is the same as in the first and third embodiments.
  • Display means for displaying on the display an input screen including a plurality of focus targets that are alternatively focused; Focus position determining means for determining which of the plurality of focus targets is focused; Input receiving means for receiving input of direction information indicating the direction, When the input receiving unit receives the input of the direction information in a state where the first focus target is in focus, the focus position determining unit determines whether the first focus target is based on the direction information.
  • An electronic device that changes a focus position to another focus target.
  • the focus position determination unit is an electronic device that changes the focus position to another focus target positioned ahead of the first focus target in the direction indicated by the direction information on the input screen. 3.
  • the input receiving means receives input of length information indicating a length in addition to the direction information;
  • the focus position determination unit receives the direction information and the length information when the input reception unit receives an input of the direction information and the length information in a state where the first focus target is focused.
  • An electronic apparatus that changes a focus position from the first focus target to another focus target based on the first focus target. 4).
  • the focus position determination means is a distance from the first focus object among the other focus objects positioned ahead of the first focus object in the direction indicated by the direction information on the input screen. Is an electronic device that changes the focus position to the other focus target close to the length indicated by the length information. 5.
  • the display is a touch panel display;
  • the input receiving unit is an electronic device that receives an input of the direction information by a touch operation in a predetermined partial area along an outer periphery of the touch panel display. 6).
  • the display is a touch panel display;
  • the input receiving unit is an electronic device that receives input of the direction information and the length information by a touch operation in a predetermined partial area along the outer periphery of the touch panel display. 7).
  • the input receiving unit When the input receiving unit receives an input operation of sliding the touch position by a first length within the predetermined area, the input receiving unit indicates a second length obtained by extending the first length according to a predetermined rule.
  • the input device is an electronic device that changes a degree of extending the first length in accordance with a size of a touch area in the predetermined area.
  • the input device is an electronic device that changes a degree of extending the first length in accordance with a size of a touch area in the predetermined area.
  • Computer A display step of displaying on the display an input screen including a plurality of focus targets that are alternatively focused; A focus position determining step for determining which of the plurality of focus targets is focused; An input receiving step for receiving input of direction information indicating the direction, and In the focus position determination step, when the input of the direction information is received in the input reception step while the first focus target is in focus, the first focus target is determined based on the direction information.
  • the control method of the electronic device which changes a focus position to the other said focus object. 9-2.
  • the electronic device control method wherein In the focus position determination step, an electronic apparatus control method for changing a focus position to another focus target positioned ahead of the first focus target in the direction indicated by the direction information on the input screen. 9-3. In the method for controlling an electronic device according to 9 or 9-2, In the input receiving step, in addition to the direction information, an input of length information indicating a length is received, In the focus position determination step, when the input of the direction information and the length information is received in the input reception step while the first focus target is in focus, the direction information and the length information are An electronic apparatus control method for changing a focus position from the first focus object to another focus object based on the first focus object. 9-4.
  • the focus position determination step a distance from the first focus object among the other focus objects positioned ahead of the first focus object in the direction indicated by the direction information on the input screen. Is a control method for an electronic device that changes the focus position to the other focus target close to the length indicated by the length information.
  • the display is a touch panel display;
  • the input receiving step a method of controlling an electronic device that receives an input of the direction information by a touch operation in a predetermined partial area along the outer periphery of the touch panel display. 9-6.
  • the display is a touch panel display;
  • a method for controlling an electronic device that receives input of the direction information and the length information by a touch operation in a predetermined partial area along the outer periphery of the touch panel display.
  • 9-7 In the method for controlling an electronic device according to 9-6, In the input receiving step, when an input operation for sliding the touch position by the first length within the predetermined area is received, the second length obtained by extending the first length according to a predetermined rule is indicated.
  • a method of controlling an electronic device that accepts input as the length information. 9-8.
  • the method of controlling an electronic device wherein in the input receiving step, the extent to which the first length is expanded is changed according to the size of the touch area in the predetermined area.
  • Computer Display means for displaying on the display an input screen including a plurality of focus targets that are alternatively focused; A focus position determining means for determining which of the plurality of focus targets is focused; Function as input receiving means for receiving input of direction information indicating the direction, When the input receiving unit receives the input of the direction information while the focus position determining unit is focused on the first focus target, the first focus target is detected based on the direction information.
  • the input accepting unit accepts input of length information indicating a length,
  • the direction information and the length information are included in the direction information and the length information.
  • the display is a touch panel display;
  • the program described in 10-6 When an input operation for sliding the touch position by the first length within the predetermined area is received by the input receiving means, the second length obtained by expanding the first length according to a predetermined rule is indicated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

所望の入力欄にフォーカスをあてるための新たな手段を提供することを課題とする。電子機器10は、択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示する表示部11と、複数のフォーカス対象の中のいずれにフォーカスをあてるか決定するフォーカス位置決定部12と、方向を示す方向情報の入力を受付ける入力受付部13と、を有し、フォーカス位置決定部12は、第1のフォーカス対象にフォーカスがあたっている状態で、入力受付部13が方向情報の入力を受付けると、方向情報に基づいて、第1のフォーカス対象から他のフォーカス対象にフォーカス位置を変更する。

Description

電子機器、電子機器の制御方法及び記憶媒体
 本発明は、電子機器、電子機器の制御方法及び記憶媒体に関する。
 複数の入力欄(テキストフィールド等)を備えた入力画面に対して入力操作を行う場合、ユーザは、所望の入力欄にフォーカスをあてる操作を行う。その後、ユーザは、そのフォーカスがあたっている入力欄に対して入力操作を行うこととなる。
 所望の入力欄にフォーカスをあてる操作としては、以下のような方法等が広く知られている。即ち、入力欄にフォーカスをあてる操作として、キーボードのTABキーを利用してフォーカスを所望の入力欄まで移動させる手段(特許文献1参照)がある。また、入力欄にフォーカスをあてる操作として、所望の入力欄にカーソル位置を合わせてマウスをクリック(左クリック等)する手段がある。また、入力欄にフォーカスをあてる操作として、操作端末がタッチパネルを備えている場合は、所望の入力欄をタッチする手段がある。
特開2009-282961号公報
 本発明は、所望の入力欄にフォーカスをあてるための新たな手段を提供することを主たる課題とする。
 本発明によれば、
 択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示する表示手段と、
 複数の上記フォーカス対象の中のいずれにフォーカスをあてるか決定するフォーカス位置決定手段と、
 方向を示す方向情報の入力を受付ける入力受付手段と、を有し、
 上記フォーカス位置決定手段は、第1の上記フォーカス対象にフォーカスがあたっている状態で、上記入力受付手段が上記方向情報の入力を受付けると、上記方向情報に基づいて、上記第1のフォーカス対象から他の上記フォーカス対象にフォーカス位置を変更する電子機器が提供される。
 また、本発明によれば、
 コンピュータが、
 択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示し、
 第1の上記フォーカス対象にフォーカスがあたっている状態で、方向を示す方向情報の入力を受付けると、上記方向情報に基づいて、上記第1のフォーカス対象から他の上記フォーカス対象にフォーカス位置を変更することにより、複数の上記フォーカス対象の中のいずれにフォーカスをあてるか決定する電子機器の制御方法が提供される。
 また、本発明によれば、
 コンピュータに、
 択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示する処理と、
 第1の上記フォーカス対象にフォーカスがあたっている状態で、方向を示す方向情報の入力を受付けると、入力された上記方向情報に基づいて、上記第1のフォーカス対象から他の上記フォーカス対象にフォーカス位置を変更することにより、複数の上記フォーカス対象の中のいずれにフォーカスをあてるか決定する処理と、を実行させるプログラムを記録したコンピュータ読み取り可能な記憶媒体が提供される。
 本発明によれば、所望の入力欄にフォーカスをあてるための新たな手段が実現される。
本発明の本実施形態における、電子機器のハードウエア構成の一例を概念的に示す図である。 本発明の本実施形態における、電子機器の機能ブロック図の一例を示す図である。 本発明の本実施形態における、表示部が表示する入力画面の一例を示す図である。 本発明の本実施形態における、表示部が表示する入力画面の一例を示す図である。 本発明の本実施形態における、入力受付部が利用することができる情報の一例を示す図である。 本発明の本実施形態における、表示部が表示する入力画面の一例を示す図である。 本発明の本実施形態における、表示部が表示する入力画面の一例を示す図である。
 まず、本実施形態の電子機器のハードウエア構成の一例について説明する。
 本実施形態の電子機器は、可搬型の装置であってもよいし、据置型の装置であってもよい。本実施形態の電子機器が備える各部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされたプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インタフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。なお、上記プログラムは、あらかじめ装置を出荷する段階からメモリ内に格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネットに接続されたサーバ等からダウンロードされたプログラムも含む。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
 図1は、本実施形態の電子機器のハードウエア構成の一例を概念的に示す図である。図示するように、本実施形態の装置は、例えば、バス8Aで相互に接続されるCPU1A、RAM(Random Access Memory)2A、ROM(Read Only Memory)3A、表示制御部4A、ディスプレイ5A、操作受付部6A、操作部7A等を有する。なお、図示しないが、その他、外部機器と有線で接続される入出力I/F(Interface)、外部機器と有線及び/又は無線で通信するための通信部、マイク、スピーカ、カメラ、補助記憶装置等の他の要素を備えてもよい。
 CPU1Aは各要素とともに電子機器のコンピュータ全体を制御する。ROM3Aは、コンピュータを動作させるためのプログラムや各種アプリケーションプログラム、それらのプログラムが動作する際に使用する各種設定データなどを記憶する領域を含む。RAM2Aは、プログラムが動作するための作業領域など一時的にデータを記憶する領域を含む。
 ディスプレイ5Aは、表示装置(LED(Light Emitting Diode)表示器、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等)を備える。なお、ディスプレイ5Aは、タッチパッドと一体になったタッチパネルディスプレイであってもよい。表示制御部4Aは、VRAM(Video RAM)に記憶されたデータを読み出す。表示制御部4Aは、その読み出したデータに対して所定の処理を施した後、ディスプレイ5Aに送って各種画面表示を行う。操作受付部6Aは、操作部7Aを介して各種操作を受付ける。操作部7Aは、操作キー、操作ボタン、スイッチ、ジョグダイヤル、タッチパネルディスプレイなどを含む。
 以下、本実施の形態について説明する。なお、以下の実施形態の説明において利用する機能ブロック図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。これらの図においては、各装置は1つの機器により実現されるよう記載されているが、その実現手段はこれに限定されない。すなわち、本実施の形態の構成は、物理的に分かれた構成であっても、論理的に分かれた構成であってもよい。
<第1の実施形態>
 図2に、電子機器10の機能ブロック図の一例を示す。図示するように、電子機器10は、表示部11と、フォーカス位置決定部12と、入力受付部13とを有する。以下、各部について説明する。
 表示部11は、択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示する。フォーカス対象は、例えば、テキストフィールド、ドロップダウンメニューなどのGUI(Graphical User Interface)部品で構成された入力欄である。
 なお、本実施形態のディスプレイはタッチパネルディスプレイである。タッチパネルディスプレイはいずれのタイプであってもよく、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などあらゆるタイプを採用することができる。
 図3に、表示部11がタッチパネルディスプレイ20に入力画面を表示している一例を示す。当該入力画面は、複数の入力欄21乃至24を有する。
 表示部11は、例えば、電子機器10内にインストールされた所定のアプリケーションにより作成された入力画面をディスプレイに表示する。または、表示部11は、電子機器10内にインストールされた所定のアプリケーションにより、インターネット等のネットワークを介して外部機器から取得された入力画面をディスプレイに表示する。
 図2に戻り、入力受付部13は、方向を示す方向情報の入力を受付ける。例えば、入力受付部13は、タッチ位置を所定の方向にスライドさせるタッチ操作(例:スワイプ操作、フリック操作)により、方向情報の入力を受付ける。入力受付部13は、タッチ位置を所定の方向にスライドさせるタッチ操作を検知すると、当該方向を認識する。そして、入力受付部13は、その認識した方向を示す方向情報を作成する。この方向情報に基づいて、フォーカス位置が変更される事になる。なお、スワイプ操作やフリック操作により、入力画面をスライドしてタッチパネルディスプレイ20に表示する部分を変更させるように構成された入力画面がある。かかる場合、入力画面をスライドさせるためのタッチ操作と方向情報の入力操作とを区別するため、入力受付部13は、例えば、以下のような操作により、方向情報の入力を受付けてもよい。即ち、入力受付部13は、例えば、タッチパネルディスプレイ20上の任意の位置をタッチ・ホールドした状態のまま、他の位置をタッチして所定の方向にスライドさせるタッチ操作により、方向情報の入力を受付けてもよい。この場合、入力受付部13は、他の位置をタッチして所定の方向にスライドさせた操作のスライド方向を認識し、認識した方向を示す方向情報を作成する。
 方向情報は、例えば、0度から360度で方向を示すものであってもよい。この場合、予め定められた所定の方向が0度となる。その他、方向情報は、「上、右上、右、右下、下、左下、左、左上」等のあらかじめ定められた所定数の方向のいずれかを示すものであってもよい。この場合、入力受付部13は、タッチ操作から方向を認識すると、あらかじめ定められた所定数の方向の中から認識した方向に最も近い1つを選択する。そして、入力受付部13は、選択した方向を示す方向情報を作成する。
 フォーカス位置決定部12は、複数のフォーカス対象の中のいずれにフォーカスをあてるか決定する。具体的には、フォーカス位置決定部12は、ユーザによる入力操作に基づいて、フォーカスをあてるフォーカス対象を決定する。例えば、ユーザが図3に示す入力画面における入力欄21をタッチするタッチ操作を行ったとする。すると、フォーカス位置決定部12は、入力欄21にフォーカスをあてると決定する。その結果、表示部11は、図3に示すように、入力欄21にフォーカスがあたった状態の入力画面を表示する。
 なお、フォーカス位置決定部12は、第1のフォーカス対象にフォーカスがあたっている状態において、入力受付部13が方向情報の入力を受付けた場合、当該方向情報に基づいて、第1のフォーカス対象から他のフォーカス対象にフォーカス位置を変更する。そして、表示部11は、フォーカス位置決定部12が決定した変更後のフォーカス位置にフォーカスがあたった状態の入力画面を表示する。
 例えば、フォーカス位置決定部12は、入力画面上において第1のフォーカス対象よりも方向情報で示される方向の先に位置する他のフォーカス対象に、フォーカス位置を変更する。一例として、フォーカス位置決定部12は、例えば、フォーカスがあたっている第1のフォーカス対象を方向情報で示される方向に移動させたときに、第1のフォーカス対象と交わる(重なる)位置に存在するフォーカス対象に、フォーカス位置を変更してもよい。その他、フォーカス位置決定部12は、例えば、フォーカスがあたっている第1のフォーカス対象が占有する領域の中の代表点(中心点、左上端の点等))を方向情報で示される方向に移動させたときに、代表点と交わる(重なる)位置に存在するフォーカス対象に、フォーカス位置を変更してもよい。
 ここで、図3を用いて一例を説明する。例えば、図3に示すように入力欄21にフォーカスがあたっている状態で、ユーザが下方向にタッチ位置をスライドさせるタッチ操作を行ったとする。すると、入力受付部13は、当該方向を示す方向情報を作成し、フォーカス位置決定部12に渡す。フォーカス位置決定部12は、取得した方向情報に基づいて、フォーカス位置を決定する。例えば、フォーカス位置決定部12は、フォーカスがあたっている入力欄21を方向情報で示される下方向に移動させたときに、入力欄21と交わる(重なる)位置に存在する入力欄に、フォーカス位置を変更する。当該例の場合、入力欄22乃至24が、フォーカス位置を移動させる先の候補となる。
 当該例のように候補となる入力欄が複数ある場合、例えば、フォーカス位置決定部12は、現在のフォーカス位置からもっとも近くに位置する入力欄にフォーカスをあててもよい。そして、最も近くに位置する入力欄が複数ある場合、例えば、フォーカス位置決定部12は、入力画面上において最も左側に位置する入力欄にフォーカスをあててもよい。当該前提に基づけば、図3に示すように入力欄21にフォーカスがあたっている状態で、ユーザが下方向にタッチ位置をスライドさせるタッチ操作を行うと、フォーカス位置は、入力欄22に移動する。そして、当該状態でユーザが下方向にタッチ位置をスライドさせるタッチ操作を行うと、フォーカス位置は入力欄24に移動する。一方、入力欄22にフォーカスがあたっている状態で、ユーザが右方向にタッチ位置をスライドさせるタッチ操作を行うと、フォーカス位置は入力欄23に移動する。また、入力欄22にフォーカスがあたっている状態で、ユーザが上方向にタッチ位置をスライドさせるタッチ操作を行うと、フォーカス位置は入力欄21に移動する。
 以上説明した本実施形態によれば、所望の入力欄にフォーカスをあてるための新たな手段が実現される。具体的には、本実施形態における電子機器10は、ユーザから受付けた方向情報に基づいて、フォーカス位置を決定・変更することができる。あるフォーカス対象にあたっているフォーカス位置は、当該フォーカス対象よりも方向情報で示される方向の先に位置する他のフォーカス対象に移動する。このため、ユーザは、操作と、その操作による結果(フォーカス位置の変更)とを直感的に容易に把握することができる。結果、ユーザの操作性が向上し、ユーザの入力作業の効率向上が期待される。
<第2の実施形態>
 本実施形態の電子機器は、第1の実施形態の構成を基本とし、ユーザから方向情報に加えて、長さ情報の入力を受付け、これらの情報を利用してフォーカス位置を決定する点において、第1の実施形態と異なる。本実施形態の電子機器10の機能ブロック図の一例は、第1の実施形態同様、図2により示される。
 入力受付部13は、方向情報に加えて、長さを示す長さ情報の入力を受付ける。例えば、入力受付部13は、タッチ位置を所定の方向にスライドさせるタッチ操作(例:スワイプ操作、フリック操作)により、方向情報と長さ情報の入力を受付ける。入力受付部13は、タッチ位置を所定の方向にスライドさせるタッチ操作を検知すると、当該方向を認識する。そして、入力受付部13は、その認識した方向を示す方向情報を作成する。また、入力受付部13は、タッチパネルディスプレイ20においてタッチ位置がスライド(移動)した距離(スライド距離)を認識する。そして、入力受付部13は、その認識した距離を示す長さ情報を作成する。
 フォーカス位置決定部12は、第1のフォーカス対象にフォーカスがあたっている状態で、入力受付部13が方向情報及び長さ情報の入力を受付ける。この場合、フォーカス位置決定部12は、その受け付けた方向情報及び長さ情報に基づいて、第1のフォーカス対象から他のフォーカス対象にフォーカス位置を変更する。
 例えば、フォーカス位置決定部12は、入力画面上において第1のフォーカス対象よりも方向情報で示される方向の先に位置する他のフォーカス対象にフォーカス位置を変更する。そして、第1のフォーカス対象よりも方向情報で示される方向の先に位置する他のフォーカス対象が複数ある場合には、フォーカス位置決定部12は、第1のフォーカス対象からの距離が長さ情報で示される長さに近いフォーカス対象に、フォーカス位置を変更する。
 フォーカス対象間の距離は、例えば、フォーカス対象が占有する領域の中の代表点(中心点、左上端の点等)間の距離とすることができる。なお、フォーカス対象間の距離は、入力画面の拡大縮小表示の倍率により変更する。フォーカス位置決定部12は、入力受付部13が長さ情報の入力を受付けた時点における倍率に基づいて、フォーカス対象間の距離を算出することができる。
 例えば、図3に示すように入力欄21にフォーカスがあたっている状態で、ユーザが、タッチ位置を入力欄21付近から入力欄24付近まで下方向にスライドさせるタッチ操作を行ったとする。すると、入力受付部13は当該方向を示す方向情報、および、当該スライド距離を示す長さ情報を作成し、フォーカス位置決定部12に渡す。フォーカス位置決定部12は、取得した方向情報及び長さ情報に基づいて、フォーカス位置を決定する。当該例の場合、フォーカス位置決定部12は、入力欄21よりも下方向に位置する入力欄22乃至24の中のうち、入力欄21からの距離が長さ情報で示される長さに最も近い入力欄24にフォーカス位置を移動させる。
 以上説明した本実施形態によれば、第1の実施形態と同様の作用効果を実現することができる。また、ユーザが入力可能な長さ情報をも利用してフォーカス位置を変更できるので、ユーザは、より容易に、フォーカス位置を所望のフォーカス対象に移動させることが可能となる。結果、ユーザの操作性が向上し、ユーザの入力作業の効率向上が期待される。
<第3の実施形態>
 本実施形態の電子機器は、第1及び第2の実施形態の構成を基本とする。本実施形態の電子機器は、タッチパネルディスプレイ20の外周沿いの所定の一部エリア内でのタッチ操作により、方向情報及び長さ情報の少なくとも一方を受付ける点で、第1及び第2の実施形態と異なる。本実施形態の電子機器が受付けた方向情報及び長さ情報を利用してフォーカス位置を決定・変更する処理は、第1及び第2の実施形態と同様である。本実施形態の電子機器10の機能ブロック図の一例は、第1及び第2の実施形態同様、図2で示される。
 図4を用いて一例を説明する。図4に示すように、表示部11は、入力画面に重ねて、タッチ領域31を表示することができる。タッチ領域31は、タッチパネルディスプレイ20の外周沿いに表示される。タッチ領域31の大きさは、人間の親指が収まり、かつ、親指を多少スライドできる程度とすることができる。なお、タッチ領域31の大きさは、手袋や軍手などで覆われた人間の親指が収まり、かつ、当該親指を多少スライドできる程度としてもよい。タッチ領域31の画像の作成及び表示は、入力画面を作成したアプリケーションによりなされてもよく、その他のアプリケーションによりなされてもよく、ミドルウエアやオペレーティングシステムによりなされてもよい。
 ユーザは、タッチ領域31内で、フォーカス位置を変更するための方向情報及び長さ情報の少なくとも一方を入力する操作を行う。例えば、ユーザは、左手で電子機器10の下方側を保持した状態で、左手の親指をタッチ領域31に当ててタッチ操作を行うことができる。この場合、ユーザは、左手でフォーカス位置を変更する操作を行いながら、右手で、フォーカスがあたっている入力欄に対して入力操作を行うことができる。なお、本実施形態における電子機器は、タッチ領域31で、フォーカス位置を変更する操作以外の操作を受付けてもよい。例えば、タッチ領域31をタップまたはダブルタップする操作により、その時点でフォーカスがあたっている入力欄をタップまたはダブルタップする操作が受付けられてもよい。
 なお、入力受付部13は、タッチ領域31内でタッチ位置を第1の長さ分スライドさせる入力操作を受付けた場合、当該第1の長さを所定のルールに従い拡張した第2の長さを示す長さ情報として入力を受付ける。入力受付部13は、タッチ領域31内でタッチ位置を第1の長さ分スライドさせる入力操作を、上記第2の長さを示す長さ情報の入力として扱ってもよい。係る所定のルールは、特段制限されないが、例えば、第1の長さをM倍(Mは1より大きい実数)するものであってもよい。このようにすれば、狭いタッチ領域31内で、入力画面に表示されている複数の入力欄間のあらゆる距離に対応する長さ情報の入力を行うことが可能となる。また、電子機器10を保持している手の親指という、移動距離が制限されている指により、入力画面に表示されている複数の入力欄間のあらゆる距離に対応する長さ情報の入力を行うことが可能となる。
 入力受付部13は、さらに、タッチ領域31内でのタッチ面積の大きさに応じて、第1の長さを拡張する程度を変更してもよい。例えば、入力受付部13は、図5に示すような情報を保持してもよい。そして、入力受付部13は、当該図5に示す情報と、タッチ領域31内でタッチされたと検知された領域の面積(接触面積)とに応じて、第1の長さを拡張する程度を決定してもよい。図5に示す情報は、接触面積に、第1の長さを拡張する倍率が示されている。なお、係る接触面積は、例えば、ユーザの指等がタッチ領域31に接触する面積であってもよい。指の大きさはユーザによって異なる。また、ユーザが手袋や軍手を装着している場合、係る接触面積は比較的大きくなる可能性がある。
 接触面積が小さい場合、タッチ領域31内でのタッチ位置の移動(指の移動)の自由度が大きい。この場合、ユーザは、長さ情報として比較的大きい値の入力が可能である。これに対し、接触面積が大きい場合、タッチ領域31内でのタッチ位置の移動(指の移動)の自由度が小さい。この場合、ユーザは、長さ情報として比較的大きい値の入力が困難な場合がある。そこで、本実施形態では、入力受付部13は、接触面積が小さい場合に比べて、接触面積が大きい場合の拡張率を大きくする。
 なお、タッチ領域31は、常にタッチパネルディスプレイ20に表示するのでなく、ユーザ操作に応じて呼び出されるようにしてもよい。例えば、図4に示すようにタッチ領域31が表示されている状態で、タッチ領域31を隠すユーザ操作(例:タッチ領域呼出部品30の操作対象32を左方向にドラッグする操作)を受付けると、表示部11は、図6に示すようにタッチ領域31を隠してもよい。これにより、入力画面の視認性がよくなる。そして、図6に示すようにタッチ領域31が隠れている状態で、タッチ領域31を呼び出すユーザ操作(例:タッチ領域呼出部品30の操作対象32を右方向にドラッグする操作)を受付けると、表示部11は、図4に示すようにタッチ領域31を表示してもよい。
 図4及び6に示すタッチ領域呼出部品30及びタッチ領域31の表示位置は、あくまで一例である。表示部11は、タッチ領域呼出部品30及びタッチ領域31を、タッチパネルディスプレイ20の外周沿いのあらゆる位置に表示することができる。例えば、表示部11は、ユーザ操作(例:ドラッグ操作)により表示位置を変更できるよう構成してもよい。
 以上説明した本実施形態によれば、第1及び第2の実施形態と同様の作用効果を実現することができる。
 また、本実施形態における電子機器10は、タッチパネルディスプレイ20の外周沿いに表示されたタッチ領域31に対するタッチ操作により、方向情報及び長さ情報の少なくとも一方を受付けることができる。かかる場合、ユーザは、タッチパネルディスプレイ20を保持している手でフォーカス位置を変更する操作を行いながら、他の手でフォーカスがあたっている入力欄に対する入力操作を行うという、効率的な操作を行うことができる。結果、ユーザの操作性が向上し、ユーザの入力作業の効率向上が期待される。
<第4の実施形態>
 本実施形態の電子機器は、第1乃至第3の実施形態の構成を基本とする。本実施形態の電子機器10は、ディスプレイがタッチパネルディスプレイでなく、キーボードやマウスを介してユーザ入力を受付ける点で、第1乃至第3の実施形態と異なる。本実施形態の電子機器10の機能ブロック図の一例は、第1乃至第3の実施形態同様、図2で示される。
 表示部11は、択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示する。図7に、表示部11がディスプレイ40に入力画面を表示する一例を示す。当該入力画面は、複数の入力欄41乃至45を有する。また、表示部11は、入力画面に重ねて、カーソル46を表示する。
 入力受付部13は、マウスやキーボードを介して、方向情報及び長さ情報の少なくとも一方の入力を受付ける。例えば、入力受付部13は、カーソル46を移動させる操作により、方向情報及び長さ情報の少なくとも一方の入力を受付けてもよい。この場合、カーソル46が移動した方向を示す方向情報や、カーソル46が移動した距離を示す長さ情報が作成される。なお、その他の例として、入力受付部13は、所定の操作(例:マウスの左クリック、キーボードの所定のボタンの押下)を維持したままカーソル46を移動させる操作により、方向情報及び長さ情報の少なくとも一方の入力を受付けてもよい。この場合、所定の操作を維持したままカーソル46が移動した方向を示す方向情報や、カーソル46が移動した距離を示す長さ情報が作成される。
 フォーカス位置決定部12の構成は、第1及び第3の実施形態と同様である。
 以上説明した本実施形態によれば、第1及び第3の実施形態と同様の作用効果を実現することができる。
 以下、参考形態の例を付記する。上述した実施形態及びその変形例の一部又は全部は、以下の付記のようにも記載されうる。しかしながら、上述した実施形態及びその変形例により例示的に説明した本発明は、以下には限られない。
 1. 択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示する表示手段と、
 複数の前記フォーカス対象の中のいずれにフォーカスをあてるか決定するフォーカス位置決定手段と、
 方向を示す方向情報の入力を受付ける入力受付手段と、を有し、
 前記フォーカス位置決定手段は、第1の前記フォーカス対象にフォーカスがあたっている状態で、前記入力受付手段が前記方向情報の入力を受付けると、前記方向情報に基づいて、前記第1のフォーカス対象から他の前記フォーカス対象にフォーカス位置を変更する電子機器。
2. 1に記載の電子機器において、
 前記フォーカス位置決定手段は、前記入力画面上において前記第1のフォーカス対象よりも前記方向情報で示される方向の先に位置する他の前記フォーカス対象に、フォーカス位置を変更する電子機器。
3. 1又は2に記載の電子機器において、
 前記入力受付手段は、前記方向情報に加えて、長さを示す長さ情報の入力を受付け、
 前記フォーカス位置決定手段は、第1の前記フォーカス対象にフォーカスがあたっている状態で、前記入力受付手段が前記方向情報及び前記長さ情報の入力を受付けると、前記方向情報及び前記長さ情報に基づいて、前記第1のフォーカス対象から他の前記フォーカス対象にフォーカス位置を変更する電子機器。
4. 3に記載の電子機器において、
 前記フォーカス位置決定手段は、前記入力画面上において前記第1のフォーカス対象よりも前記方向情報で示される方向の先に位置する他の前記フォーカス対象の中の、前記第1のフォーカス対象からの距離が前記長さ情報で示される長さに近い前記他のフォーカス対象に、フォーカス位置を変更する電子機器。
5. 1から4のいずれかに記載の電子機器において、
 前記ディスプレイはタッチパネルディスプレイであり、
 前記入力受付手段は、前記タッチパネルディスプレイの外周沿いの所定の一部エリア内でのタッチ操作により、前記方向情報の入力を受付ける電子機器。
6. 3又は4に記載の電子機器において、
 前記ディスプレイはタッチパネルディスプレイであり、
 前記入力受付手段は、前記タッチパネルディスプレイの外周沿いの所定の一部エリア内でのタッチ操作により、前記方向情報及び前記長さ情報の入力を受付ける電子機器。
7. 6に記載の電子機器において、
 前記入力受付手段は、前記所定のエリア内でタッチ位置を第1の長さ分スライドさせる入力操作を受付けた場合、前記第1の長さを所定のルールに従い拡張した第2の長さを示す前記長さ情報として入力を受付ける電子機器。
8. 7に記載の電子機器において、
 前記入力受付手段は、前記所定のエリア内でのタッチ面積の大きさに応じて、前記第1の長さを拡張する程度を変更する電子機器。
9. コンピュータが、
 択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示する表示工程と、
 複数の前記フォーカス対象の中のいずれにフォーカスをあてるか決定するフォーカス位置決定工程と、
 方向を示す方向情報の入力を受付ける入力受付工程と、を実行し、
 前記フォーカス位置決定工程では、第1の前記フォーカス対象にフォーカスがあたっている状態で、前記入力受付工程において前記方向情報の入力を受付けると、前記方向情報に基づいて、前記第1のフォーカス対象から他の前記フォーカス対象にフォーカス位置を変更する電子機器の制御方法。
9-2. 9に記載の電子機器の制御方法において、
 前記フォーカス位置決定工程では、前記入力画面上において前記第1のフォーカス対象よりも前記方向情報で示される方向の先に位置する他の前記フォーカス対象に、フォーカス位置を変更する電子機器の制御方法。
9-3. 9又は9-2に記載の電子機器の制御方法において、
 前記入力受付工程では、前記方向情報に加えて、長さを示す長さ情報の入力を受付け、
 前記フォーカス位置決定工程では、第1の前記フォーカス対象にフォーカスがあたっている状態で、前記入力受付工程において前記方向情報及び前記長さ情報の入力を受付けると、前記方向情報及び前記長さ情報に基づいて、前記第1のフォーカス対象から他の前記フォーカス対象にフォーカス位置を変更する電子機器の制御方法。
9-4. 9-3に記載の電子機器の制御方法において、
 前記フォーカス位置決定工程では、前記入力画面上において前記第1のフォーカス対象よりも前記方向情報で示される方向の先に位置する他の前記フォーカス対象の中の、前記第1のフォーカス対象からの距離が前記長さ情報で示される長さに近い前記他のフォーカス対象に、フォーカス位置を変更する電子機器の制御方法。
9-5. 9から9-4のいずれかに記載の電子機器において、
 前記ディスプレイはタッチパネルディスプレイであり、
 前記入力受付工程では、前記タッチパネルディスプレイの外周沿いの所定の一部エリア内でのタッチ操作により、前記方向情報の入力を受付ける電子機器の制御方法。
9-6. 9-3又は9-4に記載の電子機器の制御方法において、
 前記ディスプレイはタッチパネルディスプレイであり、
 前記入力受付工程では、前記タッチパネルディスプレイの外周沿いの所定の一部エリア内でのタッチ操作により、前記方向情報及び前記長さ情報の入力を受付ける電子機器の制御方法。
9-7. 9-6に記載の電子機器の制御方法において、
 前記入力受付工程では、前記所定のエリア内でタッチ位置を第1の長さ分スライドさせる入力操作を受付けた場合、前記第1の長さを所定のルールに従い拡張した第2の長さを示す前記長さ情報として入力を受付ける電子機器の制御方法。
9-8. 9-7に記載の電子機器の制御方法において、
 前記入力受付工程では、前記所定のエリア内でのタッチ面積の大きさに応じて、前記第1の長さを拡張する程度を変更する電子機器の制御方法。
10. コンピュータを、
 択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示する表示手段、
 複数の前記フォーカス対象の中のいずれにフォーカスをあてるか決定するフォーカス位置決定手段、
 方向を示す方向情報の入力を受付ける入力受付手段、として機能させ、
 前記フォーカス位置決定手段に、第1の前記フォーカス対象にフォーカスがあたっている状態で、前記入力受付手段が前記方向情報の入力を受付けると、前記方向情報に基づいて、前記第1のフォーカス対象から他の前記フォーカス対象にフォーカス位置を変更させるプログラム。
10-2. 10に記載のプログラムにおいて、
 前記フォーカス位置決定手段に、前記入力画面上において前記第1のフォーカス対象よりも前記方向情報で示される方向の先に位置する他の前記フォーカス対象に、フォーカス位置を変更させるプログラム。
10-3. 10又は10-2に記載のプログラムにおいて、
 前記入力受付手段に、前記方向情報に加えて、長さを示す長さ情報の入力を受付けさせ、
 前記フォーカス位置決定手段に、第1の前記フォーカス対象にフォーカスがあたっている状態で、前記入力受付手段が前記方向情報及び前記長さ情報の入力を受付けると、前記方向情報及び前記長さ情報に基づいて、前記第1のフォーカス対象から他の前記フォーカス対象にフォーカス位置を変更させるプログラム。
10-4. 10-3に記載のプログラムにおいて、
 前記フォーカス位置決定手段に、前記入力画面上において前記第1のフォーカス対象よりも前記方向情報で示される方向の先に位置する他の前記フォーカス対象の中の、前記第1のフォーカス対象からの距離が前記長さ情報で示される長さに近い前記他のフォーカス対象に、フォーカス位置を変更させるプログラム。
10-5. 10から10-4のいずれかに記載のプログラムにおいて、
 前記ディスプレイはタッチパネルディスプレイであり、
 前記入力受付手段に、前記タッチパネルディスプレイの外周沿いの所定の一部エリア内でのタッチ操作により、前記方向情報の入力を受付けさせるプログラム。
10-6. 10-3又は10-4に記載のプログラムにおいて、
 前記ディスプレイはタッチパネルディスプレイであり、
 前記入力受付手段に、前記タッチパネルディスプレイの外周沿いの所定の一部エリア内でのタッチ操作により、前記方向情報及び前記長さ情報の入力を受付けさせるプログラム。
10-7. 10-6に記載のプログラムにおいて、
 前記入力受付手段に、前記所定のエリア内でタッチ位置を第1の長さ分スライドさせる入力操作を受付けた場合、前記第1の長さを所定のルールに従い拡張した第2の長さを示す前記長さ情報として入力を受付けさせるプログラム。
10-8. 10-7に記載のプログラムにおいて、
 前記入力受付手段に、前記所定のエリア内でのタッチ面積の大きさに応じて、前記第1の長さを拡張する程度を変更させるプログラム。
 以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
 この出願は、2013年9月20日に出願された日本出願特願2013-194996を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 1A  CPU
 2A  RAM
 3A  ROM
 4A  表示制御部
 5A  ディスプレイ
 6A  操作受付部
 7A  操作部
 8A  バス
 10  電子機器
 11  表示部
 12  フォーカス位置決定部
 13  入力受付部
 20  タッチパネルディスプレイ
 21  入力欄
 22  入力欄
 23  入力欄
 24  入力欄
 30  タッチ領域呼出部品
 31  タッチ領域
 32  操作対象
 40  ディスプレイ
 41  入力項目
 42  入力項目
 43  入力項目
 44  入力項目
 45  入力項目
 46  カーソル

Claims (10)

  1.  択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示する表示手段と、
     複数の前記フォーカス対象の中のいずれにフォーカスをあてるか決定するフォーカス位置決定手段と、
     方向を示す方向情報の入力を受付ける入力受付手段と、を有し、
     前記フォーカス位置決定手段は、第1の前記フォーカス対象にフォーカスがあたっている状態で、前記入力受付手段が前記方向情報の入力を受付けると、前記方向情報に基づいて、前記第1のフォーカス対象から他の前記フォーカス対象にフォーカス位置を変更する電子機器。
  2.  請求項1に記載の電子機器において、
     前記フォーカス位置決定手段は、前記入力画面上において前記第1のフォーカス対象よりも前記方向情報で示される方向の先に位置する他の前記フォーカス対象に、フォーカス位置を変更する電子機器。
  3.  請求項1又は2に記載の電子機器において、
     前記入力受付手段は、前記方向情報に加えて、長さを示す長さ情報の入力を受付け、
     前記フォーカス位置決定手段は、第1の前記フォーカス対象にフォーカスがあたっている状態で、前記入力受付手段が前記方向情報及び前記長さ情報の入力を受付けると、前記方向情報及び前記長さ情報に基づいて、前記第1のフォーカス対象から他の前記フォーカス対象にフォーカス位置を変更する電子機器。
  4.  請求項3に記載の電子機器において、
     前記フォーカス位置決定手段は、前記入力画面上において前記第1のフォーカス対象よりも前記方向情報で示される方向の先に位置する他の前記フォーカス対象の中の、前記第1のフォーカス対象からの距離が前記長さ情報で示される長さに近い前記他のフォーカス対象に、フォーカス位置を変更する電子機器。
  5.  請求項1から4のいずれか1項に記載の電子機器において、
     前記ディスプレイはタッチパネルディスプレイであり、
     前記入力受付手段は、前記タッチパネルディスプレイの外周沿いの所定の一部エリア内でのタッチ操作により、前記方向情報の入力を受付ける電子機器。
  6.  請求項3又は4に記載の電子機器において、
     前記ディスプレイはタッチパネルディスプレイであり、
     前記入力受付手段は、前記タッチパネルディスプレイの外周沿いの所定の一部エリア内でのタッチ操作により、前記方向情報及び前記長さ情報の入力を受付ける電子機器。
  7.  請求項6に記載の電子機器において、
     前記入力受付手段は、前記所定のエリア内でタッチ位置を第1の長さ分スライドさせる入力操作を受付けた場合、前記第1の長さを所定のルールに従い拡張した第2の長さを示す前記長さ情報として入力を受付ける電子機器。
  8.  請求項7に記載の電子機器において、
     前記入力受付手段は、前記所定のエリア内でのタッチ面積の大きさに応じて、前記第1の長さを拡張する程度を変更する電子機器。
  9.  コンピュータが、
     択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示し、
     第1の前記フォーカス対象にフォーカスがあたっている状態で、方向を示す方向情報の入力を受付けると、前記方向情報に基づいて、前記第1のフォーカス対象から他の前記フォーカス対象にフォーカス位置を変更することにより、複数の前記フォーカス対象の中のいずれにフォーカスをあてるか決定する
    電子機器の制御方法。
  10.  コンピュータに、
     択一的にフォーカスをあてられる複数のフォーカス対象を含む入力画面をディスプレイに表示する処理と、
     第1の前記フォーカス対象にフォーカスがあたっている状態で、方向を示す方向情報の入力を受付けると、入力された前記方向情報に基づいて、前記第1のフォーカス対象から他の前記フォーカス対象にフォーカス位置を変更することにより、複数の前記フォーカス対象の中のいずれにフォーカスをあてるか決定する処理と、を実行させるプログラムを記録した
    コンピュータ読み取り可能な記憶媒体。
PCT/JP2014/004782 2013-09-20 2014-09-17 電子機器、電子機器の制御方法及び記憶媒体 WO2015040861A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP14846719.4A EP3048516A4 (en) 2013-09-20 2014-09-17 Electronic device, method for controlling electronic device, and storage medium
CN201480050810.6A CN105556447A (zh) 2013-09-20 2014-09-17 电子设备、用于控制电子设备的方法和存储介质
US14/914,119 US20160210008A1 (en) 2013-09-20 2014-09-17 Electronic device, method for controlling electronic device, and storage medium
JP2015537560A JPWO2015040861A1 (ja) 2013-09-20 2014-09-17 電子機器、電子機器の制御方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013194996 2013-09-20
JP2013-194996 2013-09-20

Publications (1)

Publication Number Publication Date
WO2015040861A1 true WO2015040861A1 (ja) 2015-03-26

Family

ID=52688525

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/004782 WO2015040861A1 (ja) 2013-09-20 2014-09-17 電子機器、電子機器の制御方法及び記憶媒体

Country Status (5)

Country Link
US (1) US20160210008A1 (ja)
EP (1) EP3048516A4 (ja)
JP (1) JPWO2015040861A1 (ja)
CN (1) CN105556447A (ja)
WO (1) WO2015040861A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104935811A (zh) * 2015-05-29 2015-09-23 努比亚技术有限公司 一种调整方法及终端设备
JP2015225553A (ja) * 2014-05-28 2015-12-14 京セラ株式会社 携帯電子機器、携帯電子機器の制御方法およびプログラム
JP2017182152A (ja) * 2016-03-28 2017-10-05 京セラドキュメントソリューションズ株式会社 表示操作装置及び操作指示受付プログラム

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD923645S1 (en) * 2012-12-21 2021-06-29 Iconic Data Inc. Display screen or portion thereof with a graphical user interface
US9910842B2 (en) * 2015-08-12 2018-03-06 Captricity, Inc. Interactively predicting fields in a form
USD781342S1 (en) * 2015-11-13 2017-03-14 Adp, Llc Display screen with graphical user interface
USD791161S1 (en) * 2016-06-29 2017-07-04 Aetna Inc. Display screen with a payment graphical user interface
USD790580S1 (en) * 2016-06-30 2017-06-27 Aetna Inc. Display screen with a successful-payment graphical user interface
USD790579S1 (en) * 2016-06-30 2017-06-27 Aetna Inc. Display screen with a payment graphical user interface
USD790578S1 (en) * 2016-06-30 2017-06-27 Aetna, Inc. Display screen with a payment graphical user interface
USD842892S1 (en) * 2016-10-27 2019-03-12 Apple Inc. Electronic device with pair of display screens or portions thereof each with graphical user interface
USD927529S1 (en) 2019-01-11 2021-08-10 Apple Inc. Electronic device with pair of display screens or portions thereof each with graphical user interface
USD943624S1 (en) 2016-10-27 2022-02-15 Apple Inc. Electronic device with pair of display screens or portions thereof each with animated graphical user interface
USD860220S1 (en) * 2017-09-01 2019-09-17 Rockwell Collins, Inc. Display screen or portion thereof with graphical user interface
USD959459S1 (en) 2018-02-21 2022-08-02 Early Warning Services, Llc Display screen portion with graphical user interface
US10838598B2 (en) * 2018-06-03 2020-11-17 Apple Inc. Focus movement between virtual user interface elements and native user interface elements
USD902230S1 (en) * 2018-11-07 2020-11-17 Promontory MortgagePath LLC Computer display panel with a transitional graphical user interface
USD902231S1 (en) * 2018-11-07 2020-11-17 Promontory MortgagePath LLC Computer display panel with a transitional graphical user interface
USD906361S1 (en) 2018-11-07 2020-12-29 Promontory Fulfillment Services Llc Computer display panel with a graphical user interface for a mortgage application
USD932513S1 (en) 2018-11-07 2021-10-05 Promontory MortgagePath LLC Computer display panel with graphic user interface comprising a group of interest rate icons for a mortgage application
USD955423S1 (en) 2018-11-07 2022-06-21 Promontory MortgagePath LLC Computer display panel with graphical user interface for a mortgage application providing a factory list view
USD902957S1 (en) 2018-11-07 2020-11-24 Promontory MortgagePath LLC Computer display panel with a transitional graphical user interface
USD926796S1 (en) * 2018-11-19 2021-08-03 Verizon Patent And Licensing Inc. Display screen with an animated graphical user interface
USD912691S1 (en) * 2018-12-13 2021-03-09 Robinhood Markets, Inc. Display screen or portion thereof having a graphical user interface for button menus
USD898757S1 (en) * 2018-12-13 2020-10-13 Robinhood Markets, Inc. Display screen or portion thereof having an animated graphical user interface for list scrolling
USD912690S1 (en) * 2018-12-13 2021-03-09 Robinhood Markets, Inc. Display screen or portion thereof having a graphical user interface for option selection
USD898756S1 (en) * 2018-12-13 2020-10-13 Robinhood Markets, Inc. Display screen or portion thereof having an animated graphical user interface for list scrolling
USD913305S1 (en) * 2018-12-13 2021-03-16 Robinhood Markets, Inc. Display screen or portion thereof having a graphical user interface for option selection
USD917522S1 (en) * 2018-12-13 2021-04-27 Robinhood Markets, Inc Display screen or portion thereof having a graphical user interface for button menus
USD978170S1 (en) * 2019-06-19 2023-02-14 Life Technologies Corporation Fluorometer display screen with graphical user interface
USD961617S1 (en) * 2020-10-19 2022-08-23 Splunk Inc. Display screen or portion thereof having a graphical user interface for a process control editor
US11545040B2 (en) * 2021-04-13 2023-01-03 Rockwell Collins, Inc. MUM-T route emphasis

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282961A (ja) 2008-04-22 2009-12-03 Canon Inc 選択順序を変更可能な情報処理装置および制御方法
JP2011135525A (ja) * 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法、プログラム、制御対象機器および情報処理システム
JP2012088754A (ja) * 2010-10-15 2012-05-10 Sony Corp 情報処理装置、情報処理装置の入力制御方法及びプログラム
JP2012194727A (ja) * 2011-03-16 2012-10-11 Panasonic Corp 電子機器

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7134095B1 (en) * 1999-10-20 2006-11-07 Gateway, Inc. Simulated three-dimensional navigational menu system
US6693653B1 (en) * 2000-09-19 2004-02-17 Rockwell Collins, Inc. Method of assisting cursor movement toward a nearby displayed target
US7055108B2 (en) * 2001-07-13 2006-05-30 Wind River Systems, Inc. Directional focus manager
JP2004151987A (ja) * 2002-10-30 2004-05-27 Casio Comput Co Ltd 情報処理装置、及び情報処理方法、並びにプログラム
US7770118B2 (en) * 2006-02-13 2010-08-03 Research In Motion Limited Navigation tool with audible feedback on a handheld communication device having a full alphabetic keyboard
CN101316315A (zh) * 2007-05-28 2008-12-03 深圳Tcl工业研究院有限公司 一种焦点的快速定位方法及装置
CN100461084C (zh) * 2007-06-27 2009-02-11 中兴通讯股份有限公司 界面焦点对象的选择方法
JP2011054050A (ja) * 2009-09-03 2011-03-17 Sony Corp 情報処理装置、情報処理方法、プログラムおよび情報処理システム
JP2011054049A (ja) * 2009-09-03 2011-03-17 Sony Corp 情報処理装置、情報処理方法、プログラムおよび情報処理システム
JP2011243069A (ja) * 2010-05-19 2011-12-01 Sony Corp 情報処理システムおよび情報処理装置
US20120056989A1 (en) * 2010-09-06 2012-03-08 Shimane Prefectural Government Image recognition apparatus, operation determining method and program
US9268424B2 (en) * 2012-07-18 2016-02-23 Sony Corporation Mobile client device, operation method, recording medium, and operation system
JP5906984B2 (ja) * 2012-07-30 2016-04-20 カシオ計算機株式会社 表示端末装置及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282961A (ja) 2008-04-22 2009-12-03 Canon Inc 選択順序を変更可能な情報処理装置および制御方法
JP2011135525A (ja) * 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法、プログラム、制御対象機器および情報処理システム
JP2012088754A (ja) * 2010-10-15 2012-05-10 Sony Corp 情報処理装置、情報処理装置の入力制御方法及びプログラム
JP2012194727A (ja) * 2011-03-16 2012-10-11 Panasonic Corp 電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3048516A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225553A (ja) * 2014-05-28 2015-12-14 京セラ株式会社 携帯電子機器、携帯電子機器の制御方法およびプログラム
CN104935811A (zh) * 2015-05-29 2015-09-23 努比亚技术有限公司 一种调整方法及终端设备
CN104935811B (zh) * 2015-05-29 2018-11-16 努比亚技术有限公司 一种调整方法及终端设备
JP2017182152A (ja) * 2016-03-28 2017-10-05 京セラドキュメントソリューションズ株式会社 表示操作装置及び操作指示受付プログラム

Also Published As

Publication number Publication date
US20160210008A1 (en) 2016-07-21
EP3048516A4 (en) 2017-05-03
CN105556447A (zh) 2016-05-04
JPWO2015040861A1 (ja) 2017-03-02
EP3048516A1 (en) 2016-07-27

Similar Documents

Publication Publication Date Title
WO2015040861A1 (ja) 電子機器、電子機器の制御方法及び記憶媒体
JP4763695B2 (ja) タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
JP5056809B2 (ja) 情報処理装置およびコンピュータプログラム
WO2016098418A1 (ja) 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム
KR20130093043A (ko) 터치 및 스와이프 내비게이션을 위한 사용자 인터페이스 방법 및 모바일 디바이스
US20090179867A1 (en) Method for providing user interface (ui) to display operating guide and multimedia apparatus using the same
EP2474896A2 (en) Information processing apparatus, information processing method, and computer program
CN101630222B (zh) 一种用户菜单处理方法、系统和设备
AU2014287956B2 (en) Method for displaying and electronic device thereof
JP5851326B2 (ja) 装置、方法、及びプログラム
US10474346B2 (en) Method of selection of a portion of a graphical user interface
MX2008014057A (es) Tecla de multiples funciones con desplazamiento.
JP2012242847A (ja) 表示装置、ユーザインタフェース方法及びプログラム
JP6225911B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2012194842A (ja) 情報処理装置、情報処理方法およびプログラム
WO2011039699A1 (en) Access to control of multiple editing effects
US20140132519A1 (en) Method and electronic device for providing virtual keyboard
JP2013546066A (ja) デバイスとのユーザのタッチ及び非タッチベースのインタラクション
JP2019505024A (ja) タッチ感知面−ディスプレイによるジェスチャー制御式インタラクティブ方法及び装置
JP6458751B2 (ja) 表示制御装置
KR20150012396A (ko) 입력 처리 방법 및 그 전자 장치
WO2013161170A1 (ja) 入力装置、入力支援方法及びプログラム
JP2013200680A (ja) 装置、方法、及びプログラム
JP2015050755A (ja) 情報処理装置、制御方法、及びプログラム
JP6221523B2 (ja) 電子機器、電子機器の制御方法及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480050810.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14846719

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015537560

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014846719

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14914119

Country of ref document: US

Ref document number: 2014846719

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE