WO2010044151A1 - Selection input accepting program, information processing device and selection input accepting method - Google Patents

Selection input accepting program, information processing device and selection input accepting method Download PDF

Info

Publication number
WO2010044151A1
WO2010044151A1 PCT/JP2008/068653 JP2008068653W WO2010044151A1 WO 2010044151 A1 WO2010044151 A1 WO 2010044151A1 JP 2008068653 W JP2008068653 W JP 2008068653W WO 2010044151 A1 WO2010044151 A1 WO 2010044151A1
Authority
WO
WIPO (PCT)
Prior art keywords
icon
input
selection
display screen
trajectory
Prior art date
Application number
PCT/JP2008/068653
Other languages
French (fr)
Japanese (ja)
Inventor
直紀 風越
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2008/068653 priority Critical patent/WO2010044151A1/en
Publication of WO2010044151A1 publication Critical patent/WO2010044151A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Definitions

  • the present invention relates to a selection input reception program, an information processing apparatus, and a selection input reception method, and more particularly to a selection input reception program, an information processing apparatus, and a selection input reception method for receiving an input for selecting an icon.
  • GUI Graphic User Interface
  • an operating system OS
  • an operation screen and outputs an image signal indicating the operation screen to a display device (monitor) connected to the computer.
  • the user can easily operate the computer by intuitively operating input devices such as a keyboard and a mouse while viewing the operation screen displayed on the display device.
  • the present invention has been made in view of the above points, and a selection input reception program, an information processing apparatus, and a selection input reception method that are improved in operability when an icon is selected in a device that selects an icon with a pointing device.
  • the purpose is to provide.
  • the disclosed selection input receiving program causes a computer to detect a position input on a display screen by a pointing device, a trajectory acquiring means for acquiring a trajectory of the position detected by the detecting means, and a trajectory acquiring means.
  • Region determining means for determining an area surrounded by the acquired trajectory, determining whether or not an icon displayed on the display screen exists in the area determined by the region determining means; If the icon displayed on the display screen is present in the display area, the icon is made to function as selection determination means for selecting the icon in the area as the selected selection icon.
  • the position input on the display screen is detected by the detecting means.
  • the locus of the position is obtained by the locus acquisition means.
  • a region surrounded by the locus is determined as a region by the region determination means.
  • the selection determining means determines whether or not an icon exists in the area. If an icon exists, the icon in the area is determined as the selected icon.
  • a user can operate smoothly when selecting an icon with a pointing device, and operability when selecting an icon can be improved.
  • FIG. 1 is a diagram showing an outline of the present embodiment.
  • the information processing apparatus 1 illustrated in FIG. 1 is connected to a display screen 21 included in the pointing device 2 and displays character information and image information generated by the OS and applications on the display screen 21 based on user operations.
  • the information processing apparatus 1 includes an icon display unit 1a, a detection unit 1b, a trajectory acquisition unit 1c, an area determination unit 1d, and a selection determination unit 1e. Further, the information processing apparatus 1 is realized by a computer that functions as the detection unit 1b, the locus acquisition unit 1c, the region determination unit 1d, and the selection determination unit 1e by the selection input receiving program.
  • the icon display means 1a displays the icon 21a on the display screen 21.
  • the user selects and operates the icon 21a with the input pen 22 of the pointing device 2 to move, copy, and delete the file indicated by the icon 21a to the information processing apparatus 1 or start the application indicated by the icon 21a. Can be executed.
  • the detecting means 1b detects the position input on the display screen 21. The input of this position is performed by the user operating the pointing device 2. As a result, the position input by the user operating the pointing device 2 is detected.
  • the trajectory acquisition unit 1c acquires the trajectory 21b of the position detected by the detection unit 1b. Thereby, the change in the position input by the user operating the pointing device 2 is acquired as a locus 21b.
  • the region determination unit 1d determines the region surrounded by the locus 21b acquired by the locus acquisition unit 1c as the region 21c. As a result, the range input by the user operating the pointing device 2 to select the icon 21a is determined.
  • the selection determination unit 1e determines whether or not the icon 21a displayed on the display screen 21 exists in the region 21c determined by the region determination unit 1d, and is displayed on the display screen 21 in the region.
  • the icon 21a in the area 21c is set as the selected selection icon. Thereby, an icon is selected based on an input operation by the user's pointing device 2.
  • the pointing device 2 has a display screen 21 and an input pen 22.
  • the display screen 21 is a display screen that displays information output from the information processing apparatus 1.
  • the pointing device 2 is an input device for touching an input surface and inputting a position, such as an input tablet or a touch panel.
  • the input pen 22 can input a position when the user touches with a finger or an input pen. Further, the input pen 22 can continuously acquire the input position.
  • the input pen 22 has a display screen 21 and inputs a position by touching the display screen 21.
  • the input pen 22 is not limited to this, and the display screen 21 and an input surface (not shown) for receiving position input by the input pen 22 may be separate.
  • the position input by the input surface and the input pen 22 is displayed on the display screen 21 as a pointer. The user inputs a position with the input pen 22 on the input surface while referring to the pointer displayed on the display screen 21.
  • the icon 21a is displayed on the display screen 21 by the icon display means 1a.
  • the position input by the pointing device 2 is detected by the detection means 1b.
  • the locus 21b is obtained by the locus obtaining means 1c.
  • the area surrounded by the locus 21b is determined as the area 21c by the area determining means 1d.
  • the selection determination unit 1e determines whether or not the icon 21a exists in the area 21c. If the icon 21a exists, the icon 21a in the area 21c is determined as the selection icon.
  • the information processing apparatus 1 determines whether the selection determining unit 1e determines whether or not the icon 21a exists in the area 21c surrounded by the locus 21b of the position input by the pointing device 2, and the area 21c By determining the icon 21a as the selected icon, it is possible to operate smoothly when the icon 21a is selected by the input pen 22, and it is possible to improve the operability when selecting the icon.
  • FIG. 2 is a hardware configuration diagram of the information processing apparatus.
  • the information processing apparatus 100 is entirely controlled by a CPU (Central Processing Unit) 101.
  • a random access memory (RAM) 102, a hard disk drive (HDD) 103, a graphics processing device 104, an input interface 105, and a communication interface 106 are connected to the CPU 101 via a bus 107.
  • RAM Central Processing Unit
  • HDD hard disk drive
  • a graphics processing device 104 an input interface 105
  • a communication interface 106 are connected to the CPU 101 via a bus 107.
  • the RAM 102 temporarily stores at least a part of OS programs and applications to be executed by the CPU 101.
  • the RAM 102 stores various data necessary for processing by the CPU 101.
  • the HDD 103 stores data handled by the OS and applications on the information processing apparatus 100.
  • a display device such as the input tablet 200 can be connected to the graphic processing device 104.
  • the graphic processing device 104 can display an image on a screen of a display device such as the input tablet 200 in accordance with a command from the CPU 101.
  • the graphic processing device 104 and the input tablet 200 are connected by, for example, a serial communication cable, and control signals and image signals are alternately transmitted and received.
  • the input interface 105 can be connected to input devices such as an input tablet 200, a keyboard 300, and a mouse 400.
  • the input interface 105 outputs a signal sent from an input device such as the input tablet 200 to the CPU 101 via the bus 107.
  • the communication interface 106 can be connected to a network (not shown).
  • the communication interface 106 can send and receive data to and from other computers via a network.
  • the input tablet 200 has a monitor (not shown) on the upper surface, and can display information on the display screen of the monitor according to the operation of the information processing apparatus 100. Further, the input tablet 200 is displayed on a display screen by a user, for example, by detecting contact with the input pen 201 or a finger on the display screen by detecting a change in pressure or static electricity of the display screen provided on the surface. It is possible to accept input such as selecting an icon.
  • FIG. 3 is a block diagram illustrating a configuration of the information processing apparatus.
  • the information processing apparatus 100 displays icons (not shown) displayed on the display screen (not shown) of the input tablet 200 based on the positions input by the user operating the input tablet 200 and the input pen 201.
  • a computer that accepts a selection and executes a process based on a selected icon.
  • the information processing apparatus 100 receives an icon selection input in order to receive an icon display unit 111, a detection unit 112, a trajectory acquisition unit 113, an area determination unit 114, a selection determination unit 115, a trajectory display unit 116, and a selection release determination unit 117.
  • the detection unit 112 includes a start detection unit 112a and an end detection unit 112b.
  • pointing devices such as the input tablet 200 and the input pen 201 can be connected to the information processing apparatus 100.
  • the icon display unit 111 highlights the selection icon determined by the selection determination unit 115 on the display screen, and switches the icon canceled by the selection cancellation determination unit 117 from the highlighted display to the normal display on the display screen. Display. By selecting and operating this icon, the user can cause the information processing apparatus 100 to move, copy, delete, start an application indicated by the icon, or the like.
  • the detecting unit 112 detects an input of a position on the display screen by the pointing device. At this time, the detection unit 112 acquires the coordinates of the position on the display screen input by the pointing device, and stores the coordinate information (details will be described later in FIG. 4) indicating the acquired coordinates in the coordinate information storage unit 160. As a result, the position input by the user operating the pointing device is detected.
  • the start detection unit 112a detects the start of position input by the pointing device and the start position of the position input.
  • the end detection unit 112b detects the end of the position input by the pointing device and the end position of the position input. These detected positions are stored in the coordinate information storage unit 160 as coordinate information.
  • the trajectory acquisition unit 113 acquires a trajectory of a position from the input start position of the position detected by the start detection unit 112a to the input end position of the position detected by the end detection unit 112b. At this time, the trajectory acquisition unit 113 acquires the trajectory of the position detected by the detection unit 112 based on the coordinates indicated by the coordinate information stored in the coordinate information storage unit 160. Thereby, the change in the position input by the user by operating the pointing device is acquired as a trajectory.
  • the trajectory acquisition unit 113 acquires a trajectory based on the input when the input start position of the position detected by the start detection unit 112a is not on the icon displayed on the display screen. Accordingly, when the user inputs a position other than the icon on the display screen of the input tablet 200 with the input pen 201, the user can select an icon by area (described later in FIGS. 12 and 13).
  • the region determination unit 114 determines a region surrounded by the trajectory acquired by the trajectory acquisition unit 113. At this time, the area determination unit 114 connects the start position of the trajectory detected by the start detection unit 112a and the end position of the trajectory detected by the end detection unit 112b with a straight line, and forms a closed area between the trajectory and the straight line. , Confirm the formed closed region. As a result, a range input by the user operating the pointing device to select an icon is determined.
  • the selection determination unit 115 determines whether or not the icon displayed on the display screen exists in the region determined by the region determination unit 114, and when the icon displayed on the display screen exists in the region.
  • the icon in the area is the selected selection icon. Thereby, an icon is selected based on an input operation by the user with the input pen 201.
  • the selection determination unit 115 selects a plurality of icons (described later in FIG. 13). Thereby, the user can select a plurality of icons by one operation. Further, the selection determination unit 115 cancels the selection of the selection icon executed by the selection icon processing execution unit 118 (described later in FIG. 16). Thereby, the user can cancel the selection of the icon once selected.
  • the trajectory display unit 116 displays the trajectory acquired by the trajectory acquisition unit 113 on the display screen.
  • the user can easily control the trajectory with the input pen 201 by moving the input pen 201 while inputting the position while checking the trajectory displayed on the display screen. For this reason, the operability of forming the region where the icon is selected or deselected is improved.
  • the selection cancellation determination unit 117 determines whether or not the selection icon determined by the selection determination unit 115 exists in the region determined by the region determination unit 114, and the selection icon determined by the selection determination unit 115 is If it exists, the selection icon in the area is deselected. Thereby, the selection of the icon is released based on the input operation by the user with the input pen 201.
  • the selection icon process execution part 118 performs the process according to a selection icon. Thereby, processing based on the icon selected by the user by the information processing apparatus 100 is executed.
  • the operation display unit 119 accepts an input operation for instructing a process to be executed based on the icon determined to be selected by the selection determination unit 115 when the end detection unit 112b detects the end of position input. (Described later in FIG. 14) is displayed on the display screen.
  • the menu functions as operation means.
  • the coordinate information storage unit 160 acquires the coordinates of the position on the display screen by the input tablet 200 and the input pen 201, and stores the coordinate information indicating the acquired coordinates.
  • the input tablet 200 and the input pen 201 are used as a pointing device.
  • the pointing device is an input device such as an input tablet, a touch panel, and a dedicated input pen.
  • the input tablet 200 has a display screen that can accept position input.
  • the input pen 201 can input a position to the input tablet 200.
  • the input tablet 200 can input a position when the user touches with the finger or the input pen 201. Further, the input tablet 200 can continuously acquire the position input by the input pen 201 operated by the user.
  • the input tablet 200 has a display screen, and the user inputs a position by touching the finger or the input pen 201 on the display screen.
  • the pointing device is not limited to the input tablet 200 and the input pen 201, and other pointing devices such as a touch panel may be used.
  • the pointing device may have a display screen and an input part that are separate. In this case, the position input by the pointing device is displayed as a pointer on the display screen, and the user inputs the position to the input tablet or the like of the pointing device while referring to the pointer displayed on the display screen.
  • the icon when the user selects an icon, the icon is not directly tapped, but as will be described in detail later with reference to FIG. 13, “operate the input pen 201 so that the locus surrounds the selected icon”. Thus, selection of those icons is inputted.
  • the line drawn on the display screen by the operation surrounding the icon does not need to be a curve forming a completely closed region, and if the start point and end point of the locus are not in contact, the start point The region is closed by complementing the trajectory with a line (for example, a complementary straight line) connecting the end point and the end point.
  • the user does not need to operate the input pen 201 so that the icon to be selected is completely surrounded by the area, and the outer periphery of the area.
  • an area of a certain trajectory and a line connecting the start point to the end point includes an area with a certain size or more of the icon, it is regarded as “selected (or deselected)”.
  • processing executed by tapping the input pen 201 using a menu or the like for example, the file indicated by the icon
  • "Copy”, "Delete”, “Move”, etc. can be specified.
  • the process is designated by the menu
  • the corresponding process is executed for the selected icon.
  • the menu disappears from the screen and disappears at the start of processing execution.
  • the icon can be handled more intuitively. .
  • FIG. 4 is a diagram showing the configuration of the coordinate table.
  • a coordinate table 161 illustrated in FIG. 4 is created and managed by the information processing apparatus 100.
  • the coordinate table 161 is a table that stores coordinate information indicating the coordinates of the position input by the user acquired by a pointing device such as the input tablet 200 (described above in FIG. 2) connected to the information processing apparatus 100.
  • the coordinate table 161 is stored in the coordinate information storage unit 160.
  • the coordinate table 161 is provided with “operation contents”, “data name”, and “data value”. Information arranged in the horizontal direction of each item is associated with each other to constitute coordinate information.
  • the operation content indicates the operation performed by the user with the pointing device when acquiring the data.
  • the operation content includes, for example, “pen down” indicating that the user has started inputting the position on the input tablet 200 with the input pen 201 (described above in FIG. 2), and the user inputs the position while inputting the position on the input tablet 200.
  • “Pen dragging” indicating that the pen 201 is being moved, and the input of the position by the input tablet 200 is terminated by lifting the input pen 201 that is in contact with the input tablet 200 and releasing it from the input tablet 200.
  • the data name indicates the name of data acquired from the operation performed with the pointing device.
  • the data name includes, for example, “(SX, SY)” indicating the X coordinate data and the Y coordinate data name of the position (start point) acquired at the time of pen down, and the X of the position acquired nth during the pen drag. “(Xn, Yn)” indicating the coordinate data and the Y coordinate data name, “(EX, EY)” indicating the X coordinate data and the Y coordinate data name of the position (end point) acquired at the time of pen-up. is there.
  • This coordinate information indicates the position input by the pointing device and the locus based on the coordinate information. Further, an area where an icon is selected and the selection of the icon is canceled is determined based on the locus.
  • a complementary line is added to the locus and the area is closed.
  • the trajectory start point (coordinates are (SX, SY)) and end point (coordinates are (EX, EY)). Tie with.
  • the start point and end point of the region are connected by the complementary straight line.
  • a closed region for selecting an icon is formed in this way.
  • FIG. 5 is a flowchart showing a procedure of standby mode processing.
  • the information processing apparatus 100 detects pen-down of the input pen 201 through this standby mode process, and determines whether or not the icon is directly operated by the input pen 201. Next, based on the determination, it is determined whether to perform a normal process or to shift to a selected mode process in which an area is determined and an icon is selected.
  • This standby mode process is always executed in the information processing apparatus 100 in order to constantly monitor the operation of the input tablet 200 and the input pen 201.
  • the present invention is not limited to this, and the standby mode process may be executed periodically at regular intervals.
  • the standby mode process will be described.
  • Step S11 The start detection unit 112a (described above in FIG. 3) of the detection unit 112 determines whether or not the pen-down of the input pen 201 has been detected. If pen-down is detected, the process proceeds to step S12. On the other hand, if the pen-down is not detected, the process of step S11 is repeated until the pen-down is detected. At this time, the detection unit 112 stores the pen-down coordinates as coordinate information in the coordinate information storage unit 160 (described above in FIG. 3).
  • Step S12 The trajectory acquisition unit 113 determines whether or not the pen-down position detected in step S11 in the input tablet 200 is on an icon displayed on a display screen of a monitor (not shown) of the input tablet 200. judge. If the pen-down position is on the icon, the process proceeds to step S15. On the other hand, if the pen-down position is not on the icon, the process proceeds to step S13.
  • Step S13 The trajectory acquisition unit 113 proceeds to a selected mode process (described later in FIG. 6) in which an icon is selected according to an area.
  • Step S14 After returning from the command reception mode process (described later in FIG. 7) through the selected mode process transferred in step S13, the process proceeds to step S11. Thereby, the start detection part 112a detects the pen down of the input pen 201 with respect to the input tablet 200 by the user.
  • the selection determination unit 115 executes processing based on selection of a normal icon. Specifically, as will be described later with reference to FIG. 11, when the input pen 201 is pen-down at a position inside the icon, the icon is selected as usual. Next, processing designated by the user through a menu (not shown) or the like is performed.
  • FIG. 6 is a flowchart showing the procedure of the selected mode process.
  • the information processing apparatus 100 acquires and detects a trajectory for selection based on the pen-down of the input pen 201 detected by the standby mode process (described above in FIG. 5) by the selected mode process.
  • a region is determined based on the pen-up of the input pen 201, a selection icon is determined from the determined region, and a menu for receiving an input of a process to be executed is displayed.
  • This selected mode process is executed by shifting from step S13 of the standby mode process.
  • the selected mode process will be described.
  • the detection unit 112 detects the coordinates of the position input by the user with the input pen 201.
  • the detected coordinates are stored as coordinate information in the coordinate information storage unit 160 (described above in FIG. 3).
  • the detection unit 112 compares the coordinate information acquired last time (at the time of pen-down or immediately before movement) with the coordinate information acquired this time, and if the coordinates are the same, It is not stored in the coordinate information storage unit 160. Thereby, coordinate information is memorize
  • the trajectory acquisition unit 113 acquires a trajectory for selecting an icon from the coordinate information about the pen-down stored up to that point stored in the coordinate information storage unit 160.
  • the trajectory display unit 116 displays the trajectory for selecting the icon acquired in step S22 on the display screen of the input tablet 200. The display of the icon selection locus will be described later in detail with reference to FIG.
  • Step S24 The end detection unit 112b (described above in FIG. 3) included in the detection unit 112 determines whether pen-up of the input pen 201 has been detected. If pen-up is detected, the process proceeds to step S25. At this time, the detection unit 112 stores pen-up coordinates as coordinate information in the coordinate information storage unit 160 (described above in FIG. 3). On the other hand, if pen-up is not detected, the process proceeds to step S21.
  • the trajectory acquisition unit 113 acquires the trajectory from the coordinate information about the pen-up input stored in the coordinate information storage unit 160 in Step S21 and Step S24.
  • the area determination unit 114 connects the coordinates of the input start position and the end position indicated by the coordinate information stored in the coordinate information storage unit 160 to form a closed area, and determines the area. . This area will be described later in detail in FIG.
  • Step S26 The selection determination unit 115 determines whether or not the displayed icon is within the region determined by the region determination unit 114 in step S25, and selects an icon that has not been selected among the icons in the region. The selected icon is the selected icon.
  • the selection cancellation determination unit 117 determines whether or not the displayed icon is within the region determined by the region determination unit 114 in step S25, and the selection icon that has already been selected among the icons in the region. Cancel the selection.
  • Step S27 The operation display unit 119 displays, on the display screen of the monitor of the input tablet 200, a menu for accepting an input related to the processing based on the selection icon determined in Step S26. Thereafter, the process proceeds to a command reception mode process (described later in FIG. 7). This menu will be described in detail later with reference to FIG.
  • FIG. 7 is a flowchart illustrating a procedure of command reception mode processing.
  • the information processing apparatus 100 detects the user's pen-down by the command reception mode process, and is selected from the menu (described later in FIG. 14) displayed by the selected mode process (described above in FIG. 6). It is determined whether or not to execute the instructed process or to shift to the selected mode process again and repeat the selection of the icon.
  • This command reception mode process is executed by shifting from the selected mode process. The command reception mode process will be described below.
  • Step S31 The start detection unit 112a (described above in FIG. 3) of the detection unit 112 determines whether or not the pen-down of the input pen 201 has been detected. If pen down is detected, the process proceeds to step S32. On the other hand, if the pen-down is not detected, the process of step S31 is repeated until the pen-down is detected. At this time, the detection unit 112 stores the pen-down coordinates as coordinate information in the coordinate information storage unit 160 (described above in FIG. 3).
  • Step S32 The operation display unit 119 (described above in FIG. 3) determines whether or not any of the menu items has been tapped in the input in which the pen down is detected in Step S31 of the input tablet 200, that is, the pen down and Whether or not the pen-up is performed and the pen-down position is on any item of the menu displayed on the display screen of the monitor (not shown) of the input tablet 200 in step S27 of the selected mode process Judge about. If the menu is tapped, the process proceeds to step S33. On the other hand, if the menu is not tapped, the process proceeds to step S35.
  • Step S33 The selection icon processing execution unit 118 determines that the menu item displayed at the pen-down coordinates detected by the detection unit 112 in Step S32 and the selection determination unit 115 (described above in FIG. 3) have selected. The process based on the selected icon is executed. Thereby, the process selected by the user from the menu is executed.
  • Step S34 The operation display unit 119 erases the menu displayed on the display screen of the monitor (not shown) of the input tablet 200 in step S27 of the selected mode process. Thereafter, in order to accept an input for selecting a new icon, the process proceeds to a standby mode process (described above in FIG. 5).
  • Step S35 The operation display unit 119 erases the menu displayed on the display screen of the monitor (not shown) of the input tablet 200 in step S27 of the selected mode process. Thereafter, in order to accept an additional input for selecting an icon, the process proceeds to a selection mode process.
  • FIG. 8 to FIG. 10 are diagrams showing the determination as to whether or not the icon is within the area.
  • the determination of whether or not the icon 211 is within the area 212 will be described.
  • An icon 211 illustrated in FIG. 8 is an icon displayed on a monitor (not illustrated) included in the input tablet 200.
  • determination of whether or not the icon 211 is within the area 212 on the monitor will be described.
  • the coordinates of the icon center 211a which is the center of the icon 211, are (IX, IY).
  • the height of the icon 211 is H and the width is W.
  • the coordinates of the icon upper left 211b which is a point at the upper left corner of the icon 211, are indicated by "(IX-W / 2, IY-H / 2)”.
  • the coordinates of the icon lower right 211c which is a point at the lower right corner of the icon, are indicated by “(IX + W / 2, IY + H / 2)”.
  • the coordinates of the upper right corner of the icon (not shown), which is the upper right corner point of the icon, are indicated by “(IX + W / 2, IY ⁇ H / 2)”.
  • the coordinates of the lower left corner of the icon (not shown), which is the lower left corner point of the icon, are indicated by “(IX ⁇ W / 2, IY + H / 2)”. All points in the icon are included in the range of “(IX ⁇ W / 2, IY ⁇ H / 2) to (IX + W / 2, IY + H / 2)”.
  • the area 212 is an area surrounded by coordinate trajectories “(SX, SY) to (Xn, Yn) to (EX, EY)” of positions input by the user with the input pen 201 to the input tablet 200.
  • coordinate trajectories “(SX, SY) to (Xn, Yn) to (EX, EY)” of positions input by the user with the input pen 201 to the input tablet 200.
  • the icon 211 is determined to be selected (is the selected icon). if the point on the coordinates within the area 212 among all the points on the coordinates in the icon 211 is less than 50%, it is determined that the icon 211 is not selected.
  • the icon is in the area 212 based on whether or not the point on all coordinates in the icon 211 is in the area 212.
  • the present invention is not limited to this. A part of the coordinates of the icon 211 may be extracted, and determination may be made based on whether or not the extracted point is within the region 212.
  • the icon is selected when 50% or more of the points on the coordinates in the icon are within the area 212.
  • the present invention is not limited to this, and it is determined that the icon 211 is selected.
  • the ratio at which the point on the coordinate in the icon 211 is in the area 212 can be set to an arbitrary ratio.
  • the determination as to whether or not each point of the icon 211 is within the area 212 will be described.
  • the display region of the display screen of the monitor (not shown) of the input tablet 200 is determined from that point.
  • the number of intersections between the straight line and the locus surrounding the area 212 is counted, and the counted number is an even number (“0 It is judged by whether it is "includes" or an odd number.
  • this determination will be described using a point 211d which is one of the points inside the icon 211.
  • a straight line is drawn from the point 211d in the right direction, the number of intersections with the trajectory surrounding the region 212 is zero. Therefore, since the intersection of the straight line and the trajectory is an even number, the point 211d is determined to be outside the region 212.
  • the point 211e which is another point in the icon 211, draws a straight line in the right direction, the number of intersections with the locus surrounding the region 212 is two. Therefore, since the intersection of the straight line and the locus is an even number, the point 211e is determined to be outside the region 212.
  • the point 211f which is still another point in the icon 211, draws a straight line in the right direction
  • the number of intersections with the locus surrounding the region 212 is 1. Therefore, since the intersection of the straight line and the trajectory is an odd number, the point 211f is determined to be within the region 212.
  • FIG. 11 is a diagram showing a file window during normal selection.
  • a file window 230 shown in FIG. 11 is a window displayed on the display screen of the monitor (not shown) of the input tablet 200 connected to the information processing apparatus 100 (described above in FIG. 2).
  • the icon display area 231 displays a plurality of icons indicating files stored in the HDD 103 (described above in FIG. 2) or the like.
  • one of the displayed icons is selected with the input pen 201 by the user.
  • the selected icon is highlighted as in the highlighted display 231a. The user can recognize that the icon is selected and the selected icon by this highlighting 231a.
  • the user can select an icon by pen-downing the input pen 201 onto the input tablet 200 on the icon displayed in the icon display area 231. Also, the user can move, copy, etc. the icon by dragging the input pen 201 pen-down on the icon. Further, by tapping the selected icon with the input pen 201, the user can open, for example, a file indicated by the icon or activate an application indicated by the icon.
  • the user can select one icon and cause the information processing apparatus 100 to execute processing related to the selected icon.
  • the icon is emphasized by overlapping and displaying an area indicated by diagonal lines.
  • the present invention is not limited to this. You may emphasize by other display methods, such as a shading display. The same applies to FIGS. 12 to 16.
  • a file window 240 shown in FIG. 12 is a window displayed on the display screen of the monitor (not shown) of the input tablet 200 connected to the information processing apparatus 100 (described above in FIG. 2), as in FIG. It has an icon display area 241 in which a plurality of icons indicating files stored in the HDD 103 (described above in FIG. 2) of the apparatus 100 are displayed.
  • the user pens down the input pen 201 onto the input tablet 200 with respect to the blank portion on the icon display area 241, so that the information processing apparatus 100 according to the present embodiment selects from the standby mode processing.
  • the process proceeds to the middle mode process (described above in steps S12 and S13 in FIG. 5).
  • the user can simultaneously select a plurality of icons with the input pen 201 as shown in FIG.
  • the icon display area 251 of the file window 250 shown in FIG. 13 is drawn with the user's input pen 201 by performing an operation of surrounding one or more icons selected on the input tablet 200 by the user using the input pen 201.
  • the icon selected by surrounding it with the locus 252b and the supplementary straight line 253b is highlighted as in the highlighted display 251b.
  • the locus 252b is displayed as a solid line on the icon display area 251 of the file window 250.
  • the locus 252b changes as the user moves the input pen 201 on the input tablet 200 to change the position where the user is inputting, and a curve traced from the pen down to the current input position in real time. Is displayed.
  • the start point and end point of the trajectory 252b are connected by a complementary straight line 253b.
  • the complementary straight line 253 b is displayed as a dotted line on the icon display area 251 of the file window 250.
  • the complementary straight line 253b is displayed in real time so as to connect the start point and the current end point of the trajectory 252b each time the current input position changes as the user moves the input pen 201.
  • a line formed by connecting these trajectory 252b and complementary straight line 253b is formed as a closed area with the outer circumference as a line.
  • this area is fixed.
  • the icon in the area thus determined is determined as the selected selection icon.
  • FIG. 14 is a diagram showing a file window in the command reception mode.
  • a menu 264 for allowing the user to input processing to be executed regarding the selected icon highlighted by the highlight display 261 b in the icon display area 261 is displayed.
  • the user can recognize that the icon is selected and the selected icon by highlighting the selected icons as highlighted 261b.
  • the user copies, deletes, and moves (sends) a plurality of selected icons to the information processing apparatus 100 (described above in FIG. 2) by tapping an item of the menu 264 with the input pen 201 in a state where the plurality of icons are selected. ), Processing such as deselection can be executed.
  • FIG. 15 is a diagram showing a file window at the time of additional selection in the selected mode.
  • a plurality of selection icons are highlighted as in the highlighted display 271b, as in FIG.
  • the icon is highlighted as in the highlighted display 271c.
  • the user can add a new selection icon by pen-downing to a part other than the menu (described above in FIG. 14) in the command reception mode process (described above in step S32 in FIG. 7).
  • the user moves the input pen 201 like the locus 272c on the input tablet 200 to surround an icon to be selected, thereby forming an area having the locus 272c and the complementary straight line 273c as an outer periphery.
  • the locus 272c is displayed as a solid line on the icon display area 271 of the file window 270, as in FIG.
  • the locus 272c changes as the user moves the input pen 201 on the input tablet 200 to change the position where the user is inputting, and a curve traced from the pen down to the current input position in real time. Is displayed.
  • the start point and end point of the locus 272c are connected by a complementary straight line 273c.
  • the complementary straight line 273c is displayed as a dotted line on the icon display area 271 of the file window 270.
  • the complementary straight line 273c is displayed in real time so as to connect the start point and the current end point of the locus 272c each time the current input position changes as the user moves the input pen 201.
  • the line is formed as a closed region with a line obtained by combining the locus 272c and the complementary straight line 273c as an outer periphery. This region is fixed when the user pens up the input pen 201.
  • the icon in the area thus determined is determined as a selection icon selected additionally.
  • FIG. 16 is a diagram showing a file window when the selection is canceled in the selected mode.
  • a plurality of selection icons are highlighted as in the highlighted displays 281c and 281d as in FIG. 15, and in the area formed by the locus 282d and the complementary straight line 283d.
  • a plurality of icons are excluded from the objects of the highlight display 281d.
  • the user pens down the input pen 201 moves the input pen 201 later so that the locus 282d surrounds the icon that has already been selected on the input tablet 200, and then performs the pen up, which is executed by the menu (described above in FIG. 15). Until a process to be performed is designated, it is possible to deselect some of the already selected selection icons and remove them from the selection icons. At this time, the user moves the input pen 201 like the locus 282d on the input tablet 200 and surrounds an icon to cancel the selection, thereby forming an area having the locus 282d and the complementary straight line 283d as the outer periphery.
  • the locus 282d is displayed as a solid line on the icon display area 281 of the file window 280.
  • the trajectory 282d is displayed so as to change as the user moves the input pen 201 on the input tablet 200 to change the input position.
  • the trajectory 282d is displayed while the curve traced from when the user pen-downed until reaching the current input position changes in real time.
  • the start point and the end point of the locus 282d are connected by the complementary straight line 283d.
  • the complementary straight line 283d is displayed as a dotted line on the icon display area 281 of the file window 280.
  • the complementary straight line 283d is displayed in real time so as to connect the start point and the current end point of the locus 282d each time the current input position changes as the user moves the input pen 201.
  • the line is formed as a closed region with the line connecting these locus 282d and the complementary straight line 283d as the outer periphery. This region is fixed when the user pens up the input pen 201. The selection of the icon in the region thus determined is canceled and excluded from the selected icon.
  • the user can deselect the icon once selected. For example, the user can select an icon by forming a region having a border line that cannot be drawn with a single stroke, such as a donut shape with a part of the region cut out.
  • the locus 282d encloses only the selected icon that has already been selected.
  • the present invention is not limited to this, and the user performs an operation of simultaneously enclosing the unselected icon and the already selected selection icon with the locus. You can also Based on this operation, in the information processing apparatus 100, the selection determination unit 115 sets an icon that has not been selected in the region determined by the region determination unit 114 as a selection icon, and the selection cancellation determination unit 117 performs the operation in the region. Deselect a selection icon that has already been selected.
  • the selection operation method of “dragging an area including an icon” without directly tapping the icon, but it is not intuitive.
  • the selection range can be expanded or only a part of icons can be selected. It is possible to improve the operability of actions such as canceling.
  • the selection determination unit 115 determines whether or not the icon in the area is a selected icon, the input tablet 200 and the input pen 201 can be operated smoothly when the icon is selected, and the operability when selecting the icon is improved. It becomes possible.
  • the above processing functions can be realized by a computer.
  • a program describing the processing contents of the functions that the information processing apparatus 100 should have is provided.
  • the above processing functions are realized on the computer.
  • the program describing the processing content can be recorded on a computer-readable recording medium.
  • the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory.
  • Magnetic recording devices include HDDs, flexible disks (FD), magnetic tapes (MT) and the like.
  • Optical discs include DVD (Digital Versatile Disc), DVD-RAM, CD-ROM (Compact Disc-Read Only Memory), CD-R (Recordable) / RW (ReWritable), and the like.
  • Magneto-optical recording media include MO (Magneto-Optical Disk).
  • a portable recording medium such as a DVD or CD-ROM in which the program is recorded is sold. It is also possible to store the program in a server computer and transfer the program from the server computer to another computer via a network.
  • the computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.
  • the disclosed selection input receiving program, information processing apparatus, and selection input receiving method have been described based on the illustrated embodiment.
  • the configuration of each unit may be replaced with any configuration having the same function. it can.
  • any other component or process may be added to the disclosed technology.
  • the disclosed technique may be a combination of any two or more of the above-described embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The operability when an icon is selected by a pointing device is improved. An icon displaying means (1a) displays an icon on a display screen. A detecting means (1b) detects an input of a position on the display screen by the pointing device. A trajectory acquiring means (1c) acquires the trajectory of the position detected by the detecting means (1b). An area determining means (1d) determines the area surrounded by the trajectory acquired by the trajectory acquiring means (1c). A selection judging means (1e) judges whether or not the icon displayed on the display screen exists within the area determined by the area determining means (1d), and regards the icon within the area as a selected selection icon when the icon displayed on the display screen exists.

Description

選択入力受付プログラム、情報処理装置および選択入力受付方法Selection input receiving program, information processing apparatus, and selection input receiving method
 本発明は、選択入力受付プログラム、情報処理装置および選択入力受付方法に関し、特にアイコンを選択する入力を受け付ける選択入力受付プログラム、情報処理装置および選択入力受付方法に関する。 The present invention relates to a selection input reception program, an information processing apparatus, and a selection input reception method, and more particularly to a selection input reception program, an information processing apparatus, and a selection input reception method for receiving an input for selecting an icon.
 現在、GUI(Graphical User Interface)を備えたコンピュータが普及している。多くのコンピュータでは、オペレーティングシステム(OS:Operating System)が操作画面を生成し、操作画面を示す画像信号をコンピュータに接続された表示装置(モニタ)に出力する。これにより、ユーザは、表示装置に表示された操作画面を見ながら、キーボードおよびマウス等の入力装置を直観的に操作することにより、容易にコンピュータを操作することが可能である。 At present, computers equipped with GUI (Graphical User Interface) are widely used. In many computers, an operating system (OS) generates an operation screen and outputs an image signal indicating the operation screen to a display device (monitor) connected to the computer. Thus, the user can easily operate the computer by intuitively operating input devices such as a keyboard and a mouse while viewing the operation screen displayed on the display device.
 このGUIにおいて、テキスト情報よりも直感的に分かりやすいことから、一般的にプログラム、データファイル、選択項目等を「アイコン」として表現することが、コンピュータ上に限らず、銀行ATM(Automated Teller Machine)等の自動取引装置およびその他のハードウェア装置を含む幅広い分野で利用されている。 In this GUI, it is easier to understand intuitively than text information, so it is not limited to computers to express programs, data files, selection items, etc. in general, but bank ATMs (Automated Teller Machine) It is used in a wide range of fields including automatic transaction devices such as the above and other hardware devices.
 また、最近ではウェアラブルコンピュータ(wearable computer)やユビキタスコンピューティング(ubiquitous computing)という言葉で示されるような「時間・場所を選ばないコンピュータスタイル」が浸透しつつある。これに伴ってタブレットタイプ(tablet type)のPC(Personal Computer)やUMPC(Ultra Mobile PC)、スマートフォン(smartphone)等のように、ペンまたは指で入力面に接触して操作することが可能なポインティングデバイス(pointing device)を有するモバイル情報機器が普及している。 In recent years, “computer styles that do not choose time and place”, as indicated by the words wearable computer and ubiquitous computing, are spreading. Along with this, pointing that can be operated by touching the input surface with a pen or finger, such as tablet type PC (Personal Computer), UMPC (Ultra Mobile PC), smartphone (smartphone), etc. Mobile information devices having devices (pointing devices) have become widespread.
 このような入力面に接触して操作するタイプのポインティングデバイスを用いたアイコンの操作に関して、以下の技術が知られている。
特開平9-204426号公報 特開平9-101874号公報
The following techniques are known for icon operation using a pointing device of the type operated by touching such an input surface.
JP-A-9-204426 JP-A-9-101874
 しかし、これらのペン等で入力するタイプのポインティングデバイスによりアイコンの操作を行う機器は、もともとマウス等のポインティングデバイスによる操作を前提に設計された操作には適していない場合があるという問題点がある。 However, there is a problem that a device that operates an icon by using a pointing device of a type that is input with a pen or the like may not be suitable for an operation that is originally designed on the premise of an operation with a pointing device such as a mouse. .
 特に、複数のアイコンから一部の集合を選択することは、ペンオペレーションが複雑になってしまうため、直観的な操作を行うことが困難になり、スムーズなモバイル機器の操作の妨げになっているという問題点がある。 In particular, selecting a set of icons from multiple icons complicates pen operations, making it difficult to perform intuitive operations and hindering smooth mobile device operations. There is a problem.
 本発明はこのような点に鑑みてなされたものであり、ポインティングデバイスによりアイコンを選択する機器におけるアイコン選択時の操作性の向上が図られた選択入力受付プログラム、情報処理装置および選択入力受付方法を提供することを目的とする。 The present invention has been made in view of the above points, and a selection input reception program, an information processing apparatus, and a selection input reception method that are improved in operability when an icon is selected in a device that selects an icon with a pointing device. The purpose is to provide.
 開示の選択入力受付プログラムは、コンピュータを、ポインティングデバイスによる表示画面上における位置の入力を検出する検出手段、前記検出手段によって検出された前記位置の軌跡を取得する軌跡取得手段、前記軌跡取得手段によって取得された前記軌跡で囲まれた領域を確定する領域確定手段、前記領域確定手段によって確定された前記領域内に、前記表示画面に表示されたアイコンが存在するか否かを判定し、前記領域内に前記表示画面に表示された前記アイコンが存在する場合には、前記領域内の前記アイコンを選択された選択アイコンとする選択判定手段、として機能させる。 The disclosed selection input receiving program causes a computer to detect a position input on a display screen by a pointing device, a trajectory acquiring means for acquiring a trajectory of the position detected by the detecting means, and a trajectory acquiring means. Region determining means for determining an area surrounded by the acquired trajectory, determining whether or not an icon displayed on the display screen exists in the area determined by the region determining means; If the icon displayed on the display screen is present in the display area, the icon is made to function as selection determination means for selecting the icon in the area as the selected selection icon.
 開示の選択入力受付プログラムによれば、検出手段により、表示画面上における位置の入力が検出される。軌跡取得手段により、位置の軌跡が取得される。領域確定手段により、軌跡で囲まれた領域が領域として確定される。選択判定手段により、領域内にアイコンが存在するか否かが判定され、アイコンが存在する場合には、領域内のアイコンが選択アイコンと判定される。 According to the disclosed selective input acceptance program, the position input on the display screen is detected by the detecting means. The locus of the position is obtained by the locus acquisition means. A region surrounded by the locus is determined as a region by the region determination means. The selection determining means determines whether or not an icon exists in the area. If an icon exists, the icon in the area is determined as the selected icon.
 開示の選択入力受付プログラム、情報処理装置および選択入力受付方法によれば、ユーザがポインティングデバイスによりアイコンを選択する時にスムーズに操作でき、アイコン選択時の操作性を向上させることが可能になる。 According to the disclosed selection input reception program, information processing apparatus, and selection input reception method, a user can operate smoothly when selecting an icon with a pointing device, and operability when selecting an icon can be improved.
 本発明の上記および他の目的、特徴および利点は本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。 The above and other objects, features and advantages of the present invention will become apparent from the following description in conjunction with the accompanying drawings which illustrate preferred embodiments as examples of the present invention.
本実施の形態の概要を示す図である。It is a figure which shows the outline | summary of this Embodiment. 情報処理装置のハードウェア構成図である。It is a hardware block diagram of information processing apparatus. 情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of information processing apparatus. 座標テーブルの構成を示す図である。It is a figure which shows the structure of a coordinate table. 待機モード処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a standby mode process. 選択中モード処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the mode process during selection. コマンド受付モード処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a command reception mode process. アイコンが領域内であるか否かの判定を示す図である。It is a figure which shows determination whether an icon is in an area | region. アイコンが領域内であるか否かの判定を示す図である。It is a figure which shows determination whether an icon is in an area | region. アイコンが領域内であるか否かの判定を示す図である。It is a figure which shows determination whether an icon is in an area | region. 通常の選択時におけるファイルウインドウを示す図である。It is a figure which shows the file window at the time of normal selection. 選択中モードにおけるアイコンの選択時のファイルウインドウを示す図である。It is a figure which shows the file window at the time of selection of the icon in selection mode. 選択中モードにおけるアイコンの選択時のファイルウインドウを示す図である。It is a figure which shows the file window at the time of selection of the icon in selection mode. コマンド受付モード時のファイルウインドウを示す図である。It is a figure which shows the file window at the time of command reception mode. 選択中モードにおける追加の選択時のファイルウインドウを示す図である。It is a figure which shows the file window at the time of the additional selection in selecting mode. 選択中モードにおける選択の解除時のファイルウインドウを示す図である。It is a figure which shows the file window at the time of the cancellation | release in selection mode.
 以下、本発明の実施の形態について、図面を参照して説明する。
 図1は、本実施の形態の概要を示す図である。図1に示す情報処理装置1は、ポインティングデバイス2が有する表示画面21と接続されており、ユーザの操作に基づき、OSおよびアプリケーションによって生成される文字情報、画像情報を表示画面21に表示させる。情報処理装置1は、アイコン表示手段1a、検出手段1b、軌跡取得手段1c、領域確定手段1dおよび選択判定手段1eを有している。また、情報処理装置1は、選択入力受付プログラムによりコンピュータが、検出手段1b、軌跡取得手段1c、領域確定手段1dおよび選択判定手段1eとして機能することにより実現される。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram showing an outline of the present embodiment. The information processing apparatus 1 illustrated in FIG. 1 is connected to a display screen 21 included in the pointing device 2 and displays character information and image information generated by the OS and applications on the display screen 21 based on user operations. The information processing apparatus 1 includes an icon display unit 1a, a detection unit 1b, a trajectory acquisition unit 1c, an area determination unit 1d, and a selection determination unit 1e. Further, the information processing apparatus 1 is realized by a computer that functions as the detection unit 1b, the locus acquisition unit 1c, the region determination unit 1d, and the selection determination unit 1e by the selection input receiving program.
 アイコン表示手段1aは、アイコン21aを表示画面21に表示させる。ユーザは、ポインティングデバイス2が有する入力ペン22によってこのアイコン21aを選択して操作することにより、情報処理装置1にアイコン21aが示すファイルの移動、コピー、削除、アイコン21aが示すアプリケーションの起動等を実行させることができる。 The icon display means 1a displays the icon 21a on the display screen 21. The user selects and operates the icon 21a with the input pen 22 of the pointing device 2 to move, copy, and delete the file indicated by the icon 21a to the information processing apparatus 1 or start the application indicated by the icon 21a. Can be executed.
 検出手段1bは、表示画面21の画面上における位置の入力を検出する。この位置の入力は、ユーザがポインティングデバイス2を操作することによって行われる。これにより、ユーザがポインティングデバイス2を操作して入力した位置が検出される。 The detecting means 1b detects the position input on the display screen 21. The input of this position is performed by the user operating the pointing device 2. As a result, the position input by the user operating the pointing device 2 is detected.
 軌跡取得手段1cは、検出手段1bによって検出された位置の軌跡21bを取得する。これにより、ユーザがポインティングデバイス2を操作して入力した位置の変化が軌跡21bとして取得される。 The trajectory acquisition unit 1c acquires the trajectory 21b of the position detected by the detection unit 1b. Thereby, the change in the position input by the user operating the pointing device 2 is acquired as a locus 21b.
 領域確定手段1dは、軌跡取得手段1cによって取得された軌跡21bで囲まれた領域を領域21cとして確定する。これにより、ユーザがアイコン21aを選択するためにポインティングデバイス2を操作して入力した範囲が決定される。 The region determination unit 1d determines the region surrounded by the locus 21b acquired by the locus acquisition unit 1c as the region 21c. As a result, the range input by the user operating the pointing device 2 to select the icon 21a is determined.
 選択判定手段1eは、領域確定手段1dによって確定された領域21cの領域内に、表示画面21に表示されたアイコン21aが存在するか否かを判定し、領域内に表示画面21に表示されたアイコン21aが存在する場合には、領域21cの領域内のアイコン21aを選択された選択アイコンとする。これにより、ユーザのポインティングデバイス2による入力操作に基づいてアイコンが選択される。 The selection determination unit 1e determines whether or not the icon 21a displayed on the display screen 21 exists in the region 21c determined by the region determination unit 1d, and is displayed on the display screen 21 in the region. When the icon 21a exists, the icon 21a in the area 21c is set as the selected selection icon. Thereby, an icon is selected based on an input operation by the user's pointing device 2.
 ポインティングデバイス2は、表示画面21および入力ペン22を有する。表示画面21は、情報処理装置1から出力された情報を表示する表示画面である。ポインティングデバイス2は、入力タブレット、タッチパネル等、入力面に接触して位置を入力するための入力装置である。入力ペン22は、ユーザが指や入力ペンで接触することにより位置を入力することができる。また、入力ペン22は、入力された位置を連続的に取得することができる。入力ペン22は、表示画面21を有し、表示画面21上に接触することにより位置を入力する。 The pointing device 2 has a display screen 21 and an input pen 22. The display screen 21 is a display screen that displays information output from the information processing apparatus 1. The pointing device 2 is an input device for touching an input surface and inputting a position, such as an input tablet or a touch panel. The input pen 22 can input a position when the user touches with a finger or an input pen. Further, the input pen 22 can continuously acquire the input position. The input pen 22 has a display screen 21 and inputs a position by touching the display screen 21.
 なお、入力ペン22は、これに限らず、表示画面21と入力ペン22による位置の入力を受け付ける入力面(図示省略)とが別体のものであってもよい。この場合、入力面および入力ペン22によって入力された位置は、ポインタとして表示画面21に表示される。ユーザは、表示画面21に表示されたポインタを参考にしながら入力面に対して入力ペン22で位置を入力する。 Note that the input pen 22 is not limited to this, and the display screen 21 and an input surface (not shown) for receiving position input by the input pen 22 may be separate. In this case, the position input by the input surface and the input pen 22 is displayed on the display screen 21 as a pointer. The user inputs a position with the input pen 22 on the input surface while referring to the pointer displayed on the display screen 21.
 このような情報処理装置1によれば、アイコン表示手段1aにより、アイコン21aが表示画面21に表示される。検出手段1bにより、ポインティングデバイス2による位置の入力が検出される。軌跡取得手段1cにより、位置の軌跡21bが取得される。領域確定手段1dにより、軌跡21bで囲まれた領域が領域21cとして確定される。選択判定手段1eにより、領域21c内にアイコン21aが存在するか否かが判定され、アイコン21aが存在する場合には、領域21c内のアイコン21aが選択アイコンと判定される。 According to such an information processing apparatus 1, the icon 21a is displayed on the display screen 21 by the icon display means 1a. The position input by the pointing device 2 is detected by the detection means 1b. The locus 21b is obtained by the locus obtaining means 1c. The area surrounded by the locus 21b is determined as the area 21c by the area determining means 1d. The selection determination unit 1e determines whether or not the icon 21a exists in the area 21c. If the icon 21a exists, the icon 21a in the area 21c is determined as the selection icon.
 このように、情報処理装置1は、選択判定手段1eが、ポインティングデバイス2によって入力された位置の軌跡21bによって囲まれた領域21c内にアイコン21aが存在するか否かを判定して、領域21c内のアイコン21aを選択アイコンと判定することにより、入力ペン22によりアイコン21aを選択する時にスムーズに操作でき、アイコン選択時の操作性を向上させることが可能になる。 In this way, the information processing apparatus 1 determines whether the selection determining unit 1e determines whether or not the icon 21a exists in the area 21c surrounded by the locus 21b of the position input by the pointing device 2, and the area 21c By determining the icon 21a as the selected icon, it is possible to operate smoothly when the icon 21a is selected by the input pen 22, and it is possible to improve the operability when selecting the icon.
 以下、本実施の形態について図面を参照して詳細に説明する。
 図2は、情報処理装置のハードウェア構成図である。
 情報処理装置100は、CPU(Central Processing Unit)101によって装置全体が制御されている。CPU101には、バス107を介してRAM(Random Access Memory)102、HDD(Hard Disk Drive)103、グラフィック処理装置104、入力インタフェース105および通信インタフェース106が接続されている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings.
FIG. 2 is a hardware configuration diagram of the information processing apparatus.
The information processing apparatus 100 is entirely controlled by a CPU (Central Processing Unit) 101. A random access memory (RAM) 102, a hard disk drive (HDD) 103, a graphics processing device 104, an input interface 105, and a communication interface 106 are connected to the CPU 101 via a bus 107.
 RAM102には、CPU101に実行させるOSのプログラムやアプリケーションの少なくとも一部が一時的に格納される。また、RAM102には、CPU101による処理に必要な各種データが格納される。 The RAM 102 temporarily stores at least a part of OS programs and applications to be executed by the CPU 101. The RAM 102 stores various data necessary for processing by the CPU 101.
 HDD103には、情報処理装置100上のOSやアプリケーションが扱うデータが格納される。
 グラフィック処理装置104には、入力タブレット200等の表示装置が接続可能である。グラフィック処理装置104は、CPU101からの命令に従って、画像を入力タブレット200等の表示装置の画面に表示させることができる。また、グラフィック処理装置104と入力タブレット200等とは、例えば、シリアル通信ケーブルで接続され制御信号と画像信号とが交互に送受信される。
The HDD 103 stores data handled by the OS and applications on the information processing apparatus 100.
A display device such as the input tablet 200 can be connected to the graphic processing device 104. The graphic processing device 104 can display an image on a screen of a display device such as the input tablet 200 in accordance with a command from the CPU 101. The graphic processing device 104 and the input tablet 200 are connected by, for example, a serial communication cable, and control signals and image signals are alternately transmitted and received.
 入力インタフェース105には、入力タブレット200、キーボード300、マウス400等の入力装置が接続可能である。入力インタフェース105は、入力タブレット200等の入力装置から送られてくる信号を、バス107を介してCPU101に出力する。 The input interface 105 can be connected to input devices such as an input tablet 200, a keyboard 300, and a mouse 400. The input interface 105 outputs a signal sent from an input device such as the input tablet 200 to the CPU 101 via the bus 107.
 通信インタフェース106は、図示しないネットワークに接続可能である。通信インタフェース106は、ネットワークを介して、他のコンピュータとの間でデータの送受信を行うことができる。 The communication interface 106 can be connected to a network (not shown). The communication interface 106 can send and receive data to and from other computers via a network.
 ここで、入力タブレット200は、上面に図示しないモニタを有しており、情報処理装置100の動作にしたがってモニタが有する表示画面に情報を表示することができる。また、入力タブレット200は、表面に設けられた表示画面の圧力または静電気の変化の検出によって、表示画面に対する入力ペン201または指等による接触を検知することにより、例えば、ユーザによる表示画面に表示されたアイコンの選択等の入力を受け付けることができる。 Here, the input tablet 200 has a monitor (not shown) on the upper surface, and can display information on the display screen of the monitor according to the operation of the information processing apparatus 100. Further, the input tablet 200 is displayed on a display screen by a user, for example, by detecting contact with the input pen 201 or a finger on the display screen by detecting a change in pressure or static electricity of the display screen provided on the surface. It is possible to accept input such as selecting an icon.
 以上のようなハードウェア構成によって、本実施の形態の処理機能を実現することができる。
 次に、情報処理装置100のモジュール構成について説明する。
With the hardware configuration as described above, the processing functions of the present embodiment can be realized.
Next, the module configuration of the information processing apparatus 100 will be described.
 図3は、情報処理装置の構成を示すブロック図である。
 本実施の形態の情報処理装置100は、ユーザによる入力タブレット200および入力ペン201の操作により入力された位置に基づいて入力タブレット200の表示画面(図示省略)に表示されたアイコン(図示省略)の選択を受け付けると共に、選択されたアイコンに基づいた処理を実行するコンピュータである。情報処理装置100は、アイコンの選択の入力を受け付けるために、アイコン表示部111、検出部112、軌跡取得部113、領域確定部114、選択判定部115、軌跡表示部116、選択解除判定部117、選択アイコン処理実行部118、操作表示部119および座標情報記憶部160を有する。さらに、検出部112は、開始検出部112aおよび終了検出部112bを有する。情報処理装置100のこれらの機能は、コンピュータが選択入力受付プログラムを実行することにより実現される。
FIG. 3 is a block diagram illustrating a configuration of the information processing apparatus.
The information processing apparatus 100 according to the present embodiment displays icons (not shown) displayed on the display screen (not shown) of the input tablet 200 based on the positions input by the user operating the input tablet 200 and the input pen 201. A computer that accepts a selection and executes a process based on a selected icon. The information processing apparatus 100 receives an icon selection input in order to receive an icon display unit 111, a detection unit 112, a trajectory acquisition unit 113, an area determination unit 114, a selection determination unit 115, a trajectory display unit 116, and a selection release determination unit 117. A selection icon processing execution unit 118, an operation display unit 119, and a coordinate information storage unit 160. Furthermore, the detection unit 112 includes a start detection unit 112a and an end detection unit 112b. These functions of the information processing apparatus 100 are realized by a computer executing a selection input receiving program.
 また、情報処理装置100には、入力タブレット200および入力ペン201等のポインティングデバイスが接続可能である。
 アイコン表示部111は、選択判定部115によって判定された選択アイコンを表示画面に強調表示させると共に、選択解除判定部117によって選択が解除されたアイコンを表示画面に強調表示から通常の表示に切り替えて表示させる。ユーザは、このアイコンを選択して操作することにより、情報処理装置100にアイコンが示すファイルの移動、コピー、削除、アイコンが示すアプリケーションの起動等を実行させることができる。
In addition, pointing devices such as the input tablet 200 and the input pen 201 can be connected to the information processing apparatus 100.
The icon display unit 111 highlights the selection icon determined by the selection determination unit 115 on the display screen, and switches the icon canceled by the selection cancellation determination unit 117 from the highlighted display to the normal display on the display screen. Display. By selecting and operating this icon, the user can cause the information processing apparatus 100 to move, copy, delete, start an application indicated by the icon, or the like.
 検出部112は、ポインティングデバイスによる表示画面上における位置の入力を検出する。このとき検出部112は、ポインティングデバイスによって入力された表示画面上における位置の座標を取得し、取得した座標を示す座標情報(詳しくは図4において後述)を座標情報記憶部160に記憶させる。これにより、ユーザがポインティングデバイスを操作して入力した位置が検出される。 The detecting unit 112 detects an input of a position on the display screen by the pointing device. At this time, the detection unit 112 acquires the coordinates of the position on the display screen input by the pointing device, and stores the coordinate information (details will be described later in FIG. 4) indicating the acquired coordinates in the coordinate information storage unit 160. As a result, the position input by the user operating the pointing device is detected.
 開始検出部112aは、ポインティングデバイスによる位置の入力の開始およびその位置の入力の開始位置を検出する。終了検出部112bは、ポインティングデバイスによる位置の入力の終了およびその位置の入力の終了位置を検出する。検出されたこれらの位置は、座標情報として座標情報記憶部160に記憶される。 The start detection unit 112a detects the start of position input by the pointing device and the start position of the position input. The end detection unit 112b detects the end of the position input by the pointing device and the end position of the position input. These detected positions are stored in the coordinate information storage unit 160 as coordinate information.
 軌跡取得部113は、開始検出部112aによって検出された位置の入力の開始位置から終了検出部112bによって検出された位置の入力の終了位置までの位置の軌跡を取得する。このとき軌跡取得部113は、検出部112によって検出された位置の軌跡を座標情報記憶部160に記憶された座標情報によって示される座標に基づいて取得する。これにより、ユーザがポインティングデバイスを操作して入力した位置の変化が軌跡として取得される。 The trajectory acquisition unit 113 acquires a trajectory of a position from the input start position of the position detected by the start detection unit 112a to the input end position of the position detected by the end detection unit 112b. At this time, the trajectory acquisition unit 113 acquires the trajectory of the position detected by the detection unit 112 based on the coordinates indicated by the coordinate information stored in the coordinate information storage unit 160. Thereby, the change in the position input by the user by operating the pointing device is acquired as a trajectory.
 また、軌跡取得部113は、開始検出部112aによって検出された位置の入力の開始位置が表示画面に表示されたアイコン上でない場合には、入力に基づく軌跡を取得する。これにより、ユーザが入力ペン201で入力タブレット200の表示画面上のアイコン以外の位置を入力した場合、ユーザは領域によるアイコンの選択を行うことができる(図12および図13において後述)。 The trajectory acquisition unit 113 acquires a trajectory based on the input when the input start position of the position detected by the start detection unit 112a is not on the icon displayed on the display screen. Accordingly, when the user inputs a position other than the icon on the display screen of the input tablet 200 with the input pen 201, the user can select an icon by area (described later in FIGS. 12 and 13).
 領域確定部114は、軌跡取得部113によって取得された軌跡で囲まれた領域を確定する。このとき領域確定部114は、開始検出部112aによって検出された軌跡の開始位置と終了検出部112bによって検出された軌跡の終了位置とを直線で結び、軌跡と直線とで閉じた領域を形成し、形成した閉じた領域を確定する。これにより、ユーザがアイコンを選択するためにポインティングデバイスを操作して入力した範囲が決定される。 The region determination unit 114 determines a region surrounded by the trajectory acquired by the trajectory acquisition unit 113. At this time, the area determination unit 114 connects the start position of the trajectory detected by the start detection unit 112a and the end position of the trajectory detected by the end detection unit 112b with a straight line, and forms a closed area between the trajectory and the straight line. , Confirm the formed closed region. As a result, a range input by the user operating the pointing device to select an icon is determined.
 選択判定部115は、領域確定部114によって確定された領域内に、表示画面に表示されたアイコンが存在するか否かを判定し、領域内に表示画面に表示されたアイコンが存在する場合には、領域内のアイコンを選択された選択アイコンとする。これにより、ユーザの入力ペン201よる入力操作に基づいてアイコンが選択される。 The selection determination unit 115 determines whether or not the icon displayed on the display screen exists in the region determined by the region determination unit 114, and when the icon displayed on the display screen exists in the region. The icon in the area is the selected selection icon. Thereby, an icon is selected based on an input operation by the user with the input pen 201.
 また、選択判定部115は、複数のアイコンを選択する(図13において後述)。これにより、ユーザは一度の操作で複数のアイコンを選択することができる。また、選択判定部115は、選択アイコン処理実行部118によって実行された選択アイコンの選択を解除する(図16において後述)。これにより、ユーザは一旦選択したアイコンの選択を解除することができる。 The selection determination unit 115 selects a plurality of icons (described later in FIG. 13). Thereby, the user can select a plurality of icons by one operation. Further, the selection determination unit 115 cancels the selection of the selection icon executed by the selection icon processing execution unit 118 (described later in FIG. 16). Thereby, the user can cancel the selection of the icon once selected.
 軌跡表示部116は、軌跡取得部113によって取得された軌跡を表示画面に表示させる。これにより、ユーザは、表示画面に表示される軌跡を見て確認しながら入力ペン201を移動させて位置を入力することで、入力ペン201によって軌跡を容易にコントロールすることができる。このため、アイコンが選択または選択が解除される領域の形成の操作性が向上する。 The trajectory display unit 116 displays the trajectory acquired by the trajectory acquisition unit 113 on the display screen. As a result, the user can easily control the trajectory with the input pen 201 by moving the input pen 201 while inputting the position while checking the trajectory displayed on the display screen. For this reason, the operability of forming the region where the icon is selected or deselected is improved.
 選択解除判定部117は、領域確定部114によって確定された領域内に、選択判定部115によって判定された選択アイコンが存在するか否かを判定し、選択判定部115によって判定された選択アイコンが存在する場合には、領域内の選択アイコンの選択を解除する。これにより、ユーザの入力ペン201よる入力操作に基づいてアイコンの選択が解除される。 The selection cancellation determination unit 117 determines whether or not the selection icon determined by the selection determination unit 115 exists in the region determined by the region determination unit 114, and the selection icon determined by the selection determination unit 115 is If it exists, the selection icon in the area is deselected. Thereby, the selection of the icon is released based on the input operation by the user with the input pen 201.
 選択アイコン処理実行部118は、選択アイコンに応じた処理を実行する。これにより、情報処理装置100によってユーザが選択したアイコンに基づく処理が実行される。
 操作表示部119は、終了検出部112bが位置の入力の終了を検出した場合には、選択判定部115によって選択されたと判定されたアイコンに基づいて実行される処理を指示する入力操作を受け付けるメニュー(図14において後述)を表示画面に表示させる。メニューは、操作手段として機能する。
The selection icon process execution part 118 performs the process according to a selection icon. Thereby, processing based on the icon selected by the user by the information processing apparatus 100 is executed.
The operation display unit 119 accepts an input operation for instructing a process to be executed based on the icon determined to be selected by the selection determination unit 115 when the end detection unit 112b detects the end of position input. (Described later in FIG. 14) is displayed on the display screen. The menu functions as operation means.
 座標情報記憶部160は、入力タブレット200および入力ペン201による表示画面上における位置の座標を取得し、取得した座標を示す座標情報を記憶する。
 本実施の形態では、ポインティングデバイスとして入力タブレット200および入力ペン201を使用する。ポインティングデバイスは、入力タブレット、タッチパネルおよび専用の入力ペン等の入力装置である。入力タブレット200は、位置の入力を受け付け可能な表示画面を有する。入力ペン201は、入力タブレット200に位置を入力することができる。
The coordinate information storage unit 160 acquires the coordinates of the position on the display screen by the input tablet 200 and the input pen 201, and stores the coordinate information indicating the acquired coordinates.
In this embodiment, the input tablet 200 and the input pen 201 are used as a pointing device. The pointing device is an input device such as an input tablet, a touch panel, and a dedicated input pen. The input tablet 200 has a display screen that can accept position input. The input pen 201 can input a position to the input tablet 200.
 入力タブレット200は、ユーザが指や入力ペン201で接触することにより位置を入力することができる。また、入力タブレット200は、ユーザが操作する入力ペン201により入力された位置を連続的に取得することができる。入力タブレット200は、表示画面を有し、表示画面上にユーザが指または入力ペン201を接触させて位置を入力する。 The input tablet 200 can input a position when the user touches with the finger or the input pen 201. Further, the input tablet 200 can continuously acquire the position input by the input pen 201 operated by the user. The input tablet 200 has a display screen, and the user inputs a position by touching the finger or the input pen 201 on the display screen.
 なお、ポインティングデバイスは、入力タブレット200および入力ペン201に限らず、タッチパネル等、他のポインティングデバイスを使用してもよい。また、ポインティングデバイスは、表示画面と入力部分とが別体のものであってもよい。この場合、ポインティングデバイスによって入力された位置はポインタとして表示画面に表示され、ユーザは表示画面に表示されたポインタを参考にしながらポインティングデバイスの入力タブレット等に位置を入力する。 Note that the pointing device is not limited to the input tablet 200 and the input pen 201, and other pointing devices such as a touch panel may be used. The pointing device may have a display screen and an input part that are separate. In this case, the position input by the pointing device is displayed as a pointer on the display screen, and the user inputs the position to the input tablet or the like of the pointing device while referring to the pointer displayed on the display screen.
 本実施の形態では、ユーザがアイコンを選択する際、アイコンを直接タップするのではなく、詳しくは図13において後述するように、「軌跡が選択するアイコンを囲むように入力ペン201を操作する」ことで、それらのアイコンの選択が入力される。このとき、アイコンを囲む操作で表示画面に描かれた線については、完全に閉じた領域を形成する曲線である必要はなく、もし軌跡の始点と終点とが接触していない場合には、始点と終点とを結ぶ線(例えば、補完直線)で軌跡を補完して領域を閉じた領域とする。 In the present embodiment, when the user selects an icon, the icon is not directly tapped, but as will be described in detail later with reference to FIG. 13, “operate the input pen 201 so that the locus surrounds the selected icon”. Thus, selection of those icons is inputted. At this time, the line drawn on the display screen by the operation surrounding the icon does not need to be a curve forming a completely closed region, and if the start point and end point of the locus are not in contact, the start point The region is closed by complementing the trajectory with a line (for example, a complementary straight line) connecting the end point and the end point.
 また、本実施の形態では、詳しくは図8から図10において後述するが、ユーザは、選択するアイコンを、領域で完全に囲まれるように入力ペン201を操作する必要はなく、領域の外周である軌跡および始点から終点を結ぶ線の内部である領域に、アイコンのある一定以上の面積が含まれている場合には、「選択された(または選択が解除された)」とみなされる。これにより、複数のアイコンのうちの一部のアイコンを選択する場合において、ユーザがより直感的に選択操作を行うことが可能になる。 In the present embodiment, the details will be described later with reference to FIGS. 8 to 10, but the user does not need to operate the input pen 201 so that the icon to be selected is completely surrounded by the area, and the outer periphery of the area. When an area of a certain trajectory and a line connecting the start point to the end point includes an area with a certain size or more of the icon, it is regarded as “selected (or deselected)”. Thereby, when selecting some icons among a plurality of icons, the user can more intuitively perform the selection operation.
 また、本実施の形態では、詳しくは図15および図16において後述するが、ユーザが入力ペン201によって一旦アイコンを囲む操作を実行した後に連続してユーザがアイコンを囲む操作を行った場合には、先に囲んだ一部のアイコンの選択を解除しない。本実施の形態では、ユーザは連続して複数アイコンのうちの不連続で離れた部分にある2つのグループを形成するアイコンを一度に選択することができる。また、ユーザが一度選択されたアイコンをさらに囲む操作を行った場合は、囲まれたアイコンの選択が解除される。 In the present embodiment, details will be described later with reference to FIGS. 15 and 16, but when the user performs the operation of surrounding the icon continuously after the user once performed the operation of surrounding the icon with the input pen 201. , Do not deselect some of the icons that you have enclosed. In the present embodiment, the user can continuously select icons that form two groups in a discontinuous and distant portion of a plurality of icons at a time. In addition, when the user performs an operation of further surrounding the icon once selected, the selection of the enclosed icon is cancelled.
 これらの「連続した選択」および「選択の解除」により、一纏まりとなっているアイコンを選択することしか入力を受け付けることができない場合に比較して、アイコン選択の操作の自由度が広がり、複雑な選択を容易な操作で入力することができる。 These “successive selection” and “deselection” expand the degree of freedom of icon selection and complexity compared to the case where input can only be accepted by selecting a group of icons. Easy selection can be input by an easy operation.
 また、本実施の形態では、図14において後述するように、選択したアイコンに関する処理の実行においても、メニューを用いて入力ペン201でタップする等により、実行される処理(例えば、アイコンが示すファイルを「コピーする」、「削除する」、「移動させる」等)を指定することができる。 In the present embodiment, as will be described later with reference to FIG. 14, even in the execution of processing relating to the selected icon, processing executed by tapping the input pen 201 using a menu or the like (for example, the file indicated by the icon) "Copy", "Delete", "Move", etc.) can be specified.
 メニューによって処理が指定されたときには、選択アイコンに関して該当する処理が実行される。また、処理の実行開始時にメニューは画面上から消され、非表示になる。
 以上のように、本実施の形態によれば、ユーザが情報処理装置100において入力タブレット200および入力ペン201を操作してアイコンを選択する場合に、アイコンをより直感的に扱うことが可能になる。
When the process is designated by the menu, the corresponding process is executed for the selected icon. Also, the menu disappears from the screen and disappears at the start of processing execution.
As described above, according to the present embodiment, when the user selects an icon by operating the input tablet 200 and the input pen 201 in the information processing apparatus 100, the icon can be handled more intuitively. .
 次に、本実施の形態の情報処理装置において用いられるテーブルについて説明する。
 図4は、座標テーブルの構成を示す図である。図4に示す座標テーブル161は、情報処理装置100によって作成および管理されている。座標テーブル161は、情報処理装置100と接続された入力タブレット200(図2において前述)等のポインティングデバイスで取得されたユーザによって入力された位置の座標を示す座標情報を格納するテーブルである。この座標テーブル161は、座標情報記憶部160に記憶されている。
Next, a table used in the information processing apparatus of this embodiment will be described.
FIG. 4 is a diagram showing the configuration of the coordinate table. A coordinate table 161 illustrated in FIG. 4 is created and managed by the information processing apparatus 100. The coordinate table 161 is a table that stores coordinate information indicating the coordinates of the position input by the user acquired by a pointing device such as the input tablet 200 (described above in FIG. 2) connected to the information processing apparatus 100. The coordinate table 161 is stored in the coordinate information storage unit 160.
 座標テーブル161には、“操作内容”、“データ名”、“データ値”が設けられている。各項目の横方向に並べられた情報同士が互いに関連付けられて、座標情報を構成する。 The coordinate table 161 is provided with “operation contents”, “data name”, and “data value”. Information arranged in the horizontal direction of each item is associated with each other to constitute coordinate information.
 操作内容は、そのデータの取得時においてユーザがポインティングデバイスで行った操作を示す。操作内容には、例えば、ユーザが入力タブレット200に入力ペン201(図2において前述)で位置の入力を開始したことを示す“ペンダウン”、ユーザが入力タブレット200上で位置の入力を行いながら入力ペン201を移動させていることを示す“ペンドラッグ中”、ユーザが入力タブレット200に接触していた入力ペン201を持ち上げて入力タブレット200から離す等によって、入力タブレット200による位置の入力を終了したことを示す“ペンアップ”等がある。 The operation content indicates the operation performed by the user with the pointing device when acquiring the data. The operation content includes, for example, “pen down” indicating that the user has started inputting the position on the input tablet 200 with the input pen 201 (described above in FIG. 2), and the user inputs the position while inputting the position on the input tablet 200. “Pen dragging” indicating that the pen 201 is being moved, and the input of the position by the input tablet 200 is terminated by lifting the input pen 201 that is in contact with the input tablet 200 and releasing it from the input tablet 200. “Pen-up” etc.
 データ名は、ポインティングデバイスで行った操作から取得されたデータの名称を示す。データ名には、例えば、ペンダウン時に取得された位置(始点)のX座標のデータおよびY座標のデータ名を示す“(SX,SY)”、ペンドラッグ中においてn番目に取得された位置のX座標のデータおよびY座標のデータ名を示す“(Xn,Yn)”、ペンアップ時に取得された位置(終点)のX座標のデータおよびY座標のデータ名を示す“(EX,EY)”がある。 The data name indicates the name of data acquired from the operation performed with the pointing device. The data name includes, for example, “(SX, SY)” indicating the X coordinate data and the Y coordinate data name of the position (start point) acquired at the time of pen down, and the X of the position acquired nth during the pen drag. “(Xn, Yn)” indicating the coordinate data and the Y coordinate data name, “(EX, EY)” indicating the X coordinate data and the Y coordinate data name of the position (end point) acquired at the time of pen-up. is there.
 この座標情報により、ポインティングデバイスによって入力された位置が示されると共に、座標情報に基づいて軌跡が示される。また、この軌跡に基づいてアイコンが選択されおよびアイコンの選択が解除される領域が決定される。 This coordinate information indicates the position input by the pointing device and the locus based on the coordinate information. Further, an area where an icon is selected and the selection of the icon is canceled is determined based on the locus.
 この領域の決定において、本実施の形態では、詳しくは図13において後述するが、軌跡に補完直線を追加して、領域を閉じたものとする。具体的には、ユーザによるポインティングデバイスの操作に基づいて取得された軌跡の座標情報に対し、さらに軌跡の始点(座標は、(SX,SY))と終点(座標は、(EX,EY))とを結ぶ。これにより、領域の始点および終点が補完直線によって結ばれる。本実施の形態では、このようにしてアイコンを選択するための閉じた領域が形成される。 In determining the area, in this embodiment, as will be described in detail later with reference to FIG. 13, it is assumed that a complementary line is added to the locus and the area is closed. Specifically, with respect to the coordinate information of the trajectory acquired based on the pointing device operation by the user, the trajectory start point (coordinates are (SX, SY)) and end point (coordinates are (EX, EY)). Tie with. As a result, the start point and end point of the region are connected by the complementary straight line. In the present embodiment, a closed region for selecting an icon is formed in this way.
 次に、本実施の形態における処理の手順について説明する。
 図5は、待機モード処理の手順を示すフローチャートである。
 本実施の形態の情報処理装置100は、この待機モード処理により、入力ペン201のペンダウンを検出し、入力ペン201によってアイコンが直接操作されたか否かについて判定する。次に、判定に基づいて通常の処理を行うかまたは領域を確定してアイコンを選択する選択中モード処理に移行するかを決定する。この待機モード処理は、入力タブレット200および入力ペン201の操作を常に監視するために、情報処理装置100において常時実行される。なお、これに限らず、待機モード処理は、一定時間ごとに定期的に実行されてもよい。以下、待機モード処理について説明する。
Next, a processing procedure in the present embodiment will be described.
FIG. 5 is a flowchart showing a procedure of standby mode processing.
The information processing apparatus 100 according to the present embodiment detects pen-down of the input pen 201 through this standby mode process, and determines whether or not the icon is directly operated by the input pen 201. Next, based on the determination, it is determined whether to perform a normal process or to shift to a selected mode process in which an area is determined and an icon is selected. This standby mode process is always executed in the information processing apparatus 100 in order to constantly monitor the operation of the input tablet 200 and the input pen 201. However, the present invention is not limited to this, and the standby mode process may be executed periodically at regular intervals. Hereinafter, the standby mode process will be described.
 [ステップS11]検出部112が有する開始検出部112a(図3において前述)は、入力ペン201のペンダウンを検出したか否かについて判定する。ペンダウンが検出されていれば、ステップS12に処理が進められる。一方、ペンダウンが検出されていなければ、ペンダウンが検出されるまでステップS11の処理が繰り返される。また、このとき検出部112によって、ペンダウンの座標が座標情報として座標情報記憶部160(図3において前述)に記憶される。 [Step S11] The start detection unit 112a (described above in FIG. 3) of the detection unit 112 determines whether or not the pen-down of the input pen 201 has been detected. If pen-down is detected, the process proceeds to step S12. On the other hand, if the pen-down is not detected, the process of step S11 is repeated until the pen-down is detected. At this time, the detection unit 112 stores the pen-down coordinates as coordinate information in the coordinate information storage unit 160 (described above in FIG. 3).
 [ステップS12]軌跡取得部113は、入力タブレット200におけるステップS11で検出されたペンダウンの位置が、入力タブレット200が有するモニタ(図示省略)の表示画面に表示されたアイコン上であるか否かについて判定する。ペンダウンの位置がアイコン上であれば、ステップS15に処理が進められる。一方、ペンダウンの位置がアイコン上でなければ、ステップS13に処理が進められる。 [Step S12] The trajectory acquisition unit 113 determines whether or not the pen-down position detected in step S11 in the input tablet 200 is on an icon displayed on a display screen of a monitor (not shown) of the input tablet 200. judge. If the pen-down position is on the icon, the process proceeds to step S15. On the other hand, if the pen-down position is not on the icon, the process proceeds to step S13.
 [ステップS13]軌跡取得部113は、領域によってアイコンを選択する選択中モード処理(図6において後述)に移行する。
 [ステップS14]ステップS13で移行した選択中モード処理を経て、コマンド受付モード処理(図7において後述)から復帰すると、ステップS11に処理が進められる。これにより、開始検出部112aによってユーザによる入力ペン201の入力タブレット200に対するペンダウンが検出される。
[Step S13] The trajectory acquisition unit 113 proceeds to a selected mode process (described later in FIG. 6) in which an icon is selected according to an area.
[Step S14] After returning from the command reception mode process (described later in FIG. 7) through the selected mode process transferred in step S13, the process proceeds to step S11. Thereby, the start detection part 112a detects the pen down of the input pen 201 with respect to the input tablet 200 by the user.
 [ステップS15]選択判定部115は、通常のアイコンの選択に基づく処理を実行する。具体的には、図11において後述するが、アイコンの内部の位置で入力ペン201がペンダウンされた場合には、通常のように、そのアイコンが選択される。次に、図示しないメニュー等によってユーザに指定された処理が行われる。 [Step S15] The selection determination unit 115 executes processing based on selection of a normal icon. Specifically, as will be described later with reference to FIG. 11, when the input pen 201 is pen-down at a position inside the icon, the icon is selected as usual. Next, processing designated by the user through a menu (not shown) or the like is performed.
 図6は、選択中モード処理の手順を示すフローチャートである。
 本実施の形態の情報処理装置100は、この選択中モード処理により、待機モード処理(図5において前述)によって検出された入力ペン201のペンダウンに基づいて選択用の軌跡を取得すると共に、検出した入力ペン201のペンアップに基づいて領域を確定し、確定した領域から選択アイコンを判定し、さらに実行する処理の入力を受け付けるメニューを表示する。この選択中モード処理は、待機モード処理のステップS13から移行することによって実行される。以下、選択中モード処理について説明する。
FIG. 6 is a flowchart showing the procedure of the selected mode process.
The information processing apparatus 100 according to the present embodiment acquires and detects a trajectory for selection based on the pen-down of the input pen 201 detected by the standby mode process (described above in FIG. 5) by the selected mode process. A region is determined based on the pen-up of the input pen 201, a selection icon is determined from the determined region, and a menu for receiving an input of a process to be executed is displayed. This selected mode process is executed by shifting from step S13 of the standby mode process. Hereinafter, the selected mode process will be described.
 [ステップS21]検出部112は、ユーザによって入力ペン201で入力された位置の座標を検出する。また、検出された座標が座標情報として座標情報記憶部160(図3において前述)に記憶される。このとき、検出部112は、前回(ペンダウン時または直前の移動時)取得した座標情報と今回取得した座標情報とを比較して、座標が同一であった場合には、今回取得した座標情報を座標情報記憶部160に記憶させない。これにより、入力された位置が変化した場合のみ座標情報が記憶される。 [Step S21] The detection unit 112 detects the coordinates of the position input by the user with the input pen 201. The detected coordinates are stored as coordinate information in the coordinate information storage unit 160 (described above in FIG. 3). At this time, the detection unit 112 compares the coordinate information acquired last time (at the time of pen-down or immediately before movement) with the coordinate information acquired this time, and if the coordinates are the same, It is not stored in the coordinate information storage unit 160. Thereby, coordinate information is memorize | stored only when the input position changes.
 [ステップS22]軌跡取得部113は、座標情報記憶部160に記憶されているその時点までのそのペンダウンについての座標情報からアイコンの選択用の軌跡を取得する。
 [ステップS23]軌跡表示部116は、入力タブレット200の表示画面に、ステップS22で取得したアイコンの選択用の軌跡を表示する。このアイコン選択用の軌跡の表示は、詳しくは図13において後述する。
[Step S <b> 22] The trajectory acquisition unit 113 acquires a trajectory for selecting an icon from the coordinate information about the pen-down stored up to that point stored in the coordinate information storage unit 160.
[Step S23] The trajectory display unit 116 displays the trajectory for selecting the icon acquired in step S22 on the display screen of the input tablet 200. The display of the icon selection locus will be described later in detail with reference to FIG.
 [ステップS24]検出部112が有する終了検出部112b(図3において前述)は、入力ペン201のペンアップを検出したか否かについて判定する。ペンアップを検出していれば、ステップS25に処理が進められる。また、このとき検出部112によって、ペンアップの座標が座標情報として座標情報記憶部160(図3において前述)に記憶される。一方、ペンアップを検出していなければ、ステップS21に処理が進められる。 [Step S24] The end detection unit 112b (described above in FIG. 3) included in the detection unit 112 determines whether pen-up of the input pen 201 has been detected. If pen-up is detected, the process proceeds to step S25. At this time, the detection unit 112 stores pen-up coordinates as coordinate information in the coordinate information storage unit 160 (described above in FIG. 3). On the other hand, if pen-up is not detected, the process proceeds to step S21.
 [ステップS25]軌跡取得部113は、ステップS21およびステップS24で座標情報記憶部160に記憶された、ペンアップされた入力についての座標情報から軌跡を取得する。また、領域確定部114は、座標情報記憶部160に記憶されている座標情報が示すその入力の開始位置の座標および終了位置の座標を連結して閉じた領域を形成して、領域を確定する。この領域については、詳しくは図13において後述する。 [Step S25] The trajectory acquisition unit 113 acquires the trajectory from the coordinate information about the pen-up input stored in the coordinate information storage unit 160 in Step S21 and Step S24. The area determination unit 114 connects the coordinates of the input start position and the end position indicated by the coordinate information stored in the coordinate information storage unit 160 to form a closed area, and determines the area. . This area will be described later in detail in FIG.
 [ステップS26]選択判定部115は、表示されているアイコンについてステップS25で領域確定部114によって確定された領域内であるか否かを判定し、領域内のアイコンのうち選択されていないアイコンを選択されたアイコンである選択アイコンとする。 [Step S26] The selection determination unit 115 determines whether or not the displayed icon is within the region determined by the region determination unit 114 in step S25, and selects an icon that has not been selected among the icons in the region. The selected icon is the selected icon.
 また、選択解除判定部117は、表示されているアイコンについてステップS25で領域確定部114によって確定された領域内であるか否かを判定し、領域内のアイコンのうち既に選択されている選択アイコンの選択を解除する。 In addition, the selection cancellation determination unit 117 determines whether or not the displayed icon is within the region determined by the region determination unit 114 in step S25, and the selection icon that has already been selected among the icons in the region. Cancel the selection.
 [ステップS27]操作表示部119は、ステップS26で判定された選択アイコンに基づく処理に関する入力を受け付けるメニューを入力タブレット200が有するモニタの表示画面に表示する。その後、コマンド受付モード処理(図7において後述)に移行する。このメニューについては、詳しくは図14において後述する。 [Step S27] The operation display unit 119 displays, on the display screen of the monitor of the input tablet 200, a menu for accepting an input related to the processing based on the selection icon determined in Step S26. Thereafter, the process proceeds to a command reception mode process (described later in FIG. 7). This menu will be described in detail later with reference to FIG.
 図7は、コマンド受付モード処理の手順を示すフローチャートである。
 本実施の形態の情報処理装置100は、このコマンド受付モード処理により、ユーザのペンダウンを検出して、選択中モード処理(図6において前述)によって表示されたメニュー(図14において後述)から選択され指示された処理を実行するかまたは再び選択中モード処理に移行してアイコンの選択を繰り返すか否かを判定する。このコマンド受付モード処理は、選択中モード処理から移行することによって実行される。以下、コマンド受付モード処理について説明する。
FIG. 7 is a flowchart illustrating a procedure of command reception mode processing.
The information processing apparatus 100 according to the present embodiment detects the user's pen-down by the command reception mode process, and is selected from the menu (described later in FIG. 14) displayed by the selected mode process (described above in FIG. 6). It is determined whether or not to execute the instructed process or to shift to the selected mode process again and repeat the selection of the icon. This command reception mode process is executed by shifting from the selected mode process. The command reception mode process will be described below.
 [ステップS31]検出部112が有する開始検出部112a(図3において前述)は、入力ペン201のペンダウンを検出したか否かについて判定する。ペンダウンが検出されていれば、ステップS32に処理が進められる。一方、ペンダウンが検出されていなければ、ペンダウンが検出されるまでステップS31の処理が繰り返される。また、このとき検出部112によって、ペンダウンの座標が座標情報として座標情報記憶部160(図3において前述)に記憶される。 [Step S31] The start detection unit 112a (described above in FIG. 3) of the detection unit 112 determines whether or not the pen-down of the input pen 201 has been detected. If pen down is detected, the process proceeds to step S32. On the other hand, if the pen-down is not detected, the process of step S31 is repeated until the pen-down is detected. At this time, the detection unit 112 stores the pen-down coordinates as coordinate information in the coordinate information storage unit 160 (described above in FIG. 3).
 [ステップS32]操作表示部119(図3において前述)は、入力タブレット200におけるステップS31でペンダウンが検出された入力において、メニューの項目のいずれかがタップ(tap)されたか否か、すなわちペンダウンおよびペンアップが行われ、かつ、ペンダウンされた位置が選択中モード処理のステップS27において入力タブレット200が有するモニタ(図示省略)の表示画面に表示されたメニューのいずれかの項目上であるか否かについて判定する。メニューがタップされていれば、ステップS33に処理が進められる。一方、メニューがタップされていなければ、ステップS35に処理が進められる。 [Step S32] The operation display unit 119 (described above in FIG. 3) determines whether or not any of the menu items has been tapped in the input in which the pen down is detected in Step S31 of the input tablet 200, that is, the pen down and Whether or not the pen-up is performed and the pen-down position is on any item of the menu displayed on the display screen of the monitor (not shown) of the input tablet 200 in step S27 of the selected mode process Judge about. If the menu is tapped, the process proceeds to step S33. On the other hand, if the menu is not tapped, the process proceeds to step S35.
 [ステップS33]選択アイコン処理実行部118は、ステップS32において検出部112によって検出されたペンダウンの座標に表示されているメニューの項目および選択判定部115(図3において前述)によって選択されたと判定された選択アイコンに基づく処理を実行する。これにより、ユーザがメニューから選択した処理が実行される。 [Step S33] The selection icon processing execution unit 118 determines that the menu item displayed at the pen-down coordinates detected by the detection unit 112 in Step S32 and the selection determination unit 115 (described above in FIG. 3) have selected. The process based on the selected icon is executed. Thereby, the process selected by the user from the menu is executed.
 [ステップS34]操作表示部119は、選択中モード処理のステップS27において入力タブレット200が有するモニタ(図示省略)の表示画面に表示されたメニューの表示を消す。その後、新たなアイコンの選択の入力を受け付けるために、待機モード処理(図5において前述)に移行される。 [Step S34] The operation display unit 119 erases the menu displayed on the display screen of the monitor (not shown) of the input tablet 200 in step S27 of the selected mode process. Thereafter, in order to accept an input for selecting a new icon, the process proceeds to a standby mode process (described above in FIG. 5).
 [ステップS35]操作表示部119は、選択中モード処理のステップS27において入力タブレット200が有するモニタ(図示省略)の表示画面に表示されたメニューの表示を消す。その後、アイコンの選択の追加の入力を受け付けるために、選択中モード処理に移行される。 [Step S35] The operation display unit 119 erases the menu displayed on the display screen of the monitor (not shown) of the input tablet 200 in step S27 of the selected mode process. Thereafter, in order to accept an additional input for selecting an icon, the process proceeds to a selection mode process.
 次に、本実施の形態におけるアイコンが選択されたか否かの判定について説明する。
 図8から図10は、アイコンが領域内であるか否かの判定を示す図である。
 まず、図8にしたがって、アイコン211が領域212の領域内であるか否かの判定について説明する。図8に示したアイコン211は、入力タブレット200が有するモニタ(図示省略)に表示されたアイコンである。以下に、このアイコン211がモニタ上の領域212の領域内であるか否かの判定について説明する。
Next, determination of whether or not an icon in the present embodiment has been selected will be described.
FIG. 8 to FIG. 10 are diagrams showing the determination as to whether or not the icon is within the area.
First, referring to FIG. 8, the determination of whether or not the icon 211 is within the area 212 will be described. An icon 211 illustrated in FIG. 8 is an icon displayed on a monitor (not illustrated) included in the input tablet 200. Hereinafter, determination of whether or not the icon 211 is within the area 212 on the monitor will be described.
 アイコン211の中心であるアイコン中心211aの座標を(IX,IY)とする。また、アイコン211の高さをH、幅をWとする。この場合、アイコン211の左上の隅の点であるアイコン左上211bの座標は、“(IX-W/2,IY-H/2)”で示される。アイコンの右下の隅の点であるアイコン右下211cの座標は、“(IX+W/2,IY+H/2)”で示される。同様に、アイコンの右上の隅の点である図示しないアイコン右上の座標は、“(IX+W/2,IY-H/2)”で示される。アイコンの左下の隅の点である図示しないアイコン左下の座標は、“(IX-W/2,IY+H/2)”で示される。また、アイコン内のすべての点は、“(IX-W/2,IY-H/2)~(IX+W/2,IY+H/2)”の範囲内に含まれる。 The coordinates of the icon center 211a, which is the center of the icon 211, are (IX, IY). The height of the icon 211 is H and the width is W. In this case, the coordinates of the icon upper left 211b, which is a point at the upper left corner of the icon 211, are indicated by "(IX-W / 2, IY-H / 2)". The coordinates of the icon lower right 211c, which is a point at the lower right corner of the icon, are indicated by “(IX + W / 2, IY + H / 2)”. Similarly, the coordinates of the upper right corner of the icon (not shown), which is the upper right corner point of the icon, are indicated by “(IX + W / 2, IY−H / 2)”. The coordinates of the lower left corner of the icon (not shown), which is the lower left corner point of the icon, are indicated by “(IX−W / 2, IY + H / 2)”. All points in the icon are included in the range of “(IX−W / 2, IY−H / 2) to (IX + W / 2, IY + H / 2)”.
 領域212は、ユーザが入力タブレット200に対して入力ペン201で入力した位置の座標の軌跡“(SX,SY)~(Xn,Yn)~(EX,EY)”で囲まれた領域である。ここで、詳しくは図13において後述するが、この軌跡は、既にユーザによる入力後に補完直線が追加されており、領域が閉じられたものであるとする。 The area 212 is an area surrounded by coordinate trajectories “(SX, SY) to (Xn, Yn) to (EX, EY)” of positions input by the user with the input pen 201 to the input tablet 200. Here, as will be described in detail later with reference to FIG. 13, it is assumed that a complementary straight line has already been added to this locus after input by the user, and the region has been closed.
 アイコン211内のすべての座標上の点のうち、領域212の領域内にある座標上の点が50%以上である場合、そのアイコン211は、選択された(選択アイコンである)と判定される。一方、アイコン211内のすべての座標上の点のうち、領域212の領域内にある座標上の点が50%未満である場合、そのアイコン211は、選択されていないと判定される。 When the point on the coordinates within the area 212 among all the points on the coordinates in the icon 211 is 50% or more, the icon 211 is determined to be selected (is the selected icon). . On the other hand, if the point on the coordinates within the area 212 among all the points on the coordinates in the icon 211 is less than 50%, it is determined that the icon 211 is not selected.
 なお、本実施の形態では、アイコン211内のすべての座標上の点について領域212内であるか否かに基づいてアイコンが領域212内であるか否かを判定するが、これに限らず、アイコン211の座標上のうちの一部を抽出して、抽出した点が領域212内であるか否かに基づいて判定してもよい。 In the present embodiment, it is determined whether or not the icon is in the area 212 based on whether or not the point on all coordinates in the icon 211 is in the area 212. However, the present invention is not limited to this. A part of the coordinates of the icon 211 may be extracted, and determination may be made based on whether or not the extracted point is within the region 212.
 また、本実施の形態ではアイコン内の座標上の点のうち50%以上が領域212の領域内である場合にアイコンが選択されたと判定するが、これに限らず、アイコン211が選択されたと判定されるアイコン211内の座標上の点が領域212内である割合は、任意の割合に定めることができる。 In the present embodiment, it is determined that the icon is selected when 50% or more of the points on the coordinates in the icon are within the area 212. However, the present invention is not limited to this, and it is determined that the icon 211 is selected. The ratio at which the point on the coordinate in the icon 211 is in the area 212 can be set to an arbitrary ratio.
 次に、図9にしたがって、アイコン211の各点についての領域212の領域内であるか否かの判定について説明する。
 本実施の形態では、アイコン211内のある点が領域212の領域内であるか領域外であるかを判定する場合、その点から入力タブレット200が有するモニタ(図示省略)の表示画面の表示領域における任意の方向(例えば、右方向)に向かって表示領域外まで直線を引いたときに、その直線と領域212を囲む軌跡との交点の個数をカウントし、カウントされた個数が偶数(“0”を含む)であるか奇数であるかによって判定する。
Next, referring to FIG. 9, the determination as to whether or not each point of the icon 211 is within the area 212 will be described.
In this embodiment, when determining whether a certain point in the icon 211 is inside or outside the region 212, the display region of the display screen of the monitor (not shown) of the input tablet 200 is determined from that point. When a straight line is drawn to the outside of the display area in an arbitrary direction (for example, right direction), the number of intersections between the straight line and the locus surrounding the area 212 is counted, and the counted number is an even number (“0 It is judged by whether it is "includes" or an odd number.
 ここで、アイコン211の内部の点の1つである点211dを用いてこの判定について説明する。点211dから右方向に直線を引くと、領域212を囲む軌跡との交点の個数は0である。したがって、その直線と軌跡との交点が偶数であるため、点211dは領域212の領域外であると判定される。また、アイコン211内の別の点である点211eは、右方向に直線を引くと、領域212を囲む軌跡との交点の個数は2である。したがって、その直線と軌跡との交点が偶数であるため、点211eは領域212の領域外であると判定される。 Here, this determination will be described using a point 211d which is one of the points inside the icon 211. When a straight line is drawn from the point 211d in the right direction, the number of intersections with the trajectory surrounding the region 212 is zero. Therefore, since the intersection of the straight line and the trajectory is an even number, the point 211d is determined to be outside the region 212. Further, when the point 211e, which is another point in the icon 211, draws a straight line in the right direction, the number of intersections with the locus surrounding the region 212 is two. Therefore, since the intersection of the straight line and the locus is an even number, the point 211e is determined to be outside the region 212.
 一方、アイコン211内のさらに別の点である点211fは、右方向に直線を引くと、領域212を囲む軌跡との交点の個数は1である。したがって、その直線と軌跡との交点が奇数であるため、点211fは領域212の領域内であると判定される。 On the other hand, when the point 211f, which is still another point in the icon 211, draws a straight line in the right direction, the number of intersections with the locus surrounding the region 212 is 1. Therefore, since the intersection of the straight line and the trajectory is an odd number, the point 211f is determined to be within the region 212.
 次に、図10を用いて、領域213の外周の形が複雑で凹凸が存在する場合におけるアイコン211の各点についての領域213の領域内であるか否かの判定について説明する。 Next, the determination of whether or not each point of the icon 211 is within the region 213 in the case where the outer shape of the region 213 is complicated and has unevenness will be described with reference to FIG.
 領域213の外周の形が複雑である場合にも、アイコン211の各点について、図10に示すように、図9と同様にして、領域213の領域内であるか領域外であるかについて判定することができる。 Even when the shape of the outer periphery of the region 213 is complicated, as shown in FIG. 10, it is determined whether each point of the icon 211 is within the region 213 or outside the region as shown in FIG. can do.
 次に、本実施の形態における表示画面に表示されたアイコンの選択時の操作について説明する。
 図11は、通常の選択時におけるファイルウインドウを示す図である。
Next, an operation at the time of selecting an icon displayed on the display screen in the present embodiment will be described.
FIG. 11 is a diagram showing a file window during normal selection.
 図11に示すファイルウインドウ230は、情報処理装置100(図2において前述)に接続された入力タブレット200のモニタ(図示省略)の表示画面に表示されたウインドウであり、情報処理装置100(図2において前述)のHDD103(図2において前述)等に記憶されているファイルを示すアイコンが複数表示されているアイコン表示領域231を有する。 A file window 230 shown in FIG. 11 is a window displayed on the display screen of the monitor (not shown) of the input tablet 200 connected to the information processing apparatus 100 (described above in FIG. 2). The icon display area 231 displays a plurality of icons indicating files stored in the HDD 103 (described above in FIG. 2) or the like.
 ファイルウインドウ230では、表示されたアイコンの1つがユーザにより入力ペン201で選択されている。また、選択されたアイコンが強調表示231aのように強調されている。ユーザは、この強調表示231aによって、アイコンが選択されていることおよび選択されたアイコンを認識することができる。 In the file window 230, one of the displayed icons is selected with the input pen 201 by the user. In addition, the selected icon is highlighted as in the highlighted display 231a. The user can recognize that the icon is selected and the selected icon by this highlighting 231a.
 ユーザは、アイコン表示領域231に表示されているアイコン上に入力ペン201を入力タブレット200にペンダウンすることで、アイコンを選択することができる。また、ユーザは、アイコン上にペンダウンした入力ペン201をドラッグ(drag)することによって、そのアイコンを移動、コピー等させることができる。また、ユーザは選択されたアイコンを入力ペン201でタップすることにより、例えばアイコンが示すファイルを開いたり、アイコンが示すアプリケーションを起動させたりすることができる。 The user can select an icon by pen-downing the input pen 201 onto the input tablet 200 on the icon displayed in the icon display area 231. Also, the user can move, copy, etc. the icon by dragging the input pen 201 pen-down on the icon. Further, by tapping the selected icon with the input pen 201, the user can open, for example, a file indicated by the icon or activate an application indicated by the icon.
 このようにして、ユーザは1つのアイコンを選択し、選択したアイコンに関する処理を情報処理装置100に実行させることができる。
 ここで、本実施の形態では、強調表示231aのように、アイコンに対して、さらに斜線で示された領域を重ねて表示することで強調しているが、これに限らず、例えば反転表示、網掛け表示等、他の表示方法によって強調してもよい。図12から図16についても同様である。
In this way, the user can select one icon and cause the information processing apparatus 100 to execute processing related to the selected icon.
Here, in the present embodiment, as shown in the highlight display 231a, the icon is emphasized by overlapping and displaying an area indicated by diagonal lines. However, the present invention is not limited to this. You may emphasize by other display methods, such as a shading display. The same applies to FIGS. 12 to 16.
 図12および図13は、選択中モードにおけるアイコンの選択時のファイルウインドウを示す図である。
 図12に示すファイルウインドウ240は、図11と同様、情報処理装置100(図2において前述)に接続された入力タブレット200のモニタ(図示省略)の表示画面に表示されたウインドウであり、情報処理装置100のHDD103(図2において前述)等に記憶されているファイルを示すアイコンが複数表示されているアイコン表示領域241を有する。
12 and 13 are diagrams showing a file window when an icon is selected in the selected mode.
A file window 240 shown in FIG. 12 is a window displayed on the display screen of the monitor (not shown) of the input tablet 200 connected to the information processing apparatus 100 (described above in FIG. 2), as in FIG. It has an icon display area 241 in which a plurality of icons indicating files stored in the HDD 103 (described above in FIG. 2) of the apparatus 100 are displayed.
 ユーザは、図12に示すように、アイコン表示領域241上の空白部分に対して入力ペン201を入力タブレット200にペンダウンすることで、本実施の形態の情報処理装置100は、待機モード処理から選択中モード処理に移行する(図5のステップS12およびステップS13において前述)。これによりユーザは、図13に示すように、入力ペン201によって複数のアイコンを同時に選択することができる。 As illustrated in FIG. 12, the user pens down the input pen 201 onto the input tablet 200 with respect to the blank portion on the icon display area 241, so that the information processing apparatus 100 according to the present embodiment selects from the standby mode processing. The process proceeds to the middle mode process (described above in steps S12 and S13 in FIG. 5). As a result, the user can simultaneously select a plurality of icons with the input pen 201 as shown in FIG.
 図13に示すファイルウインドウ250のアイコン表示領域251では、ユーザが入力ペン201を用いて入力タブレット200上で選択する1または複数のアイコンを囲む動作をすることにより、ユーザの入力ペン201で描かれた軌跡252bおよび補完直線253bで囲むことで選択されたアイコンが強調表示251bのように強調されている。 The icon display area 251 of the file window 250 shown in FIG. 13 is drawn with the user's input pen 201 by performing an operation of surrounding one or more icons selected on the input tablet 200 by the user using the input pen 201. The icon selected by surrounding it with the locus 252b and the supplementary straight line 253b is highlighted as in the highlighted display 251b.
 ここで、軌跡252bは、ファイルウインドウ250のアイコン表示領域251上に実線で表示されている。この軌跡252bは、ユーザが入力タブレット200上で入力ペン201を移動させて入力している位置を変化させるにしたがって変化し、ユーザがペンダウンしてから現在の入力位置までにたどった曲線がリアルタイムで表示される。 Here, the locus 252b is displayed as a solid line on the icon display area 251 of the file window 250. The locus 252b changes as the user moves the input pen 201 on the input tablet 200 to change the position where the user is inputting, and a curve traced from the pen down to the current input position in real time. Is displayed.
 また、軌跡252bの始点および終点が補完直線253bによって結ばれている。この補完直線253bは、ファイルウインドウ250のアイコン表示領域251上に点線で表示されている。補完直線253bは、ユーザが入力ペン201を移動させることにより現在の入力位置が変化する都度、軌跡252bの始点および現在の終点を結ぶようにリアルタイムで表示される。 Also, the start point and end point of the trajectory 252b are connected by a complementary straight line 253b. The complementary straight line 253 b is displayed as a dotted line on the icon display area 251 of the file window 250. The complementary straight line 253b is displayed in real time so as to connect the start point and the current end point of the trajectory 252b each time the current input position changes as the user moves the input pen 201.
 これらの軌跡252bおよび補完直線253bを結合した線を外周として領域が閉じた領域として形成される。ユーザが入力ペン201をペンアップした時点で、この領域が確定する。このようにして確定された領域内のアイコンが選択された選択アイコンとして判定される。 A line formed by connecting these trajectory 252b and complementary straight line 253b is formed as a closed area with the outer circumference as a line. When the user pens up the input pen 201, this area is fixed. The icon in the area thus determined is determined as the selected selection icon.
 図14は、コマンド受付モード時のファイルウインドウを示す図である。
 図14に示すファイルウインドウ260の付近に、アイコン表示領域261で強調表示261bにより強調された選択アイコンに関して実行される処理をユーザが入力するメニュー264が表示されている。
FIG. 14 is a diagram showing a file window in the command reception mode.
In the vicinity of the file window 260 shown in FIG. 14, a menu 264 for allowing the user to input processing to be executed regarding the selected icon highlighted by the highlight display 261 b in the icon display area 261 is displayed.
 選択された複数のアイコンが強調表示261bのように強調されていることによって、ユーザはアイコンが選択されていることおよび選択されたアイコンを認識することができる。 The user can recognize that the icon is selected and the selected icon by highlighting the selected icons as highlighted 261b.
 ユーザは、複数のアイコンが選択された状態で入力ペン201によりメニュー264の項目をタップすることによって、情報処理装置100(図2において前述)に選択した複数のアイコンについてコピー、削除、移動(送る)、選択の解除等の処理を実行させることができる。 The user copies, deletes, and moves (sends) a plurality of selected icons to the information processing apparatus 100 (described above in FIG. 2) by tapping an item of the menu 264 with the input pen 201 in a state where the plurality of icons are selected. ), Processing such as deselection can be executed.
 図15は、選択中モードにおける追加の選択時のファイルウインドウを示す図である。
 図15に示すファイルウインドウ270のアイコン表示領域271では、図14と同様に複数の選択アイコンが強調表示271bのように強調されると共に、軌跡272cおよび補完直線273cで形成された領域内の複数のアイコンが、強調表示271cのように強調されている。
FIG. 15 is a diagram showing a file window at the time of additional selection in the selected mode.
In the icon display area 271 of the file window 270 shown in FIG. 15, a plurality of selection icons are highlighted as in the highlighted display 271b, as in FIG. The icon is highlighted as in the highlighted display 271c.
 ユーザは、コマンド受付モード処理(図7のステップS32において前述)でメニュー(図14において前述)以外の部分にペンダウンすることにより、新たに選択アイコンを追加することができる。このときユーザは、入力タブレット200上で入力ペン201を軌跡272cのように移動させて選択するアイコンを囲むことで、軌跡272cおよび補完直線273cを外周とする領域が形成される。 The user can add a new selection icon by pen-downing to a part other than the menu (described above in FIG. 14) in the command reception mode process (described above in step S32 in FIG. 7). At this time, the user moves the input pen 201 like the locus 272c on the input tablet 200 to surround an icon to be selected, thereby forming an area having the locus 272c and the complementary straight line 273c as an outer periphery.
 このとき、図13と同様、軌跡272cは、ファイルウインドウ270のアイコン表示領域271上に実線で表示されている。この軌跡272cは、ユーザが入力タブレット200上で入力ペン201を移動させて入力している位置を変化させるにしたがって変化し、ユーザがペンダウンしてから現在の入力位置までにたどった曲線がリアルタイムで表示される。 At this time, the locus 272c is displayed as a solid line on the icon display area 271 of the file window 270, as in FIG. The locus 272c changes as the user moves the input pen 201 on the input tablet 200 to change the position where the user is inputting, and a curve traced from the pen down to the current input position in real time. Is displayed.
 また、軌跡272cの始点および終点が補完直線273cによって結ばれている。この補完直線273cは、ファイルウインドウ270のアイコン表示領域271上に点線で表示されている。補完直線273cは、ユーザが入力ペン201を移動させることにより現在の入力位置が変化する都度、軌跡272cの始点および現在の終点を結ぶようにリアルタイムで表示される。 Also, the start point and end point of the locus 272c are connected by a complementary straight line 273c. The complementary straight line 273c is displayed as a dotted line on the icon display area 271 of the file window 270. The complementary straight line 273c is displayed in real time so as to connect the start point and the current end point of the locus 272c each time the current input position changes as the user moves the input pen 201.
 これらの軌跡272cおよび補完直線273cを結合した線を外周として領域が閉じた領域として形成される。ユーザが入力ペン201をペンアップした時点で、この領域が確定する。このようにして確定された領域内のアイコンが、追加で選択された選択アイコンとして判定される。 The line is formed as a closed region with a line obtained by combining the locus 272c and the complementary straight line 273c as an outer periphery. This region is fixed when the user pens up the input pen 201. The icon in the area thus determined is determined as a selection icon selected additionally.
 図16は、選択中モードにおける選択の解除時のファイルウインドウを示す図である。
 図16に示すファイルウインドウ280のアイコン表示領域281では、図15と同様に複数の選択アイコンが強調表示281c,281dのように強調されると共に、軌跡282dおよび補完直線283dで形成された領域内の複数のアイコンが、強調表示281dの対象から除外されている。
FIG. 16 is a diagram showing a file window when the selection is canceled in the selected mode.
In the icon display area 281 of the file window 280 shown in FIG. 16, a plurality of selection icons are highlighted as in the highlighted displays 281c and 281d as in FIG. 15, and in the area formed by the locus 282d and the complementary straight line 283d. A plurality of icons are excluded from the objects of the highlight display 281d.
 ユーザは、入力ペン201をペンダウンし、入力タブレット200上で既に選択したアイコンを軌跡282dが囲むように後に入力ペン201を移動させてからペンアップすることにより、メニュー(図15において前述)によって実行される処理を指定するまでは、既に選択された選択アイコンのうちの一部のアイコンの選択を解除して、選択アイコンから除外することができる。このときユーザは、入力タブレット200上で入力ペン201を軌跡282dのように移動させて選択を解除するアイコンを囲むことで、軌跡282dおよび補完直線283dを外周とする領域が形成される。 The user pens down the input pen 201, moves the input pen 201 later so that the locus 282d surrounds the icon that has already been selected on the input tablet 200, and then performs the pen up, which is executed by the menu (described above in FIG. 15). Until a process to be performed is designated, it is possible to deselect some of the already selected selection icons and remove them from the selection icons. At this time, the user moves the input pen 201 like the locus 282d on the input tablet 200 and surrounds an icon to cancel the selection, thereby forming an area having the locus 282d and the complementary straight line 283d as the outer periphery.
 このとき、図15と同様、軌跡282dは、ファイルウインドウ280のアイコン表示領域281上に実線で表示されている。この軌跡282dは、ユーザが入力タブレット200上で入力ペン201を移動させて入力している位置を変化させるにしたがって変化するように表示される。軌跡282dは、ユーザがペンダウンしてから現在の入力位置に到達するまでにたどった曲線が、リアルタイムで変化しながら表示される。 At this time, as in FIG. 15, the locus 282d is displayed as a solid line on the icon display area 281 of the file window 280. The trajectory 282d is displayed so as to change as the user moves the input pen 201 on the input tablet 200 to change the input position. The trajectory 282d is displayed while the curve traced from when the user pen-downed until reaching the current input position changes in real time.
 また、軌跡282dの始点および終点が補完直線283dによって結ばれている。この補完直線283dは、ファイルウインドウ280のアイコン表示領域281上に点線で表示されている。補完直線283dは、ユーザが入力ペン201を移動させることにより現在の入力位置が変化する都度、軌跡282dの始点および現在の終点を結ぶようにリアルタイムで表示される。 In addition, the start point and the end point of the locus 282d are connected by the complementary straight line 283d. The complementary straight line 283d is displayed as a dotted line on the icon display area 281 of the file window 280. The complementary straight line 283d is displayed in real time so as to connect the start point and the current end point of the locus 282d each time the current input position changes as the user moves the input pen 201.
 これらの軌跡282dおよび補完直線283dを結合した線を外周として領域が閉じた領域として形成される。ユーザが入力ペン201をペンアップした時点で、この領域が確定する。このようにして確定された領域内のアイコンの選択が解除され、選択アイコンから除外される。 The line is formed as a closed region with the line connecting these locus 282d and the complementary straight line 283d as the outer periphery. This region is fixed when the user pens up the input pen 201. The selection of the icon in the region thus determined is canceled and excluded from the selected icon.
 これにより、ユーザは一旦選択したアイコンの選択を解除することができる。例えば、ユーザはドーナッツ状のように領域の一部を中抜きした形状とするなど、一筆書きでは描けない境界線を持つ領域を形成してアイコンを選択することもできる。 This allows the user to deselect the icon once selected. For example, the user can select an icon by forming a region having a border line that cannot be drawn with a single stroke, such as a donut shape with a part of the region cut out.
 また、図16では軌跡282dは既に選択された選択アイコンのみを囲んでいるが、これに限らず、ユーザは、選択されていないアイコンと既に選択された選択アイコンとを一度に軌跡で囲む操作をすることもできる。この操作に基づいて、情報処理装置100では、選択判定部115が、領域確定部114が確定した領域内において選択されていないアイコンを選択アイコンとすると共に、選択解除判定部117が、領域内において既に選択されている選択アイコンの選択を解除する。 In FIG. 16, the locus 282d encloses only the selected icon that has already been selected. However, the present invention is not limited to this, and the user performs an operation of simultaneously enclosing the unselected icon and the already selected selection icon with the locus. You can also Based on this operation, in the information processing apparatus 100, the selection determination unit 115 sets an icon that has not been selected in the region determined by the region determination unit 114 as a selection icon, and the selection cancellation determination unit 117 performs the operation in the region. Deselect a selection icon that has already been selected.
 ここで、一般的な情報処理装置において、表示画面に接触して入力する入力タブレットおよび入力ペンを用いて「アイコンが多数提示されており、その中からアイコンを選択する場合」におけるユーザの操作について考える。 Here, in a general information processing apparatus, a user's operation in “when many icons are presented and an icon is selected from among them” using an input tablet and an input pen that are input by touching a display screen Think.
 アイコンを1つのみ選択する場合であれば、対象のアイコンをタップする等によって選択することができるが、2つ目のアイコンを単純にタップしてした場合、通常は1つ目の選択が解除されてしまい、2個目のアイコンのみが選択された状態になってしまう。 If only one icon is selected, it can be selected by tapping the target icon, etc., but if the second icon is simply tapped, the first selection is usually canceled. As a result, only the second icon is selected.
 そのため、通常こういった場合は「何らかの操作をしながらタップする」という操作が必要になっている。例えば、Windows(登録商標)の場合であれば、Ctrlキーを押しながらタップするなどである。このため、ペンや指のみで操作することができず、入力タブレットによるスムーズな操作の実現に対する大きな妨げとなっている。 Therefore, in such a case, an operation of “tapping while performing some operation” is usually required. For example, in the case of Windows (registered trademark), the user taps while pressing the Ctrl key. For this reason, it cannot operate with only a pen and a finger, and has become a big hindrance to realization of smooth operation by an input tablet.
 また、直接アイコンをタップせずに「アイコンが含まれる領域を斜めにドラッグする」という選択操作方法も存在するが、直感的ではない。
 これに対して、本実施の形態では、アイコンを選択する時において、直観的な操作が可能になることでスムーズに操作可能であることに加え、選択範囲を広げたり一部アイコンのみを選択から解除したりといった行為の操作性を向上させることができる。
Further, there is a selection operation method of “dragging an area including an icon” without directly tapping the icon, but it is not intuitive.
On the other hand, in this embodiment, when selecting an icon, in addition to being able to operate smoothly by enabling an intuitive operation, the selection range can be expanded or only a part of icons can be selected. It is possible to improve the operability of actions such as canceling.
 以上のように、本実施の形態の情報処理装置100によれば、選択判定部115が、入力タブレット200および入力ペン201によって入力された位置の軌跡で囲まれた領域内にアイコンが存在するか否かを判定して、領域内のアイコンを選択アイコンと判定することにより、入力タブレット200および入力ペン201を操作してアイコンを選択する時にスムーズに操作でき、アイコン選択時の操作性を向上させることが可能になる。 As described above, according to the information processing apparatus 100 of the present embodiment, whether the selection determination unit 115 has an icon in the area surrounded by the locus of the position input by the input tablet 200 and the input pen 201. By determining whether or not the icon in the area is a selected icon, the input tablet 200 and the input pen 201 can be operated smoothly when the icon is selected, and the operability when selecting the icon is improved. It becomes possible.
 また、キーボードの大きさを十分に取りにくいモバイルマシンや、キーボードのない操作端末(銀行のATMやコンビニの多目的端末等)において、複数のアイコンを選択する際の操作性を大きく向上させることが可能になり、これらのハードウェアの利用性を向上させることができる。 In addition, it is possible to greatly improve the operability when selecting multiple icons on a mobile machine that does not take up enough keyboard size, or on an operation terminal without a keyboard (such as a bank ATM or a multi-purpose terminal at a convenience store). Thus, the usability of these hardware can be improved.
 なお、上記の処理機能は、コンピュータによって実現することができる。その場合、情報処理装置100が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。 Note that the above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the information processing apparatus 100 should have is provided. By executing the program on a computer, the above processing functions are realized on the computer.
 処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体には、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等がある。磁気記録装置には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)等がある。光ディスクには、DVD(Digital Versatile Disc)、DVD-RAM、CD-ROM(Compact Disc - Read Only Memory)、CD-R(Recordable)/RW(ReWritable)等がある。光磁気記録媒体には、MO(Magneto - Optical disk)等がある。 The program describing the processing content can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Magnetic recording devices include HDDs, flexible disks (FD), magnetic tapes (MT) and the like. Optical discs include DVD (Digital Versatile Disc), DVD-RAM, CD-ROM (Compact Disc-Read Only Memory), CD-R (Recordable) / RW (ReWritable), and the like. Magneto-optical recording media include MO (Magneto-Optical Disk).
 上記プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD-ROM等の可搬型記録媒体が販売される。また、プログラムをサーバコンピュータに格納しておき、ネットワークを通じて、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When distributing the above program, for example, a portable recording medium such as a DVD or CD-ROM in which the program is recorded is sold. It is also possible to store the program in a server computer and transfer the program from the server computer to another computer via a network.
 上記プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.
 以上、開示の選択入力受付プログラム、情報処理装置および選択入力受付方法を、図示の実施の形態に基づいて説明したが、各部の構成は同様の機能を有する任意の構成のものに置換することができる。また、開示の技術に他の任意の構成物や工程が付加されてもよい。また、開示の技術は前述した実施の形態のうちの任意の2以上の構成を組み合わせたものであってもよい。 As described above, the disclosed selection input receiving program, information processing apparatus, and selection input receiving method have been described based on the illustrated embodiment. However, the configuration of each unit may be replaced with any configuration having the same function. it can. In addition, any other component or process may be added to the disclosed technology. Further, the disclosed technique may be a combination of any two or more of the above-described embodiments.
 上記については単に本発明の原理を示すものである。さらに、多数の変形、変更が当業者にとって可能であり、開示の技術は上記に示し、説明した正確な構成および応用例に限定されるものではなく、対応するすべての変形例および均等物は、添付の請求項およびその均等物による本発明の範囲とみなされる。 The above merely shows the principle of the present invention. In addition, many variations and modifications can be made by those skilled in the art, and the disclosed technology is not limited to the exact configurations and applications shown and described above, and all corresponding variations and equivalents are The scope of the invention is to be determined by the appended claims and their equivalents.
符号の説明Explanation of symbols
 1 情報処理装置
 1a アイコン表示手段
 1b 検出手段
 1c 軌跡取得手段
 1d 領域確定手段
 1e 選択判定手段
 2 ポインティングデバイス
 21 表示画面
 21a アイコン
 21b 軌跡
 21c 領域
 22 入力ペン
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 1a Icon display means 1b Detection means 1c Trajectory acquisition means 1d Area determination means 1e Selection determination means 2 Pointing device 21 Display screen 21a Icon 21b Trajectory 21c Area 22 Input pen

Claims (18)

  1.  コンピュータに、アイコンを選択する入力を受け付ける処理を実行させる選択入力受付プログラムにおいて、
     前記コンピュータを、
     ポインティングデバイスによる表示画面上における位置の入力を検出する検出手段、
     前記検出手段によって検出された前記位置の軌跡を取得する軌跡取得手段、
     前記軌跡取得手段によって取得された前記軌跡で囲まれた領域を確定する領域確定手段、
     前記領域確定手段によって確定された前記領域内に、前記表示画面に表示されたアイコンが存在するか否かを判定し、前記領域内に前記表示画面に表示された前記アイコンが存在する場合には、前記領域内の前記アイコンを選択された選択アイコンとする選択判定手段、
     として機能させることを特徴とする選択入力受付プログラム。
    In a selection input receiving program for causing a computer to execute a process of receiving an input for selecting an icon,
    The computer,
    Detecting means for detecting an input of a position on a display screen by a pointing device;
    Trajectory acquisition means for acquiring a trajectory of the position detected by the detection means;
    Area determination means for determining an area surrounded by the trajectory acquired by the trajectory acquisition means;
    It is determined whether or not the icon displayed on the display screen exists in the area determined by the area determination means, and when the icon displayed on the display screen exists in the area , Selection determination means for selecting the icon in the region as a selected selection icon,
    A selection input receiving program characterized by functioning as:
  2.  前記検出手段は、
     前記ポインティングデバイスによる前記位置の入力の開始と前記位置の入力の開始位置とを検出する開始検出手段と、
     前記ポインティングデバイスによる前記位置の入力の終了と前記位置の入力の終了位置とを検出する終了検出手段と、
     を有することを特徴とする請求の範囲第1項記載の選択入力受付プログラム。
    The detection means includes
    Start detection means for detecting a start of the position input by the pointing device and a start position of the position input;
    An end detection means for detecting an end of input of the position by the pointing device and an end position of input of the position;
    The selection input receiving program according to claim 1, comprising:
  3.  前記コンピュータを、
     前記軌跡取得手段によって取得された前記軌跡を前記表示画面に表示させる軌跡表示手段として機能させることを特徴とする請求の範囲第1項記載の選択入力受付プログラム。
    The computer,
    The selection input receiving program according to claim 1, wherein the program is made to function as a trajectory display means for displaying the trajectory acquired by the trajectory acquisition means on the display screen.
  4.  前記コンピュータを、
     前記選択アイコンに基づいて実行される処理を指示する入力操作を受け付ける操作手段を前記表示画面に表示させる操作表示手段として機能させることを特徴とする請求の範囲第1項記載の選択入力受付プログラム。
    The computer,
    The selection input receiving program according to claim 1, wherein an operation means for receiving an input operation instructing a process to be executed based on the selection icon is caused to function as an operation display means for displaying on the display screen.
  5.  前記コンピュータを、
     前記領域確定手段によって確定された前記領域内に前記選択アイコンが存在するか否かを判定し、前記領域内に前記選択アイコンが存在する場合には、前記領域内の前記選択アイコンの選択を解除する選択解除判定手段として機能させることを特徴とする請求の範囲第1項記載の選択入力受付プログラム。
    The computer,
    It is determined whether or not the selection icon exists in the area determined by the area determination means, and when the selection icon exists in the area, the selection icon in the area is deselected. The selection input receiving program according to claim 1, wherein the selection input receiving program is made to function as a selection cancellation determination means.
  6.  前記軌跡取得手段は、前記開始検出手段によって検出された前記位置の入力の前記開始位置から前記終了検出手段によって検出された前記位置の入力の前記終了位置までの前記位置の軌跡を取得することを特徴とする請求の範囲第2項記載の選択入力受付プログラム。 The trajectory acquisition means acquires the trajectory of the position from the start position of the position input detected by the start detection means to the end position of the position input detected by the end detection means. The selection input receiving program according to claim 2, characterized in that the program is received.
  7.  前記領域確定手段は、前記開始検出手段によって検出された前記軌跡の前記開始位置と前記終了検出手段によって検出された前記軌跡の前記終了位置とを直線で結び、前記軌跡と前記直線とで閉じた領域を形成し、形成した前記閉じた領域を前記領域として確定することを特徴とする請求の範囲第6項記載の選択入力受付プログラム。 The region determining means connects the start position of the trajectory detected by the start detection means and the end position of the trajectory detected by the end detection means with a straight line, and closes the trajectory and the straight line. The selection input receiving program according to claim 6, wherein an area is formed, and the formed closed area is determined as the area.
  8.  前記検出手段は、前記ポインティングデバイスによる位置の入力の終了と前記位置の入力の終了位置とを検出する終了検出手段を有し、
     前記操作表示手段は、前記終了検出手段が前記位置の入力の終了を検出した場合には、前記操作手段を前記表示画面に表示させることを特徴とする請求の範囲第4項記載の選択入力受付プログラム。
    The detection means includes end detection means for detecting an end of position input by the pointing device and an end position of the position input,
    5. The selection input acceptance according to claim 4, wherein the operation display means displays the operation means on the display screen when the end detection means detects the end of the input of the position. program.
  9.  前記検出手段は、前記ポインティングデバイスによる前記位置の入力の開始と前記位置の入力の開始位置とを検出する開始検出手段を有し、
     前記軌跡取得手段は、前記開始検出手段によって検出された前記位置の入力の前記開始位置が前記表示画面に表示されたアイコン上でない場合には、前記入力に基づく前記軌跡を取得することを特徴とする請求の範囲第1項記載の選択入力受付プログラム。
    The detection means includes start detection means for detecting a start of input of the position by the pointing device and a start position of input of the position,
    The trajectory acquisition means acquires the trajectory based on the input when the start position of the input of the position detected by the start detection means is not on an icon displayed on the display screen. The selection input receiving program according to claim 1.
  10.  前記コンピュータを、
     前記選択アイコンを前記表示画面に強調表示させるアイコン表示手段として機能させることを特徴とする請求の範囲第1項記載の選択入力受付プログラム。
    The computer,
    2. The selection input receiving program according to claim 1, wherein the selection input receiving program functions as icon display means for highlighting the selection icon on the display screen.
  11.  前記コンピュータを、
     前記選択アイコンを前記表示画面に強調表示させると共に、前記選択解除判定手段によって選択が解除された前記アイコンを前記表示画面に前記強調表示から通常の表示に切り替えて表示させるアイコン表示手段として機能させることを特徴とする請求の範囲第5項記載の選択入力受付プログラム。
    The computer,
    The selected icon is highlighted on the display screen, and the icon that has been deselected by the deselection determining unit is made to function as an icon displaying unit that switches from the highlighted display to the normal display on the display screen. The selection input receiving program according to claim 5, wherein:
  12.  前記検出手段は、前記ポインティングデバイスによる前記表示画面上における位置の座標を取得し、取得した前記座標を示す座標情報を座標情報記憶手段に記憶させ、
     前記軌跡取得手段は、前記検出手段によって検出された前記位置の軌跡を前記座標情報記憶手段に記憶された前記座標情報によって示される前記座標に基づいて取得することを特徴とする請求の範囲第1項記載の選択入力受付プログラム。
    The detection means acquires the coordinates of the position on the display screen by the pointing device, stores the coordinate information indicating the acquired coordinates in the coordinate information storage means,
    The trajectory acquisition unit acquires the trajectory of the position detected by the detection unit based on the coordinates indicated by the coordinate information stored in the coordinate information storage unit. Selective input acceptance program described in the section.
  13.  前記コンピュータを、
     前記選択アイコンに応じた処理を実行する選択アイコン処理実行手段として機能させることを特徴とする請求の範囲第1項記載の選択入力受付プログラム。
    The computer,
    2. The selection input receiving program according to claim 1, wherein the selection input receiving program is made to function as selection icon processing execution means for executing processing according to the selection icon.
  14.  前記選択判定手段は、複数の前記アイコンを選択可能であることを特徴とする請求の範囲第1項記載の選択入力受付プログラム。 The selection input receiving program according to claim 1, wherein the selection determining means is capable of selecting a plurality of the icons.
  15.  前記コンピュータを、
     前記選択判定手段によって選択された前記選択アイコンの前記選択を解除する選択解除判定部として機能させることを特徴とする請求の範囲第1項記載の選択入力受付プログラム。
    The computer,
    The selection input receiving program according to claim 1, wherein the selection input receiving program functions as a selection cancellation determination unit that cancels the selection of the selection icon selected by the selection determination unit.
  16.  前記ポインティングデバイスは、前記位置の入力を受け付け可能な前記表示画面を有する入力タブレットと、前記入力タブレットに前記位置を入力する入力ペンとを有することを特徴とする請求の範囲第1項記載の選択入力受付プログラム。 The selection according to claim 1, wherein the pointing device includes an input tablet having the display screen capable of accepting an input of the position, and an input pen for inputting the position to the input tablet. Input reception program.
  17.  アイコンを選択する入力を受け付ける情報処理装置において、
     前記アイコンを表示画面に表示させるアイコン表示手段と、
     ポインティングデバイスによる前記表示画面上における位置の入力を検出する検出手段と、
     前記検出手段によって検出された前記位置の軌跡を取得する軌跡取得手段と、
     前記軌跡取得手段によって取得された前記軌跡で囲まれた領域を確定する領域確定手段と、
     前記領域確定手段によって確定された前記領域内に、前記表示画面に表示された前記アイコンが存在するか否かを判定し、前記領域内に前記表示画面に表示された前記アイコンが存在する場合には、前記領域内の前記アイコンを選択された選択アイコンとする選択判定手段と、
     を有することを特徴とする情報処理装置。
    In an information processing apparatus that accepts an input for selecting an icon,
    Icon display means for displaying the icon on a display screen;
    Detecting means for detecting an input of a position on the display screen by a pointing device;
    Locus acquisition means for acquiring a locus of the position detected by the detection means;
    Area determining means for determining an area surrounded by the trajectory acquired by the trajectory acquiring means;
    It is determined whether or not the icon displayed on the display screen exists in the area determined by the area determination means, and when the icon displayed on the display screen exists in the area A selection determining means for selecting the icon in the region as a selected selection icon;
    An information processing apparatus comprising:
  18.  コンピュータに、アイコンを選択する入力を受け付ける処理を実行させる選択入力受付方法において、
     アイコン表示手段が、前記アイコンを表示画面に表示させるステップと、
     検出手段が、ポインティングデバイスによる前記表示画面上における位置の入力を検出するステップと、
     軌跡取得手段が、前記検出手段によって検出された前記位置の軌跡を取得するステップと、
     領域確定手段が、前記軌跡取得手段によって取得された前記軌跡で囲まれた領域を確定するステップと、
     選択判定手段が、前記領域確定手段によって確定された前記領域内に、前記表示画面に表示された前記アイコンが存在するか否かを判定し、前記領域内に前記表示画面に表示された前記アイコンが存在する場合には、前記領域内の前記アイコンを選択された選択アイコンとするステップと、
     を有することを特徴とする選択入力受付方法。
    In a selection input receiving method for causing a computer to execute a process of receiving an input for selecting an icon,
    An icon display means for displaying the icon on a display screen;
    Detecting means for detecting an input of a position on the display screen by a pointing device;
    A trajectory acquisition unit acquires a trajectory of the position detected by the detection unit;
    A step of determining a region surrounded by the trajectory acquired by the trajectory acquiring unit;
    A selection determining unit determines whether or not the icon displayed on the display screen exists in the region determined by the region determining unit, and the icon displayed on the display screen in the region. If there is, the step of making the icon in the region a selected selection icon;
    A selection input receiving method characterized by comprising:
PCT/JP2008/068653 2008-10-15 2008-10-15 Selection input accepting program, information processing device and selection input accepting method WO2010044151A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/068653 WO2010044151A1 (en) 2008-10-15 2008-10-15 Selection input accepting program, information processing device and selection input accepting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/068653 WO2010044151A1 (en) 2008-10-15 2008-10-15 Selection input accepting program, information processing device and selection input accepting method

Publications (1)

Publication Number Publication Date
WO2010044151A1 true WO2010044151A1 (en) 2010-04-22

Family

ID=42106329

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/068653 WO2010044151A1 (en) 2008-10-15 2008-10-15 Selection input accepting program, information processing device and selection input accepting method

Country Status (1)

Country Link
WO (1) WO2010044151A1 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012230527A (en) * 2011-04-26 2012-11-22 Kyocera Corp Electronic device
JP2012230526A (en) * 2011-04-26 2012-11-22 Kyocera Corp Electronic device
JP2013020300A (en) * 2011-07-07 2013-01-31 Konami Digital Entertainment Co Ltd Information processor, information processor control method, and program
JP2013179528A (en) * 2012-02-29 2013-09-09 Fuji Xerox Co Ltd Image processor and program
EP2718797A1 (en) * 2011-06-08 2014-04-16 Sony Corporation Information processing device, information processing method and computer program product
WO2014103635A1 (en) * 2012-12-27 2014-07-03 グリー株式会社 Object selection method, storage medium storing program, and information processing device
JP2014160461A (en) * 2013-01-25 2014-09-04 Morpho Inc Image display device, image display method and program
EP2843528A4 (en) * 2012-10-30 2015-08-19 Huawei Device Co Ltd File selection method and terminal
JP2016048563A (en) * 2011-12-29 2016-04-07 アップル インコーポレイテッド Device, method and graphical user interface for configuring restricted interaction with user interface
JP2016141040A (en) * 2015-02-02 2016-08-08 ファナック株式会社 Setting input means of injection molder
KR101839319B1 (en) * 2011-07-05 2018-03-19 엘지전자 주식회사 Contents searching method and display apparatus thereof
US10209879B2 (en) 2011-12-29 2019-02-19 Apple Inc. Device, method, and graphical user interface for configuring and implementing restricted interactions for applications
US10867059B2 (en) 2012-01-20 2020-12-15 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US11960615B2 (en) 2021-06-06 2024-04-16 Apple Inc. Methods and user interfaces for voice-based user profile management

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207680A (en) * 1997-01-20 1998-08-07 Sharp Corp Selection processing method
JP2001356878A (en) * 2000-06-14 2001-12-26 Hitachi Ltd Icon control method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207680A (en) * 1997-01-20 1998-08-07 Sharp Corp Selection processing method
JP2001356878A (en) * 2000-06-14 2001-12-26 Hitachi Ltd Icon control method

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012230526A (en) * 2011-04-26 2012-11-22 Kyocera Corp Electronic device
JP2012230527A (en) * 2011-04-26 2012-11-22 Kyocera Corp Electronic device
EP2718797A1 (en) * 2011-06-08 2014-04-16 Sony Corporation Information processing device, information processing method and computer program product
EP2718797A4 (en) * 2011-06-08 2015-02-18 Sony Corp Information processing device, information processing method and computer program product
KR101839319B1 (en) * 2011-07-05 2018-03-19 엘지전자 주식회사 Contents searching method and display apparatus thereof
JP2013020300A (en) * 2011-07-07 2013-01-31 Konami Digital Entertainment Co Ltd Information processor, information processor control method, and program
US9703450B2 (en) 2011-12-29 2017-07-11 Apple Inc. Device, method, and graphical user interface for configuring restricted interaction with a user interface
US10209879B2 (en) 2011-12-29 2019-02-19 Apple Inc. Device, method, and graphical user interface for configuring and implementing restricted interactions for applications
JP2016048563A (en) * 2011-12-29 2016-04-07 アップル インコーポレイテッド Device, method and graphical user interface for configuring restricted interaction with user interface
US10867059B2 (en) 2012-01-20 2020-12-15 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
JP2013179528A (en) * 2012-02-29 2013-09-09 Fuji Xerox Co Ltd Image processor and program
US10931837B2 (en) 2012-02-29 2021-02-23 Fuji Xerox Co., Ltd. Image processing device, non-transitory computer readable medium, and image processing method
US11647131B2 (en) 2012-02-29 2023-05-09 Fujifilm Business Innovation Corp. Image processing device, non-transitory computer readable medium, and image processing method
US9507451B2 (en) 2012-10-30 2016-11-29 Huawei Device Co., Ltd. File selection method and terminal
EP2843528A4 (en) * 2012-10-30 2015-08-19 Huawei Device Co Ltd File selection method and terminal
WO2014103635A1 (en) * 2012-12-27 2014-07-03 グリー株式会社 Object selection method, storage medium storing program, and information processing device
JP2017021859A (en) * 2012-12-27 2017-01-26 グリー株式会社 Object processing method, recording medium with program recorded thereon, and information processing apparatus
JP6034878B2 (en) * 2012-12-27 2016-11-30 グリー株式会社 Object selection method, storage medium storing program, and information processing apparatus
US10168817B2 (en) 2013-01-25 2019-01-01 Morpho, Inc. Image display apparatus, image displaying method and program
JP2014160461A (en) * 2013-01-25 2014-09-04 Morpho Inc Image display device, image display method and program
JP2016141040A (en) * 2015-02-02 2016-08-08 ファナック株式会社 Setting input means of injection molder
US11960615B2 (en) 2021-06-06 2024-04-16 Apple Inc. Methods and user interfaces for voice-based user profile management

Similar Documents

Publication Publication Date Title
WO2010044151A1 (en) Selection input accepting program, information processing device and selection input accepting method
US11157691B2 (en) Natural quick function gestures
US9733796B2 (en) Radial menus
US10768804B2 (en) Gesture language for a device with multiple touch surfaces
EP3336672B1 (en) Method and apparatus for providing a graphic user interface in a mobile terminal
JP5917805B2 (en) Information processing apparatus, information processing method, and computer program
US10474346B2 (en) Method of selection of a portion of a graphical user interface
EP2669786A2 (en) Method for displaying item in terminal and terminal using the same
US20130067392A1 (en) Multi-Input Rearrange
CN107765968A (en) Target switching method, device, terminal and computer-readable recording medium
KR20110081040A (en) Method and apparatus for operating content in a portable terminal having transparent display panel
AU2012214993B2 (en) Method and apparatus for providing graphic user interface in mobile terminal
JP2012141869A (en) Information processing apparatus, information processing method, and computer program
JP4728019B2 (en) Button control apparatus and method, and program
JP5217505B2 (en) Image display processing apparatus, image display processing method, and image display processing program
JP3809424B2 (en) Selection area control device, selection area control method, and selection area control program
AU2018200747B2 (en) Radial menus
KR101436588B1 (en) Method for providing user interface using one point touch, and apparatus therefor
JP6210664B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP4381873B2 (en) Information processing device
JP2009140121A (en) Gui device and method for controlling gui
JP2017049845A (en) Screen display program, method and device, processing program, method and device
AU2014200055A1 (en) Radial menus
KR20160027063A (en) Method of selection of a portion of a graphical user interface

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08877409

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08877409

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP