WO2010008088A1 - 情報処理装置、プログラムを記録した記憶媒体及びオブジェクト移動方法 - Google Patents

情報処理装置、プログラムを記録した記憶媒体及びオブジェクト移動方法 Download PDF

Info

Publication number
WO2010008088A1
WO2010008088A1 PCT/JP2009/063135 JP2009063135W WO2010008088A1 WO 2010008088 A1 WO2010008088 A1 WO 2010008088A1 JP 2009063135 W JP2009063135 W JP 2009063135W WO 2010008088 A1 WO2010008088 A1 WO 2010008088A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
detected
mentioned
displayed
area
Prior art date
Application number
PCT/JP2009/063135
Other languages
English (en)
French (fr)
Inventor
磯野和己
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2010520915A priority Critical patent/JP5267827B2/ja
Priority to CN200980128039.9A priority patent/CN102099775B/zh
Priority to EP09798012.2A priority patent/EP2306286A4/en
Priority to US13/054,698 priority patent/US20110126097A1/en
Publication of WO2010008088A1 publication Critical patent/WO2010008088A1/ja
Priority to US14/338,840 priority patent/US9933932B2/en
Priority to US15/902,129 priority patent/US10656824B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to an information processing apparatus having a plurality of stages capable of detecting, a storage medium storing a program used in an information processing apparatus, and an object moving method.
  • the information processing apparatus is provided with a so-called touch screen or touch screen.
  • a stage capable of detecting a plurality of cases has been developed in place of the stage for detecting only the conventional one.
  • the touch display or touch device which can detect the number, is described in 002,304,256 and 007,279,638, respectively.
  • the information processing device with a stage can be intuitively operated by the user. While this gives an intuitive feeling to the user, an excessive burden is placed on the user if the user's sensational image (moving part of the screen) is not made. For example, touch screen down) or touch screen
  • An information processing device that causes the display content to be reduced by giving up (up) gives a good workability to the work.
  • detailed work such as when only the part of the desired display information is moved or when only the desired display information part is skipped, or when the work is performed using a plurality of Between the setting of the device and the user's emotional work Easy to occur.
  • the user repeats the intuitive work. As shown, even if the user touches the touch screen with the intention of making a sketch, the information processing device will not operate if the sketch setting is up. In this case, the user cannot perform the desired operation and repeats the same operation, which places an excessive burden on the user.
  • an information processing apparatus that is capable of object movement by appropriately detecting a user's sensational work using the above-mentioned detection capability.
  • the information processing device is capable of detecting a display that displays an object, and detecting a plurality of objects on the surface.
  • the object displayed in the above is controlled to move to the object, and the object in the active area on the surface is detected by using the above, excluding the range of the object, When 2 in the range of the object is detected and a movement instruction of the object is further detected, the object is controlled to be movable within the active range.
  • an information processing apparatus that can detect a user's sensuous work by using the ability to detect a plurality of objects and can move an object.
  • FIG. 3 is a functional block diagram showing an information processing apparatus according to an embodiment of the invention.
  • FIG. 2 is a chart for explaining the operation of the information processing device.
  • FIG. 3 is a functional block diagram showing the terminal that is the information processing apparatus according to the implementation of the second aspect. 4 is a figure used to explain the end of 3).
  • 5 5 is a diagram showing the surface of the touch screen at the end of 3 when touching.
  • 6 6 is a diagram showing the surface of the surface at the end of 3 in the case of chita.
  • 7 7 is a diagram showing 2 on the surface at the time of touching at the end of 3.
  • 8 8 is a diagram showing 3 on the surface at the time of touching at the end of 3.
  • g g is a diagram showing 4 on the surface when the touch is touched at the end of 3.
  • 0 is a diagram showing 5 on the surface at the time of touching at the end of 3.
  • Fig. 6 is a diagram showing 6 on the surface at the time of touching at the end of 3;
  • FIG. 3 is a functional block diagram showing a top-up which is an information processing apparatus according to the third embodiment.
  • 5A 5B is Chita at 3
  • the information processing apparatus operates by a program, and is configured as a terminal having a communication function (speech, message reception, Internet), a cadence function, and a schedule.
  • a communication function speech, message reception, Internet
  • a cadence function e.g., a radio access control function
  • a schedule e.g., a radio access control function
  • Sonapi, sto, P (Pe sona Handyphone ys e) etc. which have a touch screen function.
  • FIG. 5 is a functional diagram showing the configuration of the information processing apparatus 0 according to the state of the following.
  • the information processing device 0 shown in Fig. 2 performs various arithmetic processes and displays the display information instructed by the control.
  • the display 0 displays the information (or the detected coordinates) and the output coordinates in the area where the display information is displayed. ) Is detected, it has a memory 3 composed of ROR, lame, etc. In 0, the operating system, the dry application program for contact, and the information processing device 0
  • the control can display the second information in the box 2 which is a part in the box.
  • the control is capable of detecting a plurality of in the area where the information is displayed and the area where the information is displayed.
  • the control detects a change of only one output coordinate, only the display (object) displayed in the area where the detected coordinate where the movement is detected exists. The process of moving (scrolling) based on the conversion is executed. In 0, the information displayed in the range that is displayed (active) by control,
  • the two information displayed in the enclosed area are displayed.
  • the two (objects) can be constructed using images, graphics, characters, or a combination of them. In addition, it can be expressed as a symbol, a button, a character, an input, a visually indicated information indicating a control or a combination thereof. In addition, the two pieces of information including characters include information for managing the selected characters as a group after the selection.
  • the information processing apparatus 0 can detect the user's sensational action appropriately and can move the object using the plurality of detection capabilities.
  • the information processing apparatus 0 can detect the user's sensational action appropriately and can move the object using the plurality of detection capabilities.
  • not only when using a stylus or the like, but also when using a human finger or the like is included.
  • the information processing device 0 draws the information displayed in the area of the display 0 screen and the 2 information displayed in the area according to the application operating system recorded in the memory 0. Display on display 0. From time to time, the control may be performed on the dry operating system for contact, the area where the information is displayed on the application program, the area where the two information is displayed, ), Detect the detected coordinates and their differences using contact. Recognizes the detected touch, contact removal, and output coordinates as necessary by down-setting, up-setting, and moving instructions, and determining the displayed object.
  • control identifies the movement instruction of the object from the conversion of the number of outgoing coordinates detected through contact. Detects multiple softwares through contact with various types of software, and identifies the user's movement instructions based on the conversion of a number of (exit coordinates) marks. Movement instruction It is possible to identify the direction of movement by cutting the coordinates of the movement of the other finger. It is also possible to determine the time between going out and going out and distinguishing other fingers based on the difference between them.
  • the movement instruction can be determined. By controlling in this way, different actions can be realized by changing the output coordinates of multiple.
  • the contact may be set so that only the ground on the display surface can be operated or only the fixed work can be performed. Further, it may be judged that the contact or invalidity is invalid according to the display surface information. Furthermore, the operation may be different depending on whether the information processing apparatus 0 is held with one hand or with both hands.
  • FIG. 2 is a chart for explaining the operation of the information processing apparatus 0. 2 of the information processing device 0 described above, This is an operation that realizes the dynamic function of the audio provided to the user as the internet.
  • step S20 monitors the touch of the display 20 through the contact.
  • step S203 determines that there are a plurality of, and if a plurality of is detected, the process proceeds to step S203, and if only one is issued, the process proceeds to step S205 (step S2 2). .
  • step S205 it is determined that only one of the deviations in the two areas indicated by the report of 2 is detected, and that a plurality of are detected in the two areas.
  • the object in the active range on the display surface is detected by excluding the range of the object.
  • the control monitors the outgoing coordinates of the detected number and determines whether only one has moved (a (skew) indication has been made). If only one of them has moved, the process proceeds to step S204, and if more than one have moved simultaneously, the process proceeds to step S206 (step S203). In other words, it is determined whether or not a change in the output coordinates of only one of the plurality is detected. In other words, it removes the object range of the moving object and detects in the active range on the display surface and determines whether or not an object movement instruction is detected.
  • Control is performed according to the operation when another operation () different from the movement instruction is performed.
  • control 0 fixes the display information displayed in the area where other connections exist, and the display displayed in the area where movement is detected is fixed on the display screen.
  • the information is moved (step S24).
  • the detected coordinates will be displayed in the area where is detected Only the displayed information is moved based on the detected coordinates.
  • the object is controlled to move within the active range, and the object instructed to move is moved.
  • the control monitors the output coordinates of the detected and indicates whether or not the user has indicated movement (step S2 5).
  • the control moves (squeezes) the display body to be activated (step S206). In other words, the control moves based on the detection coordinates when all the output coordinates are detected, based on the two reports.
  • the information processing device can detect the user's sensuous work properly and move the display (object) by using the ability to detect multiple objects.
  • FIG. 3 is a functional block diagram showing the composition of a 20 according to the present embodiment.
  • the 20 is provided with a radio unit 2, a broadcast receiving unit 20 2, a GPS signal unit 20 3, a camera 2 4, an acoustic processor 2 05, a display with touch capability 2 06, and a memory 2 0 20 8.
  • the line part 2 transmits information between the radios via the antennas.
  • the transmission / reception unit 22 receives transmission signals transmitted from broadcasting stations (upper, satellite, etc.) and demodulates the received transmission signals, and performs video data, audio data, information data, etc. Line.
  • the GPS signal unit 203 obtains the distance of the GPS star A200 by measuring the time until the radio waves radiated from a plurality of GPS stars reach A200, and obtains the position using the distance. For the camera 204, click (
  • the management unit 205 manages music notification sound that is input and output via the speaker, or sound that is voice.
  • the function display 2 6 is a touch screen (touch screen) that combines () for images, figures, characters, symbols, etc. ).
  • the 2008 functions include telephone functions, functions, Internet (eb) functions, camera functions, TV communication functions, GPS () functions, functions, and other functions and parts of the terminal.
  • the control 20 8 controls the display function with the touch function display 20 6 to display the electronic screen, and detects the user's display using the switch (function, contact) of the touch function display 20 6. To do.
  • a No. 208 of 208 monitors the touch of the display with touch capability 20 6 (step S4). When a touch is detected, control 20 determines whether the number of contact points is one or more. If the number is detected, the process proceeds to step S403, and if it is 1, the process proceeds to step S45 (step S402).
  • control 28 determines whether or not each of them is located at a predetermined position (or ()). The determined position will be described later.
  • step S404 If the touch at the specified position is detected, the process proceeds to step S404. If the touch at the specified position is not detected, the process proceeds to step S405 (step S403).
  • control 2 fixes the background (equivalent to the information) and controls the object to be movable within the active range (step S404).
  • control 20 8 will scrub the display body based on the amount of movement until the contact is released (the erasure disappears) (steps S 205 S 2 06)
  • the specified position is within the display area excluding the object to be moved or within the active area on the display surface excluding the object to be moved, and the user can touch the hand holding (200).
  • the () active position is where the thumb or other specific finger is reached when the 20 is held in the recommended standard condition.
  • the specified position will be explained with reference to 7 7
  • No 5 is a figure showing the surface of a 20.
  • No 5 indicates the display body displayed on the function display 20 6 by the control 20 8.
  • 6A, 7A, 8, g, and A indicate the front surface of the object.
  • FIGS. 5B, 6, 7, 8, g, and OBB show the moving surface of the object.
  • 5 5 is a diagram showing the surface of the touch screen when touching.
  • (schedule) 50 is displayed in the display 500, but 2 (oji) 502 is displayed.
  • the user displays 2502 with his finger 2 Suppose you touch the area and move it downward as shown by the arrows.
  • step S40 shows the operation from step S40 shown in 4 to step S405 through o in step S42.
  • 5 shows the display result obtained by scoring the body based on the detected coordinates as a result of 5.
  • 4 shows the state of step S406 shown in FIG.
  • 6 6 6 is a diagram showing the surface of the surface when tapping. 6 6 shows a screen in which object 5002 is controlled to be movable within active 5003 when an object 5002 on the display screen is detected except for the area of object 502 (indicated by a toggle). It is.
  • Step S40 shown in 4 shows the operation from step S40 eS to step S403.
  • 6 is the display information displayed in the area where the result of 6 is that the control 08 detected that the detected coordinate was changed.
  • (Bicto) Shows the display result of moving only 502 based on the detected coordinates. 4 shows the operation of step S404 shown in FIG. 6 As shown in 6B, the object is detected within the active 503 on the display surface, and the object is controlled to move within the active 503 when the output coordinate does not change. With this, you can move the object while fixing the schedule table.
  • the control 2008 detects multiple coordinates in the area 2 and the second area, and also detects the output coordinates in the area 2, and converts the output coordinates in the area 2 If it is detected, only mark 50 based on the detected coordinates. Note that a plurality of areas do not necessarily have to exist in the second area.
  • 7 7 is a diagram showing another transition of the surface at the time of touching. 7 In 7, the fixed position (fixed position, designation, movement
  • the screen When the touch of) is detected, the screen is shown in which the schedule table is fixed, and only the matching object is controlled to move.
  • Step S4 shown in Fig. 4 is shown.
  • the object when a touch at a specified position is detected, the object can be moved and the object can be moved by controlling the object to be movable with the schedule table fixed. .
  • This type of control is suitable for programs that do not control the display at the object position that displays 52 of 52.
  • 8 8 is a diagram showing yet another transition of the surface at the time of touching. 8 In 8B, the same as 7 7B When a touch is detected, the schedule table is fixed and only the audio is controlled to move. 7 7 means 7
  • the movement area is set for the time display in the schedule table, whereas in 8 8, the movement fixed position 505 is set to be visible by the application program in the active area. Is a point.
  • gg is a diagram showing yet another transition of the surface at the time of the touch.
  • g gB shows a screen in which the schedule table is fixed and the audio is controlled to move when a touch at a specified position is detected, as in the case of other touches.
  • 8 8 shows that in 8A 8 the moving position is set in the active area by the schedule table application program, whereas in gA 8 the schedule table application is set.
  • the moving object 506 is set by a program outside the gram.
  • g detects () in the coordinate area where the object 5006 provided in the area where the schedule table is displayed, and in the area 2 where the moved object is displayed. This shows the case where the change of the output coordinates only in the area of is detected as a square.
  • Fig. 9 shows the display result of moving only the object that is displayed in the area where control 20 is detected as the result of g as the result of g, but is displayed in the area where it exists.
  • the object is moved with the schedule table fixed when the touch of the coordinate area where the moving object 506 is displayed is detected by the program outside the active application program.
  • you can fix the schedule table and move the object.
  • the move object 506 is movable on the screen and may be displayed in the foreground.
  • the schedule table is regarded as paper
  • the moving object is used like a humor or paperweight, and the user's sensitive work is properly detected and the movement is instructed. You can move the object.
  • 0 0 is a diagram showing yet another transition of the surface at the time of touching. 0 indicates a screen in which only the object is controlled to move, with the schedule table fixed when a touch at a specified position is detected, as in the case of other touches.
  • the movement fixed position 505 is set by the application program in the schedule table in the area of the active area, whereas in 0 O, in the area of the contact capability display 26 6 This is the point that the base fixing 507 is set in the display area.
  • 0 detects the touch of the fixed base 5007, the touch of the area 2 where the moved object is displayed, and further detects the touch coordinates that exist only in the area 2 It shows.
  • O shows the display result of moving only the indicated object in the area where control 20 has detected the change of the detected coordinate as the result of O, based on the change of the detected coordinate.
  • the base when the touch of the base fixing 507 is detected, the base can be fixed and the object can be moved by controlling the moving object with the base fixed here. .
  • the schedule table is regarded as paper
  • the base fixing part can be used to press the edge of the paper, and the user's sensitive work can be detected appropriately and Can be moved.
  • B is a diagram showing yet another transition of the surface at the time of touching.
  • B shows a screen in which only the object is controlled to move, with the schedule table fixed when multiple objects are detected at the same time, as in other transitions.
  • the touch detection area which is the area where the touch of the display with touch function 2006 is detected, is provided on the display frame, not just on the display screen. Furthermore, as shown in 2, if the contact continues from the top of the display 500 to 59, it is regarded as a moving area.
  • the figure shows the case of detecting the coordinates of the output coordinates only in the region of. As a result of the above, only the object displayed in the area where the control 20 has detected the change of the detected coordinate is moved based on the change of the detected coordinate is shown.
  • the base () schedule () is fixed (immobility), and the input eye (2) is made movable. In this way, it is possible to detect only the user's impression and to display the display information (skew) displayed by the user and move only the input.
  • the input item By controlling in this way, when moving the input item, it is possible to select the input item, display the detailed information, change the detailed information, and confirm the multiple operations. You can do this. Also, unlike the case where the time information included in the conventional information is changed and the input item is moved, the input item can be moved while checking other input schedules, thus preventing the duplication of the schedule.
  • the information displayed on the edge (the edge on the surface of the display information, which is the background) is displayed. If it is controlled to move near the center of the eve without disturbing the movement of the orange, it will further facilitate the user's emotional work. For example, when the display information has more than one (crossing), the object that is moving near the bottom of the control and display screens is detected, and the information displayed on is displayed near the heart of the active area. To move to, simply switch the display information to the next minute.
  • a zone is provided in the area where the information is displayed and / or the area where the second information is displayed, and the movement is detected and moved. If the detection of 2 is detected on one side and the change of the output coordinate of 2 is detected, the 2 exists or is displayed in the 2nd area. Alternatively, the second report can be moved based on the detected coordinates.
  • the 1 (, background) is not limited to the schedule table, and may be a map, a list of photos, etc. .
  • the application program can be a text program. Just select the individual text that has been entered and selected. When applied to a program, the selected text part in addition to photos and figures can be moved according to the user's sensitive movement.
  • the background of a program when divided into multiple areas, it may be controlled to fix only the area where the contact exists. In this way, it is possible to confirm other areas apart from the predetermined area in parallel.
  • Bumpy 300 Next, a description will be given of Bumpy 300 according to the third embodiment.
  • Fig. 3 shows the composition of the butterfly 300 according to this embodiment. It is a functional book diagram.
  • the tab 30 is used to perform various arithmetic processes in line 3, R for temporarily storing information, R 3 2 for storing basic programs, and touch nes display for inputting / outputting information. It includes 320, memory 330, and twiddle 3 for communicating with the Internet via the network.
  • the touch display 320 has a display 32 322, and displays information such as images, figures, characters, and symbols output from the control 3 on the display 32 screen, and the user's 322 touch input. Is detected.
  • the application program 33 touch nes display 32 month dry 332, various data, various tents, S (e a n ys em) 333, etc. are stored.
  • OS 333 operates based on the indications of OS 333, Dry 332, and Application Program 33.
  • Software such as OS 333 is expanded to 3 as needed.
  • the contact 322 detects the touch of the contact 322 door (chitouch screen) based on one of OS333, dry 332, and application program 33, or a combination thereof.
  • 322 can detect multiple (), no matter how it is detected.
  • this software can be used, but there is no particular limitation as long as contact can be detected.
  • the tab 300 can detect the user's sensation appropriately using the contact 32 2 and enable the movement of the audio.
  • Steps S 40 to S 403 shown in 4 are the same operations as those in steps 4 to S 40 to S 403. In addition, the operation is the same as that in steps S4 5 S4 6 and steps S4 5 S4 6 of steps S 405 S 4 6
  • the tab 3 of the tablet 300 monitors the touch of the touch display 300 (step S40), and when a touch is detected, the number of touch points is equal to 1 or more (step S402). .
  • control 3 detects the touch of the surrounding area of the other object (other cell) on the display screen, excluding the moving object's object (moving cell), and moves the moving object's object. Determine whether or not the instruction can be detected (Step S403)
  • control 3 fixes the other object and controls the moving object to move (Step).
  • 5 5 is a diagram showing 60 in the table program at the time of touching.
  • 5 is the display information displayed in the area where the control 3 detected the change of the detected coordinate exists.
  • the display result is shown by scribing only (Oji) based on the detection coordinates.
  • the rectangle 63 that is diagonally opposite to the (predetermined) cell is fixed in response to the upper left movement instruction, and the movement instruction (the 7900th cell) 604 is made movable. Control.
  • the movement function moves to the vicinity of the active area, the information of the program is divided and displayed for the program, and the movement cell 604 is controlled by the movement function. To do.
  • the object instructed to move is detected, and the object instructed to move is controlled to move within the active area.
  • the user can move the information while looking at the moving center (7900) and the other side up and down and right.
  • control 3 detects the touch of the area where 2 of the information is displayed and detects the change of the output coordinate of only one, The information is divided and displayed, and the detected coordinate change is displayed in the area where exists
  • the user can recognize the work directed to the displayed object on the screen and perform dynamic control of the object based on the result.
  • the load on the user can be reduced.
  • the information processing device that can detect the user's sensational action and detect the movement of the object by using the ability to detect multiple objects, and the program that realizes it and its program It is possible to provide a recordable body in which the gram is recorded.
  • Any information processing device that can detect a plurality of objects can be applied to any information processing device. Further, as in the case of the terminal, it is suitable for an information processing apparatus that holds and operates the processing apparatus with one hand.

Abstract

 情報処理装置は、オブジェクトを表示する表示部と、表示部における複数の接触点を検出可能とする接触検出部と、接触検出部を用いて、表示部に表示されるオブジェクトを、移動可能に制御する制御部とを有する。制御部は、接触検出部を用いて、表示部に表示されたオブジェクトの表示範囲への接触を検出するとともにオブジェクトの表示範囲を除く表示画面上のアクティブ範囲への接触を検出し、さらにオブジェクトへの移動指示を検出した場合に、オブジェクトをアクティブ範囲内で移動可能に制御する。これにより、複数の接触点を検出可能である接触検出部を用いて、使用者の直感的な操作を可能にする。

Description

報処理装置、 プ グラムを記録した記憶 体及びオブジ ク ト 動方法 術分野
本 、 複数の を検出 能な 段を有する情報処理装置、 、 報処理装置で用 られるプ グラムを記録した記憶 体及びオブジ ク の 動方法に関する。
今、 様 情報処理装置に、 タッチ ネ 又はタッチスク 呼ばれる が設けられて る。 また、 旧来 らの の のみを検出 能と する 段に代えて、 複数の を検出 能な 段が開発され て る。
数の を検出 能であるタッチ ネ ディスプ イ又はタッチ ネ 置が、 2002 304256 報及び 2007 279638 報にそれぞれ 載されて る。 明の
段を備えた情報処理装置の 、 使用者に直感的な 作を可 能 するよ に設定される。 このよ な 、 使用者に直感的な を 与える反面、 使用者の 感的なイメ ジ りの ( 部 の ド 面の 移動作 ) がなされな 場合には、 使用者に過大な負担を ける。 えば、 タッチ ネ の ダウン ) 又はタッチ ネ との
(アップ ) の 出により、 表示 容をスク させる情報処理装置は、 ス ク 作に ては 分な 作性を与える。 その 面、 所望とする 表示 報の 部のみを座標 動させる場合や所望 する表示 報の 部のみをス ク させる場合、 ある は複数の を用 て 作を行 場合など、 細 な 作では、 情報処理装置の 定と使用者の 感的な 作 の間に ( な) が生じ易 。 そのよ な場合、 使用者は直感的な 作を繰り返し ことにな る。 示するならば、 使用者がスク 作を意図してタッチ ネ に接触し た場合でも、 スク 作の 定がアップ 定であ た場合には、 情報処理装 置は動作しな 。 このよ 場合、 使用者は所望の 作を実行できずに、 同様な 作を繰り返し こと なり、 使用者に過大な負担が る。
また、 結果 して使用者の 図しな 制御部 ド 面の 移動 作 (スク 等) が生じ、 十分な 作性を提供できな 。
、 上記 題に されたものであり、 複数 を検出 能であ る を用 て、 使用者の 感的な 作を適切に検出し、 オブジ ク 動を可能とする情報処理装置を提供する。
明 報処理装置は、 オブジ ク を表示する表示 、 前記 の 面上における複数の を検出 能 する 、 前記
を用 て、 前記 に表示されるオブジ ク を、 移動 能に制御する制御 を備え、 前記 、 前記 を用 て、 前記オ ジ ク の 囲を除 前記 面上のアクティブ 囲における を検出すると もに、 前記オ ジ ク の 囲における 2の を検出し、 さらに前記 オブジ ク の 動指示を検出した場合に、 前記オ ジ ク を前記アクティ ブ 囲内で移動 能に制御することを特徴とする。
明によれば、 複数の を検出 能である を用 て、 使用者 の 感的な 作を適切に検出し、 オブジ ク の 動を可能とした情報処理装置 を提供できる。 面の 単な説明
は、 明の 施の 態に係る情報処理装置を示す機能ブ ック図 である。
2は、 の 報処理装置の 作を説明するための チヤ トであ る。
3は、 明の 2の 施の 態に係る情報処理装置である イ 末を 示す機能ブ ック図である。 4は、 3の イ 末のスク 作を説明するためのフ チ ヤ トである。
5 5 は、 3の イ 末における グ タッチ時 表 面の を示す図である。
6 6 は、 3の イ 末における チタ 時の表 面 の を示す図である。
7 7 は、 3の イ 末における チタッチ時の表 面 の 2の を示す図である。
8 8 は、 3の イ 末における チタッチ時の表 面 の 3 を示す図である。
g g は、 3の イ 末における チタッチ時の表 面 の 4の を示す図である。
0 は、 3の イ 末における チタッチ時の表 面の 5 を示す図である。
は、 3の イ 末における チタッチ時の表 面の 6 を示す図である。
2は、 に示した表示 面の である。
3は、 明の 3の 施の 態に係る情報処理装置である ブ ット ピ を示す機能ブ ック図である。
4は、 3の ブ ット ピ の 作を説明するための チヤ トである。
5A 5Bは、 3の ブ ット ピ における チタ 、
ソチ時の表 プ グラムの 面の を示す図である。 明を実施するための 良の
明の 施の 態に係る情報処理装置に て 2を参照し て説明する。 明の 報処理装置は、 例えば、 プ グラム 御によ 動作し、 通信機能 ( 話、 メ 受信、 イ タ ネット ) カ ダ 能、 スケ ジ 備えた イ 末 して構成される。また、別の例 しては、 タッチスク 能を具備した ソナ ピ 、 ス ト ォ 、 P (Pe sona D g a ss s an s) P Pe sona Handyphone ys e ) などが挙げられる。
は、 の 態に係る情報処理装置 0の 成を示す機能 ック図である。
に示す 報処理装置 0は、 各種 算処理を行 と、 制御 ら指示された表示 報を表示する表示 0 、 表示 の 報が表示される 域における の 、 その の ( または検出座標)、 出座標の )を検出する と、 RO R 、 ラッ メ 等で構成される記憶 3 を備え る。 0には、 オ ティ グ ステムを始め、 接触 用 のドライ アプ ケ ショ プ グラム、 情報処理装置 0の
が記憶されて る。
は、 表示 0を制御 、 の 囲に第 報を 表示させるこ ができる。 また、 制御 は、 の 囲内の 部であ る 2の 囲に第2の 報を表示さ ることができる。ここで、
は、 表示 報を表示 能な領域 ( ) を意味し、 は、 表示 報 が実際に表示されて る 域を意味する。 したが て、 2の 、 の 囲に含まれるが、 2 報が表示される 、 の 報が表示される 域には含まれな 。
は、 また、 接触 を介して表示 0に表示される 2の 報が表示される 域における の 、 そ の 標を検出 能にすると共に、 検出した座標 ( 出座標) の ( ) を 識別 能である。 また、 制御 は、 の 報が表示される 域 及び 2の 報が表示される 域における複数の を検出 能であ る。 更に、 制御 は、 複数の 一 のみの 出座標の 化を検 出した場合に、 移動が検出された検出座標の が存在する 域に表示さ れた表示 (オブジ ク ト) のみをその 出座標の 化に基づ て移動 (スク ) る 理を実行する。 0には、 制御 によ て、 表示 所定の (ア クティブ ) である 囲に表示される 報 、
囲内の 部に表示される 2の 報とが表示される。
、 2の (オブジ ク ) は、 画像、 図形、 文字、 または それらの み合わ を用 て構成するこ ができる。 また、 2の 、 アイ 、 ボタン、 文字 、 入力 、 若し は制御 に ドを指示す る視覚的に示された 報の れ またはそれらの み合わせとして表現する ことができる。 また、 文字 を含む 2の 報には、 その 定 して選択した後に、 選択された文字 を一括り として 理するための 報も含ま れる。
このよ 構成にお て、 情報処理装置 0は、 複数の を検出 能で ある を用 て、 使用者の 感的な 作を適切に検出してオ ジ ク を移動 能にできる。 なお、 本明細書における は、 スタイラス ペ 等を用 た場合 較的 さな のみならず、 人の指等を用 た場合の 較的 きな をも含む。
次に、 情報処理装置 0の 作に て説明する。
報処理装置 0の は、 記憶 0に記録されて るアプ ケ ョ プ グラム オペ ティ グ ステムに従 て、 表示 0の 面の 囲に表示される 報及び、 囲内に表示 される 2の 報を作画し、 表示 0に表示さ る。 時的に、 制御 は、 接触 用のドライ オペ ティ グ ステム、 アプ ケ ショ プ グラムに 、 の 報が表示される 域、 、 前記 2 報が表示される 2の 域 の ( の )、 接触 ( の )、 検出座標及びその 化を、 接触 を用 て 検出する。 は、 検出した 触、 接触 除、 出座標の 化を、 必要に応じてダウン 定、 アップ 定及び 動指示 して認識し、 表示されたオ ブジ ク 等 の して決定する。
ここで、 制御 が、 接触 を介して検出した 数の の 出座標の 化 ら、 オブジ ク の 動指示を識別する 理を説明する。 は、 各種ソ トウ アに 、 接触 を介して複数の を検出し、 数の の ( 出座標) 標の 化 に基 て、使用者の 動指示を識別する。 動指示 他の指 との 、 の の 出座標を ク ト して、 移動方向を識別 理することにより可能 である。 また、 に て 出 ら 出まで 間を求め、 それらの差に基 て、 他の指 区別することも可能である。
えば、 2 の が同時的に検出され、 同時的にそれらの 出座標が移動 した場合には、 それら移動方向に応じて、 表示 面の 大や 小の 作であると 判断することができる。 方、 2 の が時間 隔を空けて検出され、 一方 の の 出座標が 動 ず、他方の の 出座標が移動した場合には、 移動指示 判断することができる。 このよ に 理することで、 複数の の 出座標の 化の により、 異なる動作を実現できる。
また、 接触 きさを用 て 作を差別化しても良 。 えば、 スタイラ スペ 指 接 の きさの を利用して、操作の 別化を図 てもよ 。 また、 親指と他の指との の きさの を利用して、 操作 別化を図 てもよ 。 えば、 接触 は、 情報処理装置 0を保持する手の 指が 置する 域 辺では、 表示 面の 地のみを操作できるよ に、 ある は固定 作のみができるよ に設定されてよ 。 また、 表示 面 報の きさに応じて、 接触 の き 又は さ を無効な 判断するよ にしてもよ 。 更に、 情報処理装置 0が片手で保持される 、 両手で保持さ れる に応じて、 操作を異なら るよ にしてもよ 。
ずれにしても、プ グラムによ て、情報処理装置 0の に、 一 のオブジ ク の 域 の 触による移動指示を検出した場合であ て も、 他の座 域 の との 係や接触の 続時間などに基 き、 下地や 背景を固定して一 のオ ジ ク のみを移動さ る 理をさ たり、 アクティ ブな表示 体を移動する 理をさせたりすることにより、 使用者の 感的な 作を適切に検出 能 できる。
2は、 情報処理装置 0の 作を説明するための チヤ トであ る。 2に示す 作の 、上記 明した情報処理装置 0の 、 用者に ザインタ として提供されるオ ジ ク の 動機能を実現 する動作である。
報処理装置 0の 0は、 接触 を介して表示 2 0 面 の 触を監視する (ステップS20 )
触を検知した場合、制御 は、同時的に複数の がある 判別し、 複数の を検出した場合には ステップS 203に進み、 一 の のみ 出した場合にはステップS205に進む (ステップS2 2)。 言すれば、 2の 報が夫 示される 2の 域の ずれ 一方 のみにお て を検出したの 、 2の 域にお て複数の を検出したの を判別する。 また、 オブジ ク の 囲における の 出に加え、 前記オ ジ ク の 囲を除 表示 面上のアクティ 囲 における を検出して る を する。
、 の 域と第2の 域の 方における の 、 れを 先に検出しても同様 作 して判別する。 方、 第 の 域 第2の 域における同時的な の 、別の入 作として処理しても良 。 数の を検出した場合、 制御 は、 検出した 数の の 出 座標を監視し、 一 の のみが移動した ( (スク ) 示が成され た) 否 を判別する。 の のみが移動した場合には ステップS 20 4に進み、複数 が同時的に移動した場合にはステップS 206に進む(ス テッ S203)。 言すれば、 複数の ちの のみの 出座標の 化 が検出 れる 否 を判別する。 別の表現で説明すれば、 移動 象のオブジ ク ト 囲を除 表示 面上のアクティ 囲における を検出すると共に オ ジ ク の 動指示が検出された 否 を判別する。
、 制御 は、 移動指示 異なる他の操 ( ) が成された場合は、 作に応じた 理を行な 。
の のみの 動が検出された場合、 制御 0は、 他の接 が存 在する 域に表示された表示 報を表示 面上で固定し、 移動が検出された が存在する 域に表示された表示 報を移動さ る (ステップS 2 4)。 言すれば、検出座標の 化が検出された が存在する 域に表示 れた表示 報のみを検出座標の 化に基 て移動させる。 別の表現で説明す れば、 オブジ ク をアクティブ 囲内で移動 能に制御 、 移動指示されたオ ブジ ク を移動さ る。
が一 の 合、 制御 は、 検出した の 出座標を監視し、 使用者によ て移動の 示が成された 否 を する (ステップS2 5) 出された 数 が同時的に同一方向に移動した場合及び 出された が一 であ てその 出座標が変化した場合、 制御 は、 アクティ にな て る表示 体を移動 (スク ) さ る (ステップS206)。 言すれば、 制御 は、 全ての の 出座標の 化を検出した場合に、 前記 2 報を もに、 検出座標の 化に基 て移動さ る。
記の 作の 作により、 情報処理装置 は、 複数の を検 出 能である を用 て、 使用者の 感的な 作を適切に検出して表示 (オ ジ ク ト) を移動できる。
次に、 明の 2の 施の 態に係る情報処理装置として、 イ 2 00に て説明する。
3は、 本実施 態に係る イ 2 0の 成を示す機能ブ ッ ク図である。
イ 2 0は、 3に示すよ に、無線部2 、放送受信部202 GPS 信部203、 カメラ 2 4、 音響 理部205、 接触 能付表示 206、 記憶 207 208を備えて る。
線部2 は、 ア テナを介して無線 の間で無線により情報の 。 送受信部2 2は、 放送局 ( 上 、 衛星など) ら送信された 送信号を受信し、 受信した 送信号を復調して得た映像デ タ、 音響デ タ、 情報デ タ等の信 理を行 。 GPS 信部203は、 複数のGPS 星 ら 放射 れた電波が イ 200に到達するまでの 間を測定して のG PS 星 イ 200 の 離を求め、 離を利用して位置 標を 求める。 カメラ 204は、 画像 報の ( ) を 。 理部205 は、 イク スピ カを介して入出力される音楽 報知音、 ある は音声であ る音響 の 理を行 。 能付表示 2 6は、 画像、 図形、 文字、 記号などの ( ) を 能と、 圧力や の 式により利用者の 作を感知するスイッチ ( 能、 接触 ) とを兼ね備 えたタッチスク ン (タッチ ネ ) である。
207は、 電話帳 報、 送受信メ 報、 発着 報、 テ ツ 報、 アプ ケ ショ プ グラム、 撮影 、 イ 200の
納する。
208は、 電話機能、 メ 能、 インタ ネット ( eb) 能、 メラ 能、 テ ビ 信機能、 GPS ( ) 能、 テ 能、 その他 の端末の する機能や各部の 御を行 。 また、 制御 208は、 接触 能 付表示 206に対して、 表示 能を制御して電子 面を表示 ると共に、 接 触 能付表示 206のスイッチ ( 能、 接触 ) を用 て使用者の 示を検出する。
次に、 イ 2 0の ( ) の 作に て、 4を参 照して説明する。
4は、 イ 20 のスク 作を説明するための チ ヤ トである。
イ 200の 208は、 接触 能付表示 206 の 触 を監視する (ステップS4 )。 触を検知した場合、 制御 208は、 接触点 の数が一 であるの 、 複数である を判別する。 数の を検出した場合 には、 ステップS403に進み、 一 の の 合にはステップS4 5に 進む (ステップS402)
点の数が複数の 合、 制御 2 8は、 それら ちの な も が 定められた位置 (または ( ) ) に位置して る 否 判定する。 定められた位置に ては、 後述する。
208は、 定された位置 の 触を検出した場合には ステップ S404に進み、 定された位置 の 触を検出しな 場合にはステップS 405に進む ステップS403)
定 れた位置 の 触を検出し、 、 オブジ ク ( 2の に相当) の 動指示を検出した場合、 制御 2 は、 背景 ( の 報に相当) を固定して、 オブジ ク をアクティ 囲内で移動 能に制御す る (ステップS404)
方、 接触 が の 合、 制御 208は、 接触が解除される ( が消 滅する) までの の 動量に基 て表示 体をスク する (ステ プ S 205 S 206)
ここで、 定された位置 (または ) に て説明する。 定され た位置は、 移動 象となるオブジ ク を除 た表示 囲内や、 移動 象と なるオ ジ ク を除 た表示 面上のアクティ 囲内、 使用者が イ 200を保持する手の接 ( ) 能な位置 ( 定位置) に設定 れる。 別 の表現で説明すれば、 定された位置は、 オ ジ ク の 囲を除 表 示 面上のアクティ 囲内や、 接触 が検出された 2の 報が表示され る 2 域を除 第 報が表示される 域、 アプ ケ ョ プ グラムに指定される指定 域、 移動 オブジ ク
囲に設定される。
( ) 能な位置 は、 イ 2 0を推奨される標準 な状態 で保持したときに、 親指や他の特定の指が届 置である。 、 定 れた 位置は、 7 7 降に例示して説明する。
次に、 イ 20 の 面の を説明する。 5な し は、 イ 2 0の 面の を示す図である。
5な し には、 制御 208によ てそれぞれ 能付表示 206に表示される表示 体が示されて る。 5 、 6A、 7 A、 8 、 g 、 A は、 オブジ ク の スク ) 前の表 面を示す。 方、 図5B、 6 、 7 、 8 、 g 、 OB Bはオブジ ク の 動後 面を示して る。
5 5 は、 グ タッチ時 表 面の を示す図である。 5 にお て、 表示 500内には (スケジ ) 50 が表示される もに、 2の (オ ジ ク ) 502が表示さ れて る。 この 態で、 使用者が指で 2 502が表示される 2 域に触れ、 、 矢印で示すよ に図の下方 移動させたとする。
208は、 50 が表示 れる 域における を 検出することな 、 2の 502が表示 れる 2の 域における を検出して、 その の 出座標の 化をスク として検出す る。 、 5 は、 4に示されるステップS40 ステップS4 2の oを経てステップS405に至る動作を示して る。
5 は、 5 の 果 して、 制御 208が 2の 5 502、 体を、 検出座標の 化に基 てスク さ た表示 果を示して る。 、 4に示されるステップS406の の 態を示して る。
5 に示したよ に、 オ ジ ク ( 2の 502) の 囲に お てのみ を検出した場合に、オ ジ ク を移動さ よ と すると、 スケジ ( の 50 ) オブジ ク とが同時にスク する。
6 6 は、 チタ チ時の表 面の を示す図である。 6 6 では、 オブジ ク ト 502の 囲を除 表示 面上のアク ティ 503 ( ッチ グで示す ) における を検出した場合に、 オブジ ク ト 502をアクテイブ 503内で移動 能に制御した画面 を示して る。
6 は、 の 50 が表示される 域及び 2の 502が表示される 2の 域における複数の を検出して、 複数 の の である 2の 域に存在する のみの 出座標の 化を スク として検出した場合を示して る。 、 4に示されるステッ プS40 ステップS402の e Sを経てステップS403の に至 る動作を示して る。
6 は、 6 の 果 して、 制御 08が検出座標の 化を検 出した が存在する 域に表示された表示 報である 2の
ブジ ク ト) 502のみを検出座標の 化に基づ て移動させた表示 果を 示して る。 、 4に示されるステップS404の 作を示して る。 6 6Bに示したよ に、 オブジ ク の 囲を除 表示 面上 のアクティブ 503内にお て を検出し、 その 出座標が変化しな 場合に、 オブジ ク をアクティブ 503内で移動 能に制御することで、 スケジ 表を固定する 共にオブジ ク を移動できる。
、 制御 208は、 の 域と第2の 域にお て複数の を検出する 共に、 2の 域に存在する の 出座標 化を検出す るこ な 、 の 域に存在する の 出座標の 化を検出した場合 に、 の 50 のみを検出座標の 化に基づ てスク ( ) て よ 。 なお、 複数の 必ずしも 域 第2の 域 の 方に存在して る必要はな 。
7 7 は、 チタッチ時の表 面の別の遷 を示す図である。 7 7 では、 定された位置 ( 定位置、 指定 、 移動
) の 触を検出した場合に、 スケジ 表を固定して、 ち合わ せ のオ ジ ク のみを移動 能に制御した画面 を示して る。
7 は、 スケジ 表が表示される 域内に設けられた 定された位置 ( ) 504における 、 、 オブジ ク が表示される 2の 域における を検出し、 更に、 2 域にお ける のみの 出座標の 化を移動指示として検出した場合を示して る。
7Bは、 7 の 果 して、 制御 208が検出座標の 化を検 出した が存在する 域に表示されたオ ジ ク のみを検出座標の 化に基づ て移動させた表示 果を示して る。 、 4に示 れるステップ S 4の 作を示して る。
7 7Bに示したよ に、 定された位置 の 触を検出した場 合に、 スケジ 表を固定した状態でオブジ ク を移動 能に制御すること で、 スケジ 表を固定すると共にオ ジ ク を移動できる。 このよ 制 御は、 の 5 2の 502 を一体的に表示する ブジ ク ト 位で表示を制御しな ) プ グラムに好適である。
8 8 は、 チタッチ時の表 面の更に別の遷 を示す図で ある。 8 8Bでは、 7 7B 同様に、 定された位置 触を検出した場合に、 スケジ 表を固定して、 オ ジ ク のみを移 動 能に制御した画面 を示して る。 7 7 と は、 7
7 ではスケジ 表の時間表示 分に移動 域が設定され て るのに対し、 8 8 ではアクティブ 囲の 部に、 アプ ケ ョ プ グラムによ て、 移動 定位置505が可視 能に設定 れて る 点である。
8 は、 スケジ 表が表示される 域内に設けられた 定位置505における 、 、 オブジ ク が表示される 2の 域における を検出し、 更に、 2の 域における検出 の 出座標 の 化をスク として検出した場合を示して る。
8 は、 8 果 して、 制御 208が検出座標の 化を検 出した が存在する 域に表示されたオ ジ ク のみを検出座標の 化に基 て移動さ た表示 果を示して る。
8 8Bに示したよ に、 可視 能に設定された 定位置5 05 の 触を検出した場合に、 スケジ 表を固定した状態でオブジ ク を移動 能に制御するこ で、 スケジ 表を固定すると共にオ ジ ク を 移動 能とできる。 このよ な制御は、 多数のオ ジ ク を表示するアプ ケ ョ に好適である。 また、 多数の 層を有して イヤ 造を用 る表示 を表示するアプ ケ ショ に好適である。 イヤ 造を採用する場合、 制 御 、 オ ジ ク ( 2の ) をスケジ ( の ) の イヤ とする。 、 の 報の に第2の 報が重ね て表示されるよ にする。
g g は、 チタッチ時の表 面の更に別の遷 を示す図で ある。 g gBでは、 他の チタッチ時の遷 と同様に、 定 された位置 の 触を検出した場合に、 スケジ 表を固定して、 オ ジ ク みを移動 能に制御した画面 を示して る。 8 8 に示す との は、 8A 8 では、 アクティ 囲の 部にスケジ 表のアプ ケ ョ プ グラムによ て移動 定位置505が設定 れ て るのに対し、 gA 8 では、 スケジ 表のアプ ケ ョン グラム 外のプ グラムによ て移動 オ ジ ク 506が設定されて る点である。
g は、 スケジ 表が表示される 域内に設けられた オブジ ク ト 506が表示された座標 域における ( )、 、 移動 させた オブジ ク が表示される 2の 域における を検出し、 更 に、 2の 域における のみの 出座標の 化をスク とし て検出した場合を示して る。
9 は、 g の 果として、 制御 208が検出座標の 化を検 出した が存在する 域に表示されるオ ジ ク のみを検出座標の 化に基 て移動さ た表示 果を示して る。
g g に示したよ に、 アクティブなアプ ケ ョ プ グラム 外のプ グラムによ て移動 オブジ ク ト 506が表示された座標 域 の 触を検出した場合に、 スケジ 表を固定した状態でオブジ ク を移動 能に制御することで、 スケジ 表を固定すると共にオブジ ク を移動で きる。
、 移動 オ ジ ク 506は、 画面上を移動 能であ 、 また、 最前面 に表示されるよ にしても良 。 このよ に制御することによ て、 として スケジ 表を紙と見立て、 移動 オブジ ク をおもしや文鎮のよ に使 用 能 し、 使用者の 感的な 作を適切に検出して移動指示されたオ ジ ク を移動できる。
0 0 は、 チタッチ時の表 面の更に別の遷 を示す 図である。 0 では、 他の チタッチ時の遷 同様に、 定 れた位置 の 触を検出した場合に、 スケジ 表を固定して、 オ ジ ク のみを移動 能に制御した画面 を示して る。 8 8 の の は、 8 8Bでは、 アクティ 囲の 部にスケジ 表のアプ ケ ョ プ グラムによ て移動 定位置505が設定 されて るのに対し、 0 O では、 接触 能付表示 206 の 囲内であ て、 表示 の 域に、 下地固定 507を設定して る点である。 0 は、 下地固定 507 の 触、 、 移動さ た オブジ ク が表示される 2の 域 の 触を検出し、 更に、 2の 域に存在 する のみの 出座標の 化をスク して検出した場合を示して る。
O は、 O の 果として、 制御 208が検出座標の 化 を検出した が存在する 域の 示されたオ ジ ク のみを検出座標 の 化に基 て移動 た表示 果を示して る。
0 OBに示したよ に、 下地固定 507 の 触を検出 した場合に、 下地 こではスケジ 固定した状態で移動 た オ ジ ク を移動 能に制御するこ で、 下地を固定すると共にオブジ ク を 移動できる。 こ よ に制御するこ によ て、 としてスケジ 表を紙 と見立て、 下地固定 部をその紙の縁部分を押えるよ に使用 能とし、 使用 者の 感的な 作を適切に検出してオ ジ ク を移動できる。
Bは、 チタッチ時の表 面の更に別の遷 を示す 図である。 Bでは、 他の チタッチ時の遷 同様に、 同時的に複数の を検出した場合に、 スケジ 表を固定して、 オブジ ク のみを移動 能に制御した画面 を示して る。 B に示す例では、 使用者が イ 20 を保持して る手の指に て、 表 示 500 下地 こではスケジ ) に対応する 域に同時 に接触した場合に、 下地を固定して、 他のオ ジ ク を移動 能に制御する。 、 接触 能付表示 206の 触を検出する 域である チタッチスク 、 表示 面上 みでな 、 表示 枠の上に るよ に設けられて る。 更に、 2に示すよ に、 接触 が表示 500の上 ら 5 9の 続する場合に、移動 域 の みなす。
は、 使用者が イ 200を保持して る手の指によ て、 表 示 5 0 地 に対応する 域における 、 移動させた オブジ ク が表示される 2の 域における を検出し、 更に、 2の 域における のみの 出座標の 化をスク して検出 した場合を示して る。 は、 の 果として、 制御 208が検出座標の 化 を検出した が存在する 域に表示 れるオ ジ ク のみを検出座標 の 化に基 て移動さ た表示 果を示して る。
2は、 に示した表示 面の である。 2に示すよ に、 接 触 ( ) が、 表示 ( 500 表示 509との 方に掛 て る き、 移動 域 の 検出される。 、 表示 ( ) 500 下地 が、 使用者の によ て同時に接触されて る場合に、 下地 を固定する 作が された判断する。
、 2に示したよ に、 使用者が イ 200 を保持して る手の指によ て、 表示 下地 こではスケジ ) に同時に接触した場合に、 下地を固定した状態で移動さ た オブジ ク を 移動 能に制御することで、 下地を固定する 共にオ ジ ク を移動できる。 このよ に制御することによ て、 としてスケジ 表を紙 見立て、 そ の紙を イ 2 の に押え けたよ にするこ が可能となる。 別 の表現では、 と指で下地を挟んだ にするこ が可能 なり、 使用者の りな 作を適切に取得してオブジ ク を移動できる。
示した のよ に制御することによ て、 複数の を検出した 場合に、 下地 ( ) スケジ ( の ) を固定 ( 動不 可) 、 入力 目である ち合わ ( 2の ) を移動 能とすること で、 使用者 感的な さえる 作を検出すると共に使用者の 作による表示 報の (スク ) 示を検出し、 入力 目のみを移動できる。
このよ に制御することによ て、 入力 目を移動する時に、 従来の、 入力 目を選択して詳細 報を表示させ、 詳細 報を変更して確定する 作のよ な、 複数回の 作を こ が出来る。 また、 従来の 報に含まれる時刻 報を変更して入力 目を移動する場合 異なり、 入力済の他のスケジ を確 認しながら入力 目を移動できる 、 スケジ のダ ブッキ グを防止で きる。
、 表示 面上の端部付近に移動中のオ ジ ク が到達した場合には、 に表示されて る情報 ( 景、 下地である表示 報の 面上の端部) を イブ 囲の 心部付近、 はオ ジ ク の 動を妨げな よ に移動する よ に制御すれば、 更に、 使用者の 感的な 作を容易にする。 えば、 表示 報が複数の を有する ( 渡る) 合などでは、 制御 、 表示 面上の下 付近に移動中のオブジ ク の 達を検出して、 に表示 されて る情報をアクティブ 囲の 心部付近に移動する、 は、 表示 報を 次 分に切り替えるよ に制御すればよ 。
また、 上記 例を別の観点 ら 明すれば、 の 報が表示される の 囲内及び 又は第2の 報が表示 れる 2の 囲内に、 域を設け、 移動 域にお て を検出する ともに、 移動 域を除 第 域及び 2の 域の ずれ 一方にお て 2の を検出し、 2の の 出座標の 化を検 出した場合に、 2の が存在して る 又は第2の 域に表示され る 又は第2の 報 みを検出座標の 化に基 て移動さ ることが可 能である。
、 上述の例はスケジ 表のアプ ケ ョ プ グラムに て説明し たが、 1の ( 、 背景) はスケジ 表に限定されるものではな 、 地図 ダ 、 写真一覧などの 示であ ても良 。 また、 アプ ケ ショ プ グラムは、 文章 カプ グラム プ グラムであ ても良 。 この 、 入力済の文章であ て選択 作された 個別の をオ ジ ク すればよ 。 カプ グラムに適用した場合には、 写真や図に加えて 選択された文章の 部を、 使用者の 感的な 作によ て、 移動指示 れたオ ジ ク して移動 能にできる。
また、 プ グラムの 、 背景 示が複数の 域で区切られて る場 合に、 接触 が存在する 域のみを固定化するよ に制御しても良 。 この よ にすれば、 所定の 域 離れた他の領域を並 て確認するなどの 作が可能 なる。
次に、 明の 3の 施の 態に係る ブ ッ ンピ 300に て説明する。
3は、 本実施の 態に係る ブ ット ピ 300の 成を示 機能ブ ク図である。
タブ ット ピ 3 0は、 3に示すよ に、 各種 算処理を行 3 、 情報を一時記憶するR 、 基本 プ グラムが 納さ れて るR 3 2、 情報を入出力するタッチ ネ ディスプ イ 320、 記 憶 330、 ネットワ クを介しイ タ ネッ 等との 信を行 ための トワ クイ タ ス3 を含む。
タッチ ネ ディスプ イ 320は、 表示 32 322を有 し、 制御 3 ら出力された画像、 図形、 文字、 記号などの 報を表示 32 の 面上に表示する 共に、 使用者 らの 322 の 触による入力を検出する。
330には、 アプ ケ ョ プ グラム33 タッチ ネ ディスプ イ 32 月のドライ 332、 各種デ タ、 各種 テンツ、 S ( e a n ys em) 333などが 納されて る。
3 は、 OS 333、 ドライ 332、 、 アプ ケ ョンプ グラム33 の 示に基 て動作する。 、 OS 333等 ソ トウ アは、 必要に応じて 3 に展開 れて使用される。
また、 接触 322は、 接触 322 ドウ ア ( チタッチ スク ン ) の 触を、 OS333、 ドライ 332、 アプ ケ ョ プ グラム33 の れか又はその み合わ に基 て検出する。
322は、 複数の ( ) を検出できればよ 、 検出方式 問 わな 。 また、 れのソ トウ アを用 て実現してもよ 、 接触を検出できれ ば特に限定はな 。
このよ な構成にお て、 タブ ッ ピ 300は、 接触 32 2を用 て、 使用者の 感的な 作を適切に検出し、 オ ジ ク の 動を可能 にできる。
次に、 タ ット ピ 300の 作の 作を説明する。
作の 、 4、 5 5 を用 て、 プ グラム の 合を例示して説明する。
4は、 タブ ット ピ 300の 作を説明するための ヤ トである。
4に示すステップS 40 らS 403までは、 4 ステップS4 0 らS403 同様の 作である。 また、 ステップS 405 S 4 6 、 4のステップS4 5 S4 6 同様の 作である。
タブ ット ピ 300の 3 は、 タッチ ネ ディスプ イ 320 の 触を監視 (ステップS 40 ) 、 接触を検知した場合、 接触点 の数が一 であるの 、複数である を (ステップS 402)する。 また、 制御 3 は、 移動 象のオブジ ク ( 動 た セ ) 囲を除 表示 面上の他のオ ジ ク ト (他のセ ) の 囲 の 触を検出すると共 に移動 象のオブジ ク の 動指示を検出できる 否 を判別する (ステッ プS 403)
他のオブジ ク の 囲 の 触を検出して、 、 移動 オ ジ ク の 動指示を検出した場合、制御 3 は、他のオブジ ク を固定して、 移動 オブジ ク を移動 能に制御する (ステップS 404)
方、 接触 が一 の 合などは、 所定の 作を実行する (ステ プS 405 S 4 6)
ここで、 背景 ( 、 第 の ) が複数の ブジ ク ト) に 切 られて るアプ ケ ョ プ グラムの 作を、 プ グラムの 面の を示して説明する。
5 5 は、 チタッチ時の表 プ グラムの 6 0の を示す図である。
5 は、 の 報 こでは 60 が表示される
域及び 2の 報 こでは セ ) 6 2が表示 れる 2の 域に おける複数の を検出して、 2の 域における のみの 出座標 の 化をスク として検出した場合を示して る。 、 4に示さ れるステップS 40 らS 4 2のY を経てステップS 4 3の e Sに至る動作を示して る。
5 は、 5 の 果として、 制御 3 が検出座標の 化 を検出した が存在する 域に表示された表示 報である 2の (オ ジ ク ) のみを検出座標の 化に基 てスク さ た表示 果 を示して る。 、 4に示されるステップS 404の 作を示して る。
、 5Bに示す様に、 左上 移動指示を受けて な ( 定した ) セ とを対角とする長方形 6 3を固定し、 移動指示されたセ (7 0 9 00 のセ ) 604を移動 能に制御する。 更に、 移動 能に制御され るセ 604が、 アクティブにな て る 域の 付近に移動した場合には、 の 報を分割 示して、 プ グラムの 分を表示し 、 移動 セ 604を移動 能に制御する。
5A 5Bに示したよ に、 移動を指示したオブジ ク の 囲を除 表示 面上のアクティ 囲内 の 触を検出した場合に、 移動を指示 したオブジ ク を前記アクティブ 囲内で移動 能に制御するこ で、 使用者 は、 移動するセ (7 09 00) と、 上下及び 右方向に れた他の を並 て視話しながら 報を移動さ るこ ができる。
別の表現で説明すれば、 制御 3 は、 の 報が表示される 内 数の 2の 報が表示される 域 の 触を検出すると共に、 一 の のみの 出座標の 化を検出した場合に、 報を分割して表示 し、 検出座標の 化を検出した が存在する 域に表示された 2
報のみを検出座標の 化に基 て移動させる。
上 明したよ に、 明の 報処理装置によれば、 使用者による画面 の 所の 、 表示されたオブジ ク に向けられた 作を認識し、 、 果に基 てオブジ ク の 動制御を行 ので、 使用者の 荷を 軽減するこ ができる。
、 明によれば、 複数の を検出 能である を用 て、 使用者の 感的な 作を適切に検出し、 オブジ ク の 動を可能 した情報処 理装置、 それを実現するプ グラム びそのプ グラムが記録 れた ンピ タ み取り可能な記録 体を提供できる。
また、 上述した直感的な固定する 作例の ちの2 上を組み合わせて る こ も可能である。 み合わせた場合には、 の 用者 の 吸収し、 使 用者の 便性を更に高めるこ ができる。 また、 明の 体的な構成は上記 施の 態に限られるものではな 、 この 明の 旨を逸脱しな 範囲の 更があ てもこの 明に含まれる。
この 、 20 8 7 7日に出願 れた日本出願 2 8 5 22号を基礎 する優先権を主張し、 その 示の てをここに取 込む。 上の利用 能性
、 複数の を検出 能な を有する情報処理装置であれ ば、 ど よ 情報処理装置にも適応できる。 また、 、 イ 末の よ に、 片手で 処理装置を保持して、 操作する情報処理装置に好適である。

Claims

求 の ・ オブジ ク を表示する表示 、
前記 の 面上 複数の を検出 能とする 、 前記 を用 て、 前記 に表示されるオブジ ク を、 移動 能 に制御する制御
を備え、
前記 、
前記 を用 て、 前記オブジ ク 囲を除 前記 面上 のアクティブ 囲における を検出する もに、 前記オ ジ ク の 囲における 2の を検出し、 さらに前記オブジ ク の 動指 示を検出した場合に、 前記オ ジ ク を前記アクティ 囲内で移動 能に制 御する
ことを特徴 する情報処理装置。 2・ 囲に表示される 報、 、 前記 の 囲内の 2の 囲に表示される 2の 報を表示する表示 、 前記 の 報が表示される 域及び 2の 報が表 示される 2の 域における 点及びその 標を検出する 、 前記 の 域及び 2の 域の ずれ 方にお て前記 を検出するこ な 方にお て前記 を検出し、 か 、 検出した の 標の 化を検出した場合に、 前記 2の 報をともに前記 標 の 化に基づ て移動させ、
前記 の 域及び 2の 域にお て複数の を検出する 共に、 数の の のみの 標の 化を検出した場合に、 前記 標 の 化が検出 れた が存在して る前記 又は前記 2の 域に表 示される前記 又は前記 2の 報を前記 標の 化に基 て移動させ る制御
を備えるこ を特徴とする情報処理装置。 3・ 2 載の 報処理装置であ て、
前記 、
前記 の 囲内に、 域を設け、
前記 域にお て を検出するとともに、 前記
域を除 前記 の 域及び 2の 域の ずれ 一方に お て 2 を検出し、 2の の 標の 化を検出した場 合に、 前記 2の が存在して る前記 又は前記 2の 域に表示 される前記 又は前記 2の 報を前記 標の 化に基 て移動 る ことを特徴とする情報処理装置。 4・ 2又は3に記載の 報処理装置であ て、
前記 、 前記 2 報を、 アイ 、 ボタ 、 文字 、 入力 、 、 前記 ドを指示する視覚的に示された 報の れ また はその み合わ で、 前記 に表示さ るこ を特徴とする情報処理装置。 5・ 2な し4の れ 一記載 報処理装置であ て、
前記 、 前記 の 報と前記 2の 報 を一体的に表示す る情報として表示するこ を特徴 する情報処理装置。 6・ 2な し5の れ 一記載 報処理装置であ て、
前記 、 前記 2の 報を前記 の 報の イヤ とし て、 または前記 の 報 に重ねる様に、 可視 能に表示するオ ジ ク として構成するこ を特徴 する情報処理装置。 7・ 、
接触 を用 て、 表示 に表示されたオブジ ク の 囲を除 表示 面上のアクティブ 囲における を検出さ 、
前記 を用 て、 前記オブジ ク の 囲における 2の を検出させ、
更に、 前記オブジ ク の 動指示を検出した場合に、 前記オ ジ ク を 前記アクティブ 囲内で移動 能に制御 る、
こ を特徴とするプ グラムが記録された ピ タ み取り可能な記憶 。 8・ 、
の 囲に表示される 報が表示される 域、 、 前記 の 囲内の 2 囲に表示される 2の 報が表示 される 2の 域における 点及びその 標を検出さ 、
前記 の 域及び 2の 域の ずれ 一方にお て前記 を検出することな 方にお て前記 を検出し、 、 検出した
標の 化を検出した場合に、 前記 2の 報をともに前記 標の 化に基 て移動さ 、
前記 の 域及び 2の 域にお て複数の を検出する 共に、 数の の みの 標の 化を検出した場合に、 前記 標 化が検出された が存在して る前記 又は前記 2の 域に表 示される前記 又は前記 2の 報を前記 標の 化に基 て移動さ る
こ を特徴 するプ グラ が記録された ピ タ み取り可能な記憶 。 9 8 載のプ グラムが記録された ピ タ み取り可能な記 憶 体であ て、
前記 、
前記 の 囲内に、 域を設けさせ、
前記 域にお て を検出すると もに、 前記
域を除 前記 の 域及び 2の 域の ずれ 一方に お て 2の を検出し、 2の の 標の 化を検出した場 合に、 前記 2の が存在して る前記 又は前記 2の 域に表示 される前記 又は前記 2の 報を前記 標の 化に基 て移動させる ことを特徴とするプ グラムが記録された ピ タ み取り可能な記憶 。 0・ 8又は9に記載のプ グラムが記録された ンピ タ み取 り可能な記憶 体であ て、
前記 、 前記 2の 報を、 アイ 、 ボタ 、 文字 、 入力 、 、 前記 ドを指示する視覚的に示された 報の れ また はそ み合わせで、 前記 に表示させることを特徴 するプ グラム。
・ 8な し 0の れ 一記載のプ グラムが記録された ピ タ み取り可能な記憶 体であ て、
前記 、 前記 の 報と前記 2の 報とを一体的に表示す る情報 して表示させることを特徴とするプ グラムが記録された ピ タ み取り可能な記憶 。 2・ 8な し れ 一記載のプ グラムが記録された ピ タ み取り可能な記憶 体であ て、
前記 、 前記 2の 報を前記 の 報 イヤ とし て、 または前記 の 報 に重ねる様に、 可視 能に表示するオ ジ ク して構成させるこ を特徴とするプ グラムが記録された ピ タ み取り可能な記憶 。 3・ 7な し 2の れ 一記載のプ グラムが記録 れた ピ タ み取り可能な記憶 体であ て、
前記プ グラムが、 前記 ドライ 、 オペ ティ グ ステム、 アプ ケ ョ プログラムの れ 又はその み合わ であるこ を特徴とす るプ グラムが記録 れた ンピ タ み取り可能な記憶 。 4・ を用 て、 表示 に表示されたオブジ ク の 囲を 除 表示 面上のアクティブ 囲における を検出し、 を用 て、 前記オブジ ク の 囲における 2の を検出し、
更に、 前記オブジ ク の 動指示を検出した場合に、 前記オブジ ク を 前記アクティ 囲内で移動 能に制御する
こ を特徴とするオ ジ ク ト 動方法。 5・ の 囲に表示される 報が表示される
域、 、 前記 の 囲内の 2の 囲に表示される 2の 報が表示される 2の 域における 点及びその 標を検出し、
前記 の 域及び 2の 域の ずれ 一方にお て前記 を検出することな 方にお て前記 を検出し、 、 検出した の 標 化を検出した場合に、 前記 2の 報を もに前記 標の 化に基 て移動さ 、
前記 の 域及び 2の 域にお て複数 を検出する と共に、 数の の のみの 標の 化を検出した場合に、 前記 標 の 化が検出された が存在して る前記 又は前記 2の 域に表 示される前記 又は前記 2の 報を前記 標 化に基 て移動さ る
こ を特徴とするオ ジ ク 動方法。 6・ 5 載のオブジ ク 動方法であ て、
前記 の 囲内内に、 域を設け、
前記 域にお て を検出する ともに、 前記
域を除 前記 の 域及び 2の 域の ずれ 一方に お て 2の を検出し、 2の の 標の 化を検出した場 合に、 前記 2の が存在して る前記 又は前記 2の 域に表示 される前記 又は前記 2の 報を前記 標の 化に基 て移動させる こ を特徴 するオブジ ク 動方法。 7・ 5又は 6に記載のオブジ ク 動方法であ て、 前記 2の 報を、 アイ 、 ボタ 、 文字 、 入力 、 、 前記 ンドを指示する視覚的に示された 報の れ またはその み合わ せで、 前記 に表示することを特徴とするオブジ ク 動方法。 8・ 5な し 7の れ 記載のオブジ ク ト 動方法であ て、
前記 の 報 前記 2の 報 を一体的に表示する情報 して表 示するこ を特徴とするオブジ ク ト 動方法。 9・ 5な し 8の れ 一記載のオブジ ク ト 動方法であ て、
前記 2 報を前記 の 報の イヤ して、 または前記 の 報の に重ねる様に、 可視 能に表示するオブジ ク として 構成することを特徴 するオ ジ ク ト 動方法。 20・ 4な し 9の れ 一記載のオブジ ク ト 動方法であ て、
接触 ドライ 、 オペ ティ グ ステム、 アプ ケ ョ プ グ ラムの れ 又はそ み合わ によ て実現されることを特徴 するオ ジ ク ト 動方法。
PCT/JP2009/063135 2008-07-17 2009-07-15 情報処理装置、プログラムを記録した記憶媒体及びオブジェクト移動方法 WO2010008088A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2010520915A JP5267827B2 (ja) 2008-07-17 2009-07-15 情報処理装置、プログラムを記録した記憶媒体及びオブジェクト移動方法
CN200980128039.9A CN102099775B (zh) 2008-07-17 2009-07-15 信息处理装置、记录有程序的存储介质以及目标移动方法
EP09798012.2A EP2306286A4 (en) 2008-07-17 2009-07-15 INFORMATION PROCESSING APPARATUS, STORAGE MEDIUM ON WHICH A PROGRAM HAS BEEN RECORDED, AND METHOD FOR MODIFYING OBJECT
US13/054,698 US20110126097A1 (en) 2008-07-17 2009-07-15 Information processing apparatus, storage medium having program recorded thereon, and object movement method
US14/338,840 US9933932B2 (en) 2008-07-17 2014-07-23 Information processing apparatus having a contact detection unit capable of detecting a plurality of contact points, storage medium having program recorded thereon, and object movement method
US15/902,129 US10656824B2 (en) 2008-07-17 2018-02-22 Information processing apparatus having a contact detection unit capable of detecting a plurality of contact points, storage medium having program recorded thereon, and object movement method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-185622 2008-07-17
JP2008185622 2008-07-17

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/054,698 A-371-Of-International US20110126097A1 (en) 2008-07-17 2009-07-15 Information processing apparatus, storage medium having program recorded thereon, and object movement method
US14/338,840 Continuation US9933932B2 (en) 2008-07-17 2014-07-23 Information processing apparatus having a contact detection unit capable of detecting a plurality of contact points, storage medium having program recorded thereon, and object movement method

Publications (1)

Publication Number Publication Date
WO2010008088A1 true WO2010008088A1 (ja) 2010-01-21

Family

ID=41550488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/063135 WO2010008088A1 (ja) 2008-07-17 2009-07-15 情報処理装置、プログラムを記録した記憶媒体及びオブジェクト移動方法

Country Status (5)

Country Link
US (3) US20110126097A1 (ja)
EP (1) EP2306286A4 (ja)
JP (6) JP5267827B2 (ja)
CN (2) CN102099775B (ja)
WO (1) WO2010008088A1 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011197848A (ja) * 2010-03-18 2011-10-06 Rohm Co Ltd タッチパネル入力装置
JP2011227703A (ja) * 2010-04-20 2011-11-10 Rohm Co Ltd 2点検知可能なタッチパネル入力装置
JP2011242820A (ja) * 2010-05-13 2011-12-01 Panasonic Corp 電子機器、表示方法、及びプログラム
CN102375602A (zh) * 2010-08-13 2012-03-14 卡西欧计算机株式会社 输入装置以及输入方法
JP2012068778A (ja) * 2010-09-22 2012-04-05 Kyocera Corp 携帯端末、入力制御プログラム及び入力制御方法
WO2012160829A1 (ja) * 2011-05-25 2012-11-29 パナソニック株式会社 タッチスクリーン装置、タッチ操作入力方法及びプログラム
JP2012234569A (ja) * 2012-08-09 2012-11-29 Panasonic Corp 電子機器、表示方法、及びプログラム
JP2013521547A (ja) * 2010-02-25 2013-06-10 マイクロソフト コーポレーション マルチスクリーンのホールド及びページフリップジェスチャー
JP2013214310A (ja) * 2008-09-03 2013-10-17 Canon Inc 情報処理装置、その動作方法及びプログラム
JP2014006671A (ja) * 2012-06-22 2014-01-16 Yahoo Japan Corp 画像表示装置、画像表示方法、及び、画像表示プログラム
JP2014112335A (ja) * 2012-12-05 2014-06-19 Fuji Xerox Co Ltd 情報処理装置及びプログラム
JP2014142750A (ja) * 2013-01-23 2014-08-07 Dainippon Printing Co Ltd 入力機能及び表示機能を有するicカード
JP2014215916A (ja) * 2013-04-26 2014-11-17 株式会社サミーネットワークス 表示制御方法、表示制御プログラム、および、携帯情報端末
WO2015107617A1 (ja) * 2014-01-14 2015-07-23 株式会社 東芝 電子機器、制御方法およびプログラム
WO2016006074A1 (ja) * 2014-07-09 2016-01-14 株式会社東芝 電子機器、方法及びプログラム
US9250800B2 (en) 2010-02-18 2016-02-02 Rohm Co., Ltd. Touch-panel input device
JP2016219067A (ja) * 2016-09-28 2016-12-22 富士ゼロックス株式会社 情報処理装置及びプログラム
US11055050B2 (en) 2010-02-25 2021-07-06 Microsoft Technology Licensing, Llc Multi-device pairing and combined display

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008275565A (ja) * 2007-05-07 2008-11-13 Toyota Motor Corp ナビゲーション装置
US9483755B2 (en) 2008-03-04 2016-11-01 Apple Inc. Portable multifunction device, method, and graphical user interface for an email client
US8368667B2 (en) * 2008-06-26 2013-02-05 Cirque Corporation Method for reducing latency when using multi-touch gesture on touchpad
EP2306286A4 (en) 2008-07-17 2016-05-11 Nec Corp INFORMATION PROCESSING APPARATUS, STORAGE MEDIUM ON WHICH A PROGRAM HAS BEEN RECORDED, AND METHOD FOR MODIFYING OBJECT
US20110216095A1 (en) * 2010-03-04 2011-09-08 Tobias Rydenhag Methods, Devices, and Computer Program Products Providing Multi-Touch Drag and Drop Operations for Touch-Sensitive User Interfaces
JP5473708B2 (ja) * 2010-03-26 2014-04-16 京セラ株式会社 携帯端末及び表示制御プログラム
KR102006740B1 (ko) 2010-10-20 2019-08-02 삼성전자 주식회사 휴대 단말기의 화면 표시 방법 및 장치
JP2013069273A (ja) * 2011-09-07 2013-04-18 Nitto Denko Corp 入力体の動き検出方法およびそれを用いた入力デバイス
US9501213B2 (en) * 2011-09-16 2016-11-22 Skadool, Inc. Scheduling events on an electronic calendar utilizing fixed-positioned events and a draggable calendar grid
EP2584441A1 (en) * 2011-10-18 2013-04-24 Research In Motion Limited Electronic device and method of controlling same
US8810535B2 (en) 2011-10-18 2014-08-19 Blackberry Limited Electronic device and method of controlling same
KR101710418B1 (ko) * 2011-12-19 2017-02-28 삼성전자주식회사 휴대 단말기의 멀티 터치 인터렉션 제공 방법 및 장치
TWI494802B (zh) * 2012-01-04 2015-08-01 Asustek Comp Inc 操作方法與使用其之可攜式電子裝置
EP2812784A4 (en) * 2012-02-07 2015-11-11 Blackberry Ltd METHODS AND DEVICES FOR MERGING CONTACT RECORDINGS
US8539375B1 (en) * 2012-02-24 2013-09-17 Blackberry Limited Method and apparatus for providing a user interface on a device enabling selection of operations to be performed in relation to content
US9223483B2 (en) 2012-02-24 2015-12-29 Blackberry Limited Method and apparatus for providing a user interface on a device that indicates content operators
JP5974657B2 (ja) * 2012-06-15 2016-08-23 株式会社リコー 情報処理装置、情報処理方法および情報処理プログラム
JP2014032450A (ja) 2012-08-01 2014-02-20 Sony Corp 表示制御装置、表示制御方法及びコンピュータプログラム
JP5975794B2 (ja) * 2012-08-29 2016-08-23 キヤノン株式会社 表示制御装置、表示制御方法、プログラム及び記憶媒体
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US9841815B2 (en) * 2013-09-09 2017-12-12 Samsung Electronics Co., Ltd. Method for differentiation of touch input and visualization of pending touch input
US20150212682A1 (en) * 2014-01-30 2015-07-30 Accompani, Inc. Managing calendar and contact information
JP2015172861A (ja) * 2014-03-12 2015-10-01 レノボ・シンガポール・プライベート・リミテッド 携帯式電子機器の使用環境を切り換える方法、携帯式電子機器およびコンピュータ・プログラム
WO2016036509A1 (en) * 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
WO2016036416A1 (en) 2014-09-02 2016-03-10 Apple Inc. Button functionality
JP7089352B2 (ja) 2016-09-16 2022-06-22 日東電工株式会社 スパイラル型膜エレメント
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
JP7327368B2 (ja) * 2020-12-02 2023-08-16 横河電機株式会社 装置、方法およびプログラム
US20230230044A1 (en) * 2021-12-30 2023-07-20 Microsoft Technology Licensing, Llc Calendar update using template selections

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JPH1173271A (ja) * 1997-08-28 1999-03-16 Sharp Corp 指示装置、処理装置および記憶媒体
JP2000163193A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP2001265481A (ja) * 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2002304256A (ja) 2001-04-06 2002-10-18 Sony Corp 情報処理装置
JP2005301516A (ja) * 2004-04-08 2005-10-27 Sony Corp 情報処理装置および方法、並びにプログラム
WO2007089766A2 (en) * 2006-01-30 2007-08-09 Apple Inc. Gesturing with a multipoint sensing device
JP2007279638A (ja) 2006-04-12 2007-10-25 Xanavi Informatics Corp ナビゲーション装置
JP2008508600A (ja) * 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
JP2008097172A (ja) * 2006-10-10 2008-04-24 Sony Corp 表示装置および表示方法
JP2008185622A (ja) 2007-01-26 2008-08-14 Ricoh Co Ltd 色ずれ検出方法、色ずれ検出装置及び画像形成装置

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03180922A (ja) 1989-12-11 1991-08-06 Fujitsu Ltd タッチパネル構造
JPH07175587A (ja) * 1993-10-28 1995-07-14 Hitachi Ltd 情報処理装置
US5732227A (en) * 1994-07-05 1998-03-24 Hitachi, Ltd. Interactive information processing system responsive to user manipulation of physical objects and displayed images
JPH11102274A (ja) 1997-09-25 1999-04-13 Nec Corp スクロール装置
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
JP2000137564A (ja) * 1998-11-02 2000-05-16 Pioneer Electronic Corp 画面操作装置および方法
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
JP2000163444A (ja) 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
US7003641B2 (en) * 2000-01-31 2006-02-21 Commvault Systems, Inc. Logical view with granular access to exchange data managed by a modular data and storage management system
JP4803883B2 (ja) * 2000-01-31 2011-10-26 キヤノン株式会社 位置情報処理装置及びその方法及びそのプログラム。
US20030117427A1 (en) * 2001-07-13 2003-06-26 Universal Electronics Inc. System and method for interacting with a program guide displayed on a portable electronic device
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
JP3847641B2 (ja) 2002-02-28 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
JP4045550B2 (ja) * 2004-06-28 2008-02-13 富士フイルム株式会社 画像表示制御装置及び画像表示制御プログラム
TWI248576B (en) * 2004-07-05 2006-02-01 Elan Microelectronics Corp Method for controlling rolling of scroll bar on a touch panel
JP2006092025A (ja) * 2004-09-21 2006-04-06 Fujitsu Ltd 電子機器並びに表示画面の制御処理方法および表示画面の制御処理プログラム
US7760189B2 (en) * 2005-01-21 2010-07-20 Lenovo Singapore Pte. Ltd Touchpad diagonal scrolling
JP2007141177A (ja) * 2005-11-22 2007-06-07 Tokai Rika Co Ltd 操作入力装置
JP3970906B2 (ja) 2006-02-03 2007-09-05 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
JP4810658B2 (ja) * 2006-03-10 2011-11-09 国立大学法人広島大学 接触検出装置及び接触検出方法
TW200805131A (en) * 2006-05-24 2008-01-16 Lg Electronics Inc Touch screen device and method of selecting files thereon
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US7936341B2 (en) * 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
JP2009017286A (ja) 2007-07-05 2009-01-22 Niigata Seimitsu Kk Am/fmラジオ受信機およびこれに用いる受信用半導体集積回路
WO2009049331A2 (en) * 2007-10-08 2009-04-16 Van Der Westhuizen Willem Mork User interface
US9513765B2 (en) * 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system
US8745514B1 (en) * 2008-04-11 2014-06-03 Perceptive Pixel, Inc. Pressure-sensitive layering of displayed objects
JP4171770B1 (ja) * 2008-04-24 2008-10-29 任天堂株式会社 オブジェクト表示順変更プログラム及び装置
JP5500855B2 (ja) * 2008-07-11 2014-05-21 キヤノン株式会社 情報処理装置及びその制御方法
EP2306286A4 (en) 2008-07-17 2016-05-11 Nec Corp INFORMATION PROCESSING APPARATUS, STORAGE MEDIUM ON WHICH A PROGRAM HAS BEEN RECORDED, AND METHOD FOR MODIFYING OBJECT
US8407606B1 (en) * 2009-01-02 2013-03-26 Perceptive Pixel Inc. Allocating control among inputs concurrently engaging an object displayed on a multi-touch device
US20120242620A1 (en) * 2011-03-22 2012-09-27 Research In Motion Limited Combined optical navigation and button
US9134893B2 (en) * 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Block-based content selecting technique for touch screen UI
US9471150B1 (en) * 2013-09-27 2016-10-18 Emc Corporation Optimized gestures for zoom functionality on touch-based device

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JPH1173271A (ja) * 1997-08-28 1999-03-16 Sharp Corp 指示装置、処理装置および記憶媒体
JP2000163193A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP2001265481A (ja) * 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2002304256A (ja) 2001-04-06 2002-10-18 Sony Corp 情報処理装置
JP2005301516A (ja) * 2004-04-08 2005-10-27 Sony Corp 情報処理装置および方法、並びにプログラム
JP2008508600A (ja) * 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
JP2008508601A (ja) * 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのジェスチャ
WO2007089766A2 (en) * 2006-01-30 2007-08-09 Apple Inc. Gesturing with a multipoint sensing device
JP2007279638A (ja) 2006-04-12 2007-10-25 Xanavi Informatics Corp ナビゲーション装置
JP2008097172A (ja) * 2006-10-10 2008-04-24 Sony Corp 表示装置および表示方法
JP2008185622A (ja) 2007-01-26 2008-08-14 Ricoh Co Ltd 色ずれ検出方法、色ずれ検出装置及び画像形成装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2306286A4

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214310A (ja) * 2008-09-03 2013-10-17 Canon Inc 情報処理装置、その動作方法及びプログラム
US9250800B2 (en) 2010-02-18 2016-02-02 Rohm Co., Ltd. Touch-panel input device
US9760280B2 (en) 2010-02-18 2017-09-12 Rohm Co., Ltd. Touch-panel input device
US11055050B2 (en) 2010-02-25 2021-07-06 Microsoft Technology Licensing, Llc Multi-device pairing and combined display
JP2013521547A (ja) * 2010-02-25 2013-06-10 マイクロソフト コーポレーション マルチスクリーンのホールド及びページフリップジェスチャー
JP2011197848A (ja) * 2010-03-18 2011-10-06 Rohm Co Ltd タッチパネル入力装置
JP2011227703A (ja) * 2010-04-20 2011-11-10 Rohm Co Ltd 2点検知可能なタッチパネル入力装置
JP2011242820A (ja) * 2010-05-13 2011-12-01 Panasonic Corp 電子機器、表示方法、及びプログラム
CN102375602A (zh) * 2010-08-13 2012-03-14 卡西欧计算机株式会社 输入装置以及输入方法
JP2012068778A (ja) * 2010-09-22 2012-04-05 Kyocera Corp 携帯端末、入力制御プログラム及び入力制御方法
WO2012160829A1 (ja) * 2011-05-25 2012-11-29 パナソニック株式会社 タッチスクリーン装置、タッチ操作入力方法及びプログラム
JP2014006671A (ja) * 2012-06-22 2014-01-16 Yahoo Japan Corp 画像表示装置、画像表示方法、及び、画像表示プログラム
JP2012234569A (ja) * 2012-08-09 2012-11-29 Panasonic Corp 電子機器、表示方法、及びプログラム
JP2014112335A (ja) * 2012-12-05 2014-06-19 Fuji Xerox Co Ltd 情報処理装置及びプログラム
JP2014142750A (ja) * 2013-01-23 2014-08-07 Dainippon Printing Co Ltd 入力機能及び表示機能を有するicカード
JP2014215916A (ja) * 2013-04-26 2014-11-17 株式会社サミーネットワークス 表示制御方法、表示制御プログラム、および、携帯情報端末
WO2015107617A1 (ja) * 2014-01-14 2015-07-23 株式会社 東芝 電子機器、制御方法およびプログラム
WO2016006074A1 (ja) * 2014-07-09 2016-01-14 株式会社東芝 電子機器、方法及びプログラム
JP2016219067A (ja) * 2016-09-28 2016-12-22 富士ゼロックス株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
CN104216655A (zh) 2014-12-17
US20140333580A1 (en) 2014-11-13
US9933932B2 (en) 2018-04-03
US10656824B2 (en) 2020-05-19
EP2306286A4 (en) 2016-05-11
CN104216655B (zh) 2018-02-16
JP2017168136A (ja) 2017-09-21
JP5267827B2 (ja) 2013-08-21
JP6150082B2 (ja) 2017-06-21
JP6369704B2 (ja) 2018-08-08
US20180181278A1 (en) 2018-06-28
JP2015015045A (ja) 2015-01-22
CN102099775A (zh) 2011-06-15
JP5618106B2 (ja) 2014-11-05
JPWO2010008088A1 (ja) 2012-01-05
JP2013214308A (ja) 2013-10-17
US20110126097A1 (en) 2011-05-26
EP2306286A1 (en) 2011-04-06
JP5787375B2 (ja) 2015-09-30
JP2013175228A (ja) 2013-09-05
JP5811381B2 (ja) 2015-11-11
JP2016026352A (ja) 2016-02-12
CN102099775B (zh) 2014-09-24

Similar Documents

Publication Publication Date Title
WO2010008088A1 (ja) 情報処理装置、プログラムを記録した記憶媒体及びオブジェクト移動方法
JP6151157B2 (ja) 電子機器および制御プログラム並びに電子機器の動作方法
US8174496B2 (en) Mobile communication terminal with touch screen and information inputing method using the same
KR101523979B1 (ko) 휴대 단말기 및 그 휴대 단말기에서 기능 수행 방법
US20130082824A1 (en) Feedback response
JP2010009321A (ja) 入力装置
US9189077B2 (en) User character input interface with modifier support
US10216409B2 (en) Display apparatus and user interface providing method thereof
JP5261729B2 (ja) 情報処理装置、及びプログラム
JP2012505568A (ja) 移動通信装置のためのマルチメディアモジュール
KR20140016454A (ko) 터치스크린을 구비한 휴대 단말기의 오브젝트 이동을 위한 드래그 제어 방법 및 장치
JP5923395B2 (ja) 電子機器
JP5449269B2 (ja) 入力装置
JP2008009856A (ja) 入力装置
JP2009146212A (ja) 情報処理装置
JP6542451B2 (ja) 電子機器
JP6408641B2 (ja) 電子機器
JP2015111369A (ja) 電子装置
JP2016181291A (ja) 装置、制御方法、ならびに制御プログラム
JP2015022668A (ja) 入力装置
JP2011123571A (ja) 指示体位置検出機能付き電子機器、入力方法およびプログラム
JP2015139617A (ja) クイズゲーム制御方法及びクイズゲーム制御プログラム
JP2015139616A (ja) クイズゲーム制御方法及びクイズゲーム制御プログラム
JP2011008624A (ja) 情報処理装置、項目選択受付方法およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980128039.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09798012

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010520915

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13054698

Country of ref document: US

Ref document number: 2009798012

Country of ref document: EP