WO2011125352A1 - 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体 - Google Patents

情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体 Download PDF

Info

Publication number
WO2011125352A1
WO2011125352A1 PCT/JP2011/050443 JP2011050443W WO2011125352A1 WO 2011125352 A1 WO2011125352 A1 WO 2011125352A1 JP 2011050443 W JP2011050443 W JP 2011050443W WO 2011125352 A1 WO2011125352 A1 WO 2011125352A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
touch sensor
display surface
region
options
Prior art date
Application number
PCT/JP2011/050443
Other languages
English (en)
French (fr)
Inventor
昌毅 高瀬
唐澤 英了
亮太 内野
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2010090932A external-priority patent/JP5653062B2/ja
Priority claimed from JP2010090931A external-priority patent/JP5529616B2/ja
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to EP11765254.5A priority Critical patent/EP2557484B1/en
Priority to CN201180028059.6A priority patent/CN102934067B/zh
Priority to US13/639,612 priority patent/US20130088450A1/en
Priority to KR1020127029104A priority patent/KR101455690B1/ko
Publication of WO2011125352A1 publication Critical patent/WO2011125352A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Definitions

  • the present invention relates to an information processing system, an operation input device, an information processing device, an information processing method, a program, and an information storage medium.
  • a portable game device in which a user can enjoy a game by operating a touch panel (touch screen) including a display unit and a touch sensor.
  • Patent Document 1 describes a technique in which a display and a touch display different from the display are juxtaposed, and a menu displayed on the touch display is touched to switch display contents on the display.
  • the display surface of the display unit included in the touch panel matches the detection surface of the touch sensor included in the touch panel. Therefore, even if the user performs a tracing operation from the outside to the inside of the touch panel (or from the inside to the outside) with a finger or a stylus, it is detected separately from the tracing operation from the edge of the touch panel to the inside (or from the inside to the edge). I could't.
  • the conventional information processing system there is a limit to the range of operation variations that can be detected on the touch panel, and thus there is a limit to the range of executable process variations.
  • an image showing options such as icons and buttons to be touched by the user does not hinder the visibility of displayed information on the display surface of the display unit. May be displayed in a row on the edge.
  • the display surface of the display unit included in the touch panel and the detection surface of the touch sensor included in the touch panel coincide with each other. For this reason, when the user touches the vicinity of the edge of the touch panel, the position may or may not be detected depending on whether the touch panel is touched or the outside of the touch panel is touched.
  • the present invention has been made in view of the above problems, and one of its purposes is an information processing system, an operation input device, and an information processing capable of widening the range of variations of processing executed based on a touch operation.
  • An apparatus, an information processing method, a program, and an information storage medium are provided.
  • Another object of the present invention is to provide an information processing device, an operation input device, an information processing system, an information processing method, and a program capable of effectively utilizing the display surface of the display unit while maintaining the operability of the touch operation by the user. And providing an information storage medium.
  • an information processing system includes a display unit, an inner region that occupies at least a part of a display surface of the display unit, and a region outside the display surface adjacent to the inner region.
  • a touch sensor for detecting a position of an object on the detection surface, and a position detected by the touch sensor corresponding to a position in the inner region, wherein a detection surface is provided in a region including an outer region.
  • a process execution means for executing a process based on the position detected by the touch sensor corresponding to the position in the outer region.
  • the operation input device includes a display unit, an inner region that occupies at least a part of the display surface of the display unit, and an outer region that is an area outside the display surface adjacent to the inner region.
  • a touch sensor for detecting a position of an object on the detection surface, wherein the touch sensor is detected by the touch sensor corresponding to a position in the inner region.
  • Data corresponding to a detection result by the touch sensor is output to a processing execution unit that executes processing based on the position and the position detected by the touch sensor corresponding to the position in the outer region.
  • the information processing apparatus has a detection surface in a region including an inner region that occupies at least a part of the display surface of the display unit and an outer region that is an area outside the display surface adjacent to the inner region. Based on a position corresponding to a position in the inner area and a position corresponding to a position in the outer area detected by a touch sensor that detects the position of the object on the detection surface. And a process execution means for executing the process.
  • the information processing method provides a detection surface in a region including an inner region that occupies at least a part of the display surface of the display unit, and an outer region that is an area outside the display surface adjacent to the inner region. Based on a position corresponding to a position in the inner area and a position corresponding to a position in the outer area detected by a touch sensor that detects the position of the object on the detection surface. A process execution step for executing the process.
  • the detection surface is provided in a region including an inner region that occupies at least a part of the display surface of the display unit and an outer region that is an area outside the display surface adjacent to the inner region.
  • a process based on a position corresponding to a position in the inner area and a position corresponding to a position in the outer area, which is detected by a touch sensor that detects the position of the object on the detection surface.
  • the computer is caused to function as processing execution means to be executed.
  • the information storage medium has a detection surface in a region including an inner region that occupies at least a part of the display surface of the display unit and an outer region that is an area outside the display surface adjacent to the inner region. Based on a position corresponding to a position in the inner area and a position corresponding to a position in the outer area detected by a touch sensor that detects the position of the object on the detection surface.
  • a computer-readable information storage medium storing a program characterized by causing a computer to function as processing execution means for executing processing.
  • the present invention it is possible to execute processing based on the position corresponding to the position in the display surface and the position corresponding to the position in the outer region outside the display surface.
  • the range of processing variations to be executed can be expanded.
  • the touch sensor sequentially detects the position of the object, and the processing execution unit executes a process based on a history of positions detected by the touch sensor. By doing so, it is possible to perform processing according to the object movement operation from the inner region to the outer region and the object movement operation from the outer region to the inner region.
  • the processing execution means includes a case where the position history detected by the touch sensor includes both a position corresponding to a position in the inner area and a position corresponding to a position in the outer area. Different processing may be executed when the position history detected by the touch sensor includes only the position corresponding to the position in the inner region. In this way, the range of processing variations to be executed can be further expanded.
  • the processing execution unit detects a position corresponding to one of the position in the inner region or the position in the outer region after the touch sensor detects the position corresponding to the other.
  • a predetermined process may be executed. By doing so, it is possible to execute processing according to the movement of the object across the boundary between the inner region and the outer region.
  • the process execution unit executes a process of displaying information at a position in the display unit specified based on a position detected by the touch sensor. By doing this, it is possible to display information based on the detection position corresponding to the position in the display surface and the detection position corresponding to the position in the outer region outside the display surface.
  • another information processing apparatus includes a display processing execution unit that displays a plurality of options side by side along an edge of the display surface of the display unit, and an inner side that is at least a partial region in the display surface. Detected by a touch sensor that detects a position of an object on the detection surface, in which a detection surface is provided in a region including an area and an outer area that is an area outside the display surface adjacent to the inner area Selection processing execution means for executing processing according to at least one of the plurality of options specified based on the position.
  • another operation input device is a display unit, an inner region that is at least a part of a display surface of the display unit, and a region outside the display surface adjacent to the inner region.
  • a touch sensor for detecting the position of an object on the detection surface, the touch sensor being provided along an edge of the display surface of the display unit.
  • Display processing execution means for displaying a plurality of options side by side, an inner region that is at least a part of the display surface, and an outer region that is an area outside the display surface adjacent to the inner region.
  • a process according to at least one of the plurality of options specified based on a position detected by a touch sensor that detects a position of an object on the detection surface, the detection surface being provided in a region Execute The information processing apparatus that includes a selection processing execution means, the, and outputs data indicating the detection results.
  • another information processing system includes a display unit, an inner region that is at least a part of a display surface of the display unit, and a region outside the display surface adjacent to the inner region.
  • a touch sensor that detects a position of an object on the detection surface, and a plurality of options are displayed side by side along an edge of the display surface of the display unit.
  • a detection surface is provided in a region including display processing execution means, an inner region that is at least a portion of the display surface, and an outer region that is an area outside the display surface adjacent to the inner region.
  • Selection processing execution means for executing processing according to at least one of the plurality of options specified based on a position detected by a touch sensor that detects a position of an object on the detection surface; The And wherein the Mukoto.
  • another information processing method includes a display processing execution step of displaying a plurality of options side by side along an edge of the display surface of the display unit, and an inner side that is at least a partial region in the display surface Detected by a touch sensor that detects a position of an object on the detection surface, in which a detection surface is provided in a region including an area and an outer area that is an area outside the display surface adjacent to the inner area An option corresponding process execution step for executing a process according to at least one of the plurality of options specified based on a position.
  • another program is a display processing execution means for displaying a plurality of options side by side along the edge of the display surface of the display unit, an inner region that is at least a partial region in the display surface, Based on a position detected by a touch sensor that detects a position of an object on the detection surface, wherein a detection surface is provided in an area including an outer area that is an area outside the display surface adjacent to the inner area.
  • the computer is caused to function as selection process execution means for executing a process according to at least one of the plurality of options specified in the above.
  • another information storage medium includes a display processing execution unit that displays a plurality of options side by side along an edge of the display surface of the display unit, and an inner region that is at least a partial region in the display surface And a position detected by a touch sensor that detects the position of the object on the detection surface, wherein a detection surface is provided in a region including the outer region that is an area outside the display surface adjacent to the inner region.
  • a computer-readable information storage medium storing a program characterized by causing a computer to function as selection processing execution means for executing processing according to at least one of the plurality of options specified based on It is.
  • the display surface of the display unit can be effectively utilized while maintaining the operability of the touch operation by the user.
  • the selection processing execution means is an object by the user along a direction connecting the center of the display surface and the edge of the display surface on which the plurality of options are displayed side by side.
  • the plurality of options displayed on the display surface that are specified based on the distance between the option and the position of the object when a detection result corresponding to the movement of the object is detected by the touch sensor.
  • a process based on at least one of the above is executed. In this way, the user can perform an intuitive operation of moving the object along the direction connecting the center of the display surface and the edge of the display surface, based on the distance between the position of the object and the option. Processing based on the specified option can be executed.
  • the display processing execution unit may select a plurality of options along the edge of the display surface when the touch sensor detects a position corresponding to the edge of the display surface. It is characterized by being displayed side by side. By so doing, it is possible to execute a process of displaying options along the edge according to the operation of bringing the object into contact with the edge of the display surface.
  • the display processing execution unit may select an option specified based on a relationship between a position detected by the touch sensor and a position where the option is displayed as another option. It displays on the said display part in the aspect different from. In this way, it is possible to present to the user in an easy-to-understand manner what the specified option is.
  • the touch sensor detects the detection result corresponding to the movement of the object by the user in the direction along the edge of the display surface on which the plurality of options are displayed side by side.
  • the options displayed in a manner different from other options may be changed according to the detection result. In this way, the user can change the specified option by moving the object.
  • the display processing execution unit may select a plurality of options along the edge of the display surface when the touch sensor detects a position corresponding to the edge of the display surface. Displayed side by side, and after the display processing execution means displays the plurality of options side by side on the display unit, the position detected by the touch sensor and the position where the options are displayed The selection specified based on the display unit is displayed on the display unit in a mode different from other options, and the selection processing execution unit displays the central part of the display surface and the plurality of options side by side.
  • the option is an icon corresponding to a program
  • the selection process executing unit executes a process of starting a program corresponding to the specified option
  • FIG. 1 shows the 1st usage example of the portable game machine which concerns on this embodiment.
  • FIG. 2nd usage example of the portable game machine which concerns on this embodiment shows the 2nd usage example of the portable game machine which concerns on this embodiment.
  • FIG. 1 is a perspective view showing an example of the appearance of an information processing system according to an embodiment of the present invention (in this embodiment, for example, a portable game machine 1).
  • the casing 10 of the portable game machine 1 has a substantially rectangular flat plate shape as a whole, and a touch panel 12 is provided on the surface thereof.
  • the touch panel 12 has a substantially rectangular shape, and includes a display unit (display 12a) and a touch sensor 12b.
  • the display 12a may be various image display devices such as a liquid crystal display panel and an organic EL display panel.
  • the touch sensor 12b is disposed so as to overlap the display 12a, and is provided with a substantially rectangular detection surface having a shape corresponding to the display surface of the display 12a.
  • the touch sensor 12b sequentially detects contact of an object such as a user's finger or stylus on the detection surface at a predetermined time interval.
  • the touch sensor 12b detects the contact position of the object.
  • the touch sensor 12b may be of any type as long as it is a device that can detect the position of an object on the detection surface, such as a capacitance type, a pressure sensitive type, or an optical type.
  • the sizes of the display 12a and the touch sensor 12b are different, and the touch sensor 12b is slightly larger than the display 12a.
  • the display 12a and the touch sensor 12b are arranged in the housing 10 so that the center position of the display 12a is slightly lower right than the center position of the touch sensor 12b.
  • the touch sensor 12b and the display 12a may be arranged in the housing 10 so that the positions of the centers overlap.
  • the touch sensor area where the display 12a and the touch sensor 12b overlap areas that occupies the display surface of the display 12a
  • the touch sensor area outside the display surface of the display 12a that is adjacent to the inner area 14 will be described. Will be referred to as the outer region 16.
  • the portable game machine 1 includes various operation members for receiving user operation inputs such as buttons and switches, and an imaging unit such as a digital camera. May be disposed on the front surface, back surface, side surface, or the like of the housing 10.
  • FIG. 2 is a block diagram showing an example of the internal configuration of the portable game machine 1 shown in FIG.
  • the portable game machine 1 includes a control unit 20, a storage unit 22, and an image processing unit 24.
  • the control unit 20 is a CPU, for example, and executes various types of information processing according to programs stored in the storage unit 22.
  • the storage unit 22 is, for example, a memory element such as a RAM or a ROM, a disk device, and the like, and stores a program executed by the control unit 20 and various data.
  • the storage unit 22 also functions as a work memory for the control unit 20.
  • the image processing unit 24 includes, for example, a GPU and a frame buffer memory, and draws an image to be displayed on the display 12a in accordance with an instruction output from the control unit 20.
  • the image processing unit 24 includes a frame buffer memory corresponding to the display area of the display 12a, and the GPU writes an image to the frame buffer memory every predetermined time in accordance with an instruction from the control unit 20.
  • the image written in the frame buffer memory is converted into a video signal at a predetermined timing and displayed on the display 12a.
  • FIG. 3 is a functional block diagram showing an example of functions realized by the portable game machine 1 according to the present embodiment.
  • the portable game machine 1 functions as including a detection result receiving unit 26 and a process execution unit 28.
  • the detection result receiving unit 26 is realized mainly by the touch sensor 12b and the control unit 20.
  • the process execution unit 28 is realized mainly by the control unit 20 and the image processing unit 24.
  • These elements are realized by executing a program installed in the portable game machine 1 that is a computer by the control unit 20 of the portable game machine 1.
  • This program is supplied to the portable game machine 1 via a computer-readable information transmission medium such as a CD-ROM or DVD-ROM, or via a communication network such as the Internet.
  • the detection result receiving unit 26 receives the detection result by the touch sensor 12b.
  • the touch sensor 12b outputs a detection result corresponding to the contact position of the object to the detection result receiving unit 26 at predetermined time intervals.
  • the detection result reception part 26 receives sequentially the contact position data corresponding to the contact position of the object detected by the touch sensor 12b for every predetermined time.
  • the process execution unit 28 executes various processes using the detection results received by the detection result reception unit 26. Specifically, the process execution unit 28 determines the content of the user's operation input using, for example, the detection result (for example, contact position data) of the position of an object such as the user's finger or stylus by the touch sensor 12b. . And the process according to the content of the determined operation input is performed, and a process result is displayed on the display 12a, and is shown to a user.
  • the detection result for example, contact position data
  • the detection surface of the touch sensor 12b is provided in the outer region 16 adjacent to the inner region 14 corresponding to the display 12a, so that the display 12a can be moved from the outside of the display 12a to the inside of the display 12a It is possible to detect that an operation of tracing the detection surface of the touch sensor 12b with an object such as a user's finger or stylus (hereinafter referred to as a slide operation) is performed from the inside to the outside of the display 12a. In this way, according to the present embodiment, the range of touch operation variations that can be detected becomes wider than when the display surface of the display 12a and the detection surface of the touch sensor 12b match.
  • the portable game machine 1 according to the present embodiment can more easily operate the edge of the touch sensor 12b than the portable game machine 1 in which a frame member is provided outside the touch sensor 12b. .
  • FIGS. 4A and 4B are diagrams illustrating a first usage example of the portable game machine 1.
  • a game screen 30 is displayed on the display 12a.
  • the detection result receiving unit 26 receives contact position data corresponding to the contact position of the finger 32.
  • the process execution part 28 performs the process according to the contact position data.
  • stretched to a horizontal direction along the edge of the display 12a is arrange
  • the touch sensor 12b touches the finger at that timing every predetermined time.
  • the position where 32 touches the detection surface is sequentially detected.
  • the detection result reception part 26 receives sequentially a series of contact position data corresponding to the detected contact position. Then, the process execution unit 28 determines that the slide operation of the finger 32 across the indicator image 34 from the outer region 16 to the inner region 14 has been performed based on the received series of contact position data.
  • the process execution unit 28 displays an operation panel image 36 corresponding to the indicator image 34 on the upper portion of the display 12a as shown in FIG. 4B.
  • the operation panel image 36 includes a button 38 corresponding to a predetermined process.
  • the process execution unit 28 corresponds to the touched button 38. Execute the process.
  • the process execution unit 28 executes a process based on the position in the inner region 14 and the position in the outer region 16.
  • the process execution part 28 performs the process based on the log
  • the user touches the detection surface of the touch sensor 12b with the finger 32 and slides the finger 32 across the indicator image 34 displayed on the edge of the display 12a, whereby the indicator image is displayed.
  • An operation for displaying the operation panel image 36 in the vicinity of the position where 34 is displayed can be performed.
  • the operation to be performed when the operation panel image 36 is displayed can be presented to the user in an easy-to-understand manner using the indicator image 34.
  • the user can perform display control of the game screen 30 by an intuitively easy-to-understand operation of sliding the finger 32 across the edge of the display 12a.
  • the width of the indicator image 34 is reduced, an area in the display 12a that can be used as the game screen 30 is increased. Therefore, the display surface of the display 12a can be effectively used. Can do.
  • the process execution unit 28 moves the finger 32.
  • the operation panel image 36 may be displayed on the display 12a at the same speed as the sliding speed. In this way, since the slide operation and the state in which the operation panel image 36 is displayed are linked, it is possible to give the user an intuitive operation feeling as if the operation panel image 36 is drawn from the screen end of the display 12a. it can.
  • the process execution unit 28 may display the operation panel image 36 on the display 12 a in accordance with the slide operation of the finger 32 from the inner region 14 to the outer region 16.
  • the indicator image 34 may be arranged on the left side, the right side, or the lower side of the display 12a. Then, the operation panel image 36 may be displayed at a position corresponding to the display position of the indicator image 34.
  • FIGS. 5A, 5B, and 5C are diagrams illustrating a second usage example of the portable game machine 1.
  • the game screen 30 is displayed on the display 12a.
  • the process execution unit 28 executes a process according to the touched position.
  • the rightward direction in the horizontal direction is the X-axis direction and the downward direction in the vertical direction is the Y-axis direction.
  • a strip-shaped indicator image 34 extending in the vertical direction along the edge of the display 12a is arranged.
  • the processing execution unit 28 displays a menu image 40 corresponding to the indicator image 34 as shown in FIG. 5B. Displayed on the right side of the game screen 30.
  • the menu image 40 includes a plurality of options 42 (for example, character strings indicating processing contents) to be selected by the user.
  • the options 42 are displayed side by side along the edge of the display surface of the display 12a.
  • the process execution unit 28 displays the options 42 side by side along the edge of the display surface of the display 12a.
  • the touch position of the finger 32 corresponding to the display operation of the menu image 40 may be a position in the inner area 14 or a position in the outer area 16.
  • the process execution unit 28 displays (highlights) the option 42 having the shortest distance from the position corresponding to the contact position data received by the detection result receiving unit 26 in a manner different from the other options 42.
  • a frame is displayed around the option 42 to be highlighted (in the example of FIG. 5B, the character string “browser”), and the option 42 to the right of the option 42 to be highlighted.
  • a selection icon 44 indicating that is selected is displayed. Note that the color of the option 42 to be highlighted may be changed.
  • the touch sensor 12b detects the contact position of the finger 32 every predetermined time, and the detection result receiving unit 26 sequentially receives the contact position data corresponding to the contact position of the finger 32. Then, each time the detection result receiving unit 26 receives the contact position data, the process execution unit 28 compares the contact position data with the contact position data received immediately before to specify the moving direction of the finger 32. When it is determined that the moving direction of the finger 32 is the vertical direction (Y-axis direction), the process execution unit 28 specifies the option 42 to be highlighted based on the received contact position data. . Then, the process execution unit 28 updates the menu image 40 so that the option 42 is highlighted. In the example of FIG. 5C, the option 42 corresponding to the character string “interrupt” is highlighted.
  • the option 42 to be highlighted is displayed. Will change.
  • the processing execution unit 28 is highlighted according to the detection result.
  • the option 42 may be changed.
  • the process execution unit 28 specifies that the movement direction of the finger 32 is the left-right direction (X-axis direction). In this case, the process execution unit 28 executes a process according to the highlighted option 42. In the example of FIG. 5C, the process execution unit 28 executes an interruption process.
  • the option 42 is displayed to the edge of the display 12a. Even in the situation where 42 is hidden, even if the finger 32 protrudes outside the display 12a, the position of the finger 32 can be detected because the touch sensor 12b is also provided in the outer region 16. Become. Thus, in the second usage example, it is possible to effectively utilize the display surface of the display 12a while maintaining the operability of the touch operation by the user.
  • the process execution unit 28 selects the option 42 (for example, the detection result reception unit 26 receives) specified based on the distance from the position corresponding to the contact position data received by the detection result reception unit 26.
  • the option 42) whose distance from the position corresponding to the contact position data is within a predetermined range may be highlighted. Further, when the user performs a sliding operation of the finger 32 in a direction away from the center from the right edge of the display 12a, the processing execution unit 28 performs processing corresponding to the option 42 highlighted at this timing. May be executed.
  • the processing execution unit 28 updates the display content of the display 12a so as to erase the menu image 40. You may do it.
  • the arrangement, shape, and the like of the options 42 in the menu image 40 in the second embodiment are not limited to the above example.
  • the option 42 may be an image such as an icon.
  • the second usage example may be applied to an operation panel in, for example, a music player or a photo viewer.
  • each option 42 is, for example, a character string or icon corresponding to an operation in a music player, a photo viewer, or the like.
  • the second usage example may be applied to, for example, a control panel for performing various settings.
  • each option 42 is, for example, a character string or icon corresponding to the setting item.
  • the process execution unit 28 may display and output menu items that are frequently used by the user as options 42 in the menu image 40.
  • FIG. 6 is a diagram illustrating a third usage example of the portable game machine 1.
  • a game screen 30 similar to that shown in FIG. 5A is displayed on the display 12a.
  • the process execution unit 28 executes a process related to the game according to the touched position.
  • the detection result receiving unit 26 performs this operation. A series of corresponding contact position data is received. Then, based on the contact position data, the process execution unit 28 moves the game screen 30 to the left as shown in FIG. 6, and displays the system setting screen 48 of the portable game machine 1 in the right area of the display 12a. indicate. When the user touches the system setting screen 48 with the finger 32 or the like, the process execution unit 28 executes a process related to the system setting of the portable game machine 1 in accordance with the touched position.
  • the screen of a program such as an application program currently being executed is dismissed and the screen of another program (for example, an operation system program) is displayed.
  • a production effect can be realized.
  • FIG. 7 is a diagram illustrating a fourth usage example of the portable game machine 1.
  • an icon display screen 52 including a plurality of icons 50 is displayed on the display 12a.
  • the process execution unit 28 moves the touched icon 50 to the position to which the finger 32 is moved. (Drag and drop).
  • the process execution unit 28 Scrolls the icon display screen 52 itself to the left.
  • the process execution unit 28 stops scrolling the icon display screen 52.
  • the process execution unit 28 includes a position corresponding to a position in the inner area 14 and a position corresponding to a position in the outer area 16 in the position history detected by the touch sensor 12b. Different processing is executed when both are included, and when only the position corresponding to the position in the inner region 14 is included in the history of positions detected by the touch sensor 12b.
  • the touch sensor 12 b is provided in the outer region 16, so that the touch sensor 12 b moves when the finger 32 is moved in the inner region 14 and from the inner region 14 to the outer region 16. Different detection results are output when the finger 32 is moved. Therefore, the process execution unit 28 can execute different processes depending on whether the finger 32 is moved within the inner region 14 or when the finger 32 is moved from the inner region 14 to the outer region 16. .
  • the process execution unit 28 causes the display 12a to
  • the icon display screen 52 itself may be scrolled to the left in units of pages corresponding to the size.
  • FIG. 8 is a diagram illustrating a first application example of the present embodiment.
  • the index information 56 is arranged in a line in the vertical direction on the right side of the display 12a.
  • the marks 58 are arranged in a line in the vertical direction in the outer region 16 on the right side of the display 12a.
  • the index information 56 for example, characters
  • the mark 58 are in one-to-one correspondence, and the corresponding index information 56 and the mark 58 are arranged side by side.
  • a plurality of pieces of personal information including a person's name and telephone number are registered in advance.
  • the process execution unit 28 When the user touches the position in the outer region 16 on the right side of the display 12a with the finger 32, the process execution unit 28 highlights the index information 56 closest to the position, and displays the highlighted index information 56 on the highlighted index information 56.
  • Corresponding information for example, a list of personal information registered in the portable information terminal 54 in which the highlighted alphabet corresponds to the first letter of the last name is displayed on the display 12a.
  • the process execution unit 28 When the user performs an operation of sliding the finger 32 along the direction in which the marks 58 are arranged, the process execution unit 28 highlights the index information 56 closest to the position of the finger 32 according to the operation. The content displayed on the display 12a is changed.
  • the user since the user can select the index information 56 outside the screen of the display 12a, the user can use the index information 56 to display the area near the edge of the display 12a.
  • the process execution unit 28 highlights the index information 56 closest to the touched position, and updates the display content of the display 12a so that the information corresponding to the highlighted index information 56 is displayed on the display 12a. It may be. In this application example, the mark 58 may not be disposed in the outer region 16 on the right side of the display 12a.
  • FIG. 9A, 9B, and 9C are diagrams illustrating a second application example of the portable information terminal 54.
  • FIG. 9A In the portable information terminal 54 shown in FIG. 9A, a strip-shaped indicator image 34 extending in the horizontal direction along the edge of the display 12a is arranged on the lower side of the screen shown in FIG. 9A. Then, when the user touches the indicator image 34 with the finger 32 and performs a slide operation of the finger 32 from the lower edge of the display 12a toward the center, the process execution unit 28, as shown in FIG. 9B, The operation panel image 36 of the first stage portion is displayed and output on the display 12a.
  • the process execution unit 28 changes the display content of the display 12a so that the indicator image 34 extends in the vertical direction to become the operation panel image 36, for example.
  • an operation panel image 36 in which the second stage portion is arranged below the first stage portion is displayed as shown in FIG. 9C. Display output to 12a.
  • the process execution unit 28 controls the display 12a so that the operation panel image 36 disappears from the display 12a.
  • the processing execution unit 28 starts the operation panel image 36 from one end of the display 12a on which the indicator image 34 is arranged. Transition may be displayed so that appears.
  • the process execution unit 28 outputs the operation panel image 36 of the first stage portion on the display 12a in response to one slide operation and receives the same slide operation again.
  • the operation panel image 36 of the first stage portion may be displayed and output on the display 12a.
  • the processing execution unit 28 outputs the operation panel image 36 of the first stage portion on the display 12a or outputs the operation of the second stage portion according to the moving amount (or moving speed) of the finger 32 in the slide operation. It may be controlled whether to display up to the panel image 36 on the display 12a.
  • the contents displayed as the operation panel image 36 of the first stage part and the contents displayed as the operation panel image 36 of the second stage part may be divided based on a predetermined priority order.
  • Good. 9A, 9B, and 9C show an example of an operation during playback of moving image content.
  • the content displayed as the operation panel image 36 in the first stage portion is also the operation panel image 36 in the second stage portion.
  • the displayed content is also related to the video playback.
  • information representing the current moving image playback status such as the current chapter, elapsed time, and timeline appears in the first stage portion, and pause, playback, and stop are displayed in the second stage portion.
  • Function buttons such as fast forward, fast reverse, repeat, and help appear.
  • the portable information terminal 54 of this application example may change the contents displayed in the first stage part and the second stage part and the setting of the function buttons according to the setting operation received from the user.
  • the process execution unit 28 controls the display 12a so that the operation panel image 36 disappears from the display 12a. Also good. Further, when the user touches an area outside the operation panel image 36, the process execution unit 28 may control the display 12a so that the operation panel image 36 disappears from the display 12a. Further, when the user performs a sliding operation of the finger 32 in the direction opposite to the direction in which the operation panel image 36 is displayed and output, the processing execution unit 28 displays the operation panel image 36 so that the operation panel image 36 disappears from the display 12a. You may make it display-control 12a.
  • the process execution unit 28 displays the operation panel image 36 from the display 12a step by step in the order of the second step portion and the first step portion according to the moving amount (or moving speed) of the finger 32 in the slide operation. You may make it display-control the display 12a so that it may disappear.
  • the user's slide operation when the operation panel image 36 is displayed on the display 12a is not limited to the above-described operation.
  • the processing execution unit 28 operates a button provided outside the display 12a, a slide operation of the finger 32 from the lower edge of the display 12a toward the center outside the indicator image 34, a display
  • the operation panel image 36 may be displayed and output on the display 12a in accordance with a slide operation into the display 12 from a touch sensor area outside the display 12.
  • this invention is not limited to the above-mentioned embodiment, a usage example, or an application example.
  • some of the functions described in the above-described embodiments, usage examples, and application examples may be combined.
  • the following operations can be performed by combining the first usage example and the second usage example.
  • the processing execution unit 28 has the shortest distance from the position corresponding to the contact position data received by the detection result receiving unit 26 42 may be highlighted. Then, the user may slide the finger 32 further to the left without releasing the finger 32 as it is, and the process execution unit 28 may execute the process according to the highlighted option 42. In this way, the user can display the menu image 40 and select the option 42 as a series of operations without releasing the finger 32 from the display 12a.
  • a straight line or a curve specified by the process execution unit 28 interpolating the positions indicated by the contact position data sequentially received by the detection result receiving unit 26 in accordance with the user's slide operation on the detection surface of the touch sensor 12b. May be executed on the display surface of the display 12a.
  • the process execution unit 28 may display a line specified by complementing the position indicated by the contact position data corresponding to the position in the outer region 16 on the display surface of the display 12a.
  • the touch sensor 12b may detect the contact position of the object and the strength of pressing.
  • the touch sensor 12b does not necessarily detect the position of the object only when the object touches the detection surface, but the position of the object with respect to the detection surface when the object approaches within the detectable range on the detection surface. May be detected.
  • the width of the touch sensor 12b protruding from the display 12a may be different for each side of the display 12a.
  • the touch sensor 12b may not protrude from the display 12a for all sides of the display 12a.
  • the touch sensor 12b may not cover the entire area of the display surface in the display 12a.
  • the display 12a may be disposed closer to the housing 10 than the touch sensor 12b, or the touch sensor 12b may be disposed closer to the housing 10 than the display 12a.
  • the present embodiment may be applied to an information processing system other than the portable game machine 1.
  • the operation input device configured to include the touch panel 12 and the information processing device functioning as the detection result reception unit 26 and the process execution unit 28 are separate cases, and the operation input device and the information
  • the present embodiment may be applied to an information processing system in which a processing apparatus is connected by a cable or the like.

Abstract

 タッチ操作に基づいて実行される処理のバリエーションの幅を広げることができる情報処理システムを提供する。携帯型ゲーム機(1)などの情報処理システムは、ディスプレイ(12a)と、ディスプレイ(12a)の表示面の少なくとも一部を占める内側領域(14)と、内側領域(14)に隣接する表示面外の領域である外側領域(16)と、を含む領域に検出面が設けられている、検出面上における物体の位置を検出するタッチセンサ(12b)と、内側領域(14)内の位置に対応するタッチセンサ(12b)により検出される位置と、外側領域(16)内の位置に対応するタッチセンサ(12b)により検出される位置と、に基づく処理を実行する処理実行部と、を含む。

Description

情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体
 本発明は、情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体に関する。
 表示部とタッチセンサとを含んで構成されるタッチパネル(タッチスクリーン)を操作することでユーザがゲームを楽しむことができる携帯型ゲーム装置などの情報処理システムが存在する。
 このような情報処理システムには、例えば、ユーザが指やスタイラスを用いてタッチパネルをなぞると、そのなぞられた軌跡に沿って線が表示されるものがある。
 また、このような情報処理システムには、例えば、タッチパネルに複数の画像(例えば、アイコンやボタンを示す画像)が表示されている際に、ユーザが指やスタイラスを用いていずれかの画像をタッチすると、タッチされた画像に応じた処理を実行するものもある。特許文献1には、ディスプレイと、当該ディスプレイとは異なるタッチディスプレイとが並置されていて、タッチディスプレイに表示されたメニューをタッチしてディスプレイの表示内容を切り替える技術が記載されている。
特開2003-87673号公報
 従来の情報処理システムでは、タッチパネルに含まれる表示部の表示面とタッチパネルに含まれるタッチセンサの検出面とが一致していた。そのため、ユーザが指やスタイラスにより、タッチパネルの外側から内側に(あるいは、内側から外側に)なぞる操作を行っても、タッチパネルの縁から内側に(あるいは、内側から縁に)なぞる操作と区別して検出することができなかった。このように、従来の情報処理システムにおいては、タッチパネルにおいて検出できる操作のバリエーションの幅に限界があり、そのため、実行可能な処理のバリエーションの幅にも限界があった。
 また、携帯型ゲーム装置などの情報処理システムにおいては、ユーザによるタッチ操作の対象となるアイコンやボタンなどの選択肢を示す画像が、表示される情報の見やすさを阻害しないよう表示部の表示面の縁に一列に並んで表示されることがある。そして、従来の情報処理システムでは、タッチパネルに含まれる表示部の表示面とタッチパネルに含まれるタッチセンサの検出面とが一致していた。そのため、タッチパネルの縁の付近をユーザがタッチした際に、タッチパネルがタッチされたかタッチパネルの外がタッチされたかによって、位置が検出されたりされなかったりすることがあった。
 ここで、タッチパネルの縁の付近にユーザによるタッチ操作の対象となるアイコンやボタンなどの画像を配置しないようにすることが考えられるが、こうすると、有効に活用できる表示面が狭くなってしまう。また、タッチパネルの周縁に枠を設けて、ユーザがタッチパネルの外をタッチすることを防ぐようにすることも考えられるが、こうすれば、タッチパネルの縁の付近がタッチしづらくなってしまう。
 本発明は上記課題に鑑みてなされたものであって、その目的の1つは、タッチ操作に基づいて実行される処理のバリエーションの幅を広げることができる情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体を提供することにある。
 また、本発明の別の目的は、ユーザによるタッチ操作の操作性を保ちつつ表示部の表示面を有効に活用することができる情報処理装置、操作入力装置、情報処理システム、情報処理方法、プログラム及び情報記憶媒体を提供することにある。
 上記課題を解決するために、本発明に係る情報処理システムは、表示部と、前記表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、前記内側領域内の位置に対応する前記タッチセンサにより検出される位置と、前記外側領域内の位置に対応する前記タッチセンサにより検出される位置と、に基づく処理を実行する処理実行手段と、を含むことを特徴とする。
 また、本発明に係る操作入力装置は、表示部と、前記表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、を含み、前記タッチセンサが、前記内側領域内の位置に対応する前記タッチセンサにより検出される位置と、前記外側領域内の位置に対応する前記タッチセンサにより検出される位置と、に基づく処理を実行する処理実行手段に、前記タッチセンサによる検出結果に対応するデータを出力することを特徴とする。
 また、本発明に係る情報処理装置は、表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行手段、を含むことを特徴とする。
 また、本発明に係る情報処理方法は、表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行ステップ、を含むことを特徴とする。
 また、本発明に係るプログラムは、表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行手段、としてコンピュータを機能させることを特徴とする。
 また、本発明に係る情報記憶媒体は、表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行手段、としてコンピュータを機能させることを特徴とするプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。
 本発明によると、表示面内の位置に対応する位置と、表示面外の外側領域内の位置に対応する位置と、に基づく処理を実行することができるようになるので、タッチ操作に基づいて実行される処理のバリエーションの幅を広げることができる。
 本発明の一態様では、前記タッチセンサが、前記物体の位置を順次検出し、前記処理実行手段が、前記タッチセンサにより検出される位置の履歴に基づく処理を実行することを特徴とする。こうすれば、内側領域から外側領域への物体の移動操作や外側領域から内側領域への物体の移動操作に応じた処理を行うことができる。
 この態様では、前記処理実行手段が、前記タッチセンサにより検出される位置の履歴に前記内側領域内の位置に対応する位置と前記外側領域内の位置に対応する位置との両方が含まれる場合と、前記タッチセンサにより検出される位置の履歴に前記内側領域内の位置に対応する位置のみが含まれる場合と、で異なる処理を実行してもよい。こうすれば、実行される処理のバリエーションの幅をさらに広げることができる。
 また、この態様では、前記処理実行手段が、前記タッチセンサにより、前記内側領域内の位置又は前記外側領域内の位置の一方に対応する位置が検出された後に、他方に対応する位置が検出された際に、所定の処理を実行してもよい。こうすれば、内側領域と外側領域との境界をまたぐ物体の移動に応じた処理を実行することができる。
 また、本発明の一態様では、前記処理実行手段が、前記タッチセンサにより検出される位置に基づいて特定される前記表示部内の位置に情報を表示する処理を実行することを特徴とする。こうすれば、表示面内の位置に対応する検出位置と、表示面外の外側領域内の位置に対応する検出位置と、に基づく情報を表示することができる。
 また、本発明に係る別の情報処理装置は、表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行手段と、前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択処理実行手段と、を含むことを特徴とする。
 また、本発明に係る別の操作入力装置は、表示部と、前記表示部の表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、を含み、前記タッチセンサが、前記表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行手段と、前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択処理実行手段と、を含む情報処理装置に、検出結果を示すデータを出力することを特徴とする。
 また、本発明に係る別の情報処理システムは、表示部と、前記表示部の表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、前記表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行手段と、前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択処理実行手段と、を含むことを特徴とする。
 また、本発明に係る別の情報処理方法は、表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行ステップと、前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択肢対応処理実行ステップと、を含むことを特徴とする。
 また、本発明に係る別のプログラムは、表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行手段、前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択処理実行手段、としてコンピュータを機能させることを特徴とする。
 また、本発明に係る別の情報記憶媒体は、表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行手段、前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択処理実行手段、としてコンピュータを機能させることを特徴とするプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。
 本発明によれば、物体が表示面からはみ出たとしても、それが外側領域内であれば、その物体の位置を検出して、その位置に基づいて特定される選択肢に応じた処理を実行することができるので、ユーザによるタッチ操作の操作性を保ちつつ表示部の表示面を有効に活用することができる。
 本発明の一態様では、前記選択処理実行手段が、前記表示面の中央部と、前記複数の選択肢が並んで表示されている前記表示面の縁部と、を結ぶ方向に沿う、ユーザによる物体の移動に対応する検出結果が前記タッチセンサにより検出される場合に、前記選択肢と前記物体の位置との間の距離に基づいて特定される、前記表示面に表示されている複数の選択肢のうちの少なくとも1つに基づく処理を実行することを特徴とする。こうすれば、ユーザは、表示面の中央部と表示面の縁部とを結ぶ方向に沿って物体を移動させるという直感的な操作によって、その物体の位置と選択肢との間の距離に基づいて特定される選択肢に基づく処理を実行することができる。
 また、本発明の一態様では、前記表示処理実行手段が、前記タッチセンサにより前記表示面の縁部に対応する位置が検出される際に、当該表示面の縁部に沿って複数の選択肢を並べて表示することを特徴とする。こうすれば、表示面の縁部に物体を接触させる操作に応じた、その縁部に沿って選択肢を表示する処理を実行することができる。
 また、本発明の一態様では、前記表示処理実行手段が、前記タッチセンサにより検出される位置と、前記選択肢が表示されている位置と、の関係に基づいて特定される選択肢を、他の選択肢とは異なる態様で前記表示部に表示することを特徴とする。こうすれば、特定されている選択肢が何であるかをユーザにわかりやすく提示することができる。
 この態様では、前記表示処理実行手段が、前記複数の選択肢が並んで表示されている前記表示面の縁部に沿う方向の、ユーザによる物体の移動に対応する検出結果が前記タッチセンサにより検出される場合に、当該検出結果に応じて他の選択肢とは異なる態様で表示される選択肢を変化させてもよい。こうすれば、ユーザが、物体の移動操作によって、特定されている選択肢を変化させることができる。
 また、本発明の一態様では、前記表示処理実行手段が、前記タッチセンサにより前記表示面の縁部に対応する位置が検出される際に、当該表示面の縁部に沿って複数の選択肢を並べて表示し、前記表示処理実行手段が、前記表示部に前記複数の選択肢が並んで表示された後に、前記タッチセンサにより検出される位置と、前記選択肢が表示されている位置と、の関係に基づいて特定される選択肢を、他の選択肢とは異なる態様で前記表示部に表示し、前記選択処理実行手段が、前記表示面の中央部と、前記複数の選択肢が並んで表示されている前記表示面の縁部と、を結ぶ方向に沿う、ユーザによる物体の移動に対応する検出結果が前記タッチセンサにより検出される場合に、他の選択肢とは異なる態様で表示されている選択肢に基づく処理を実行することを特徴とする。
 また、本発明の一態様では、前記選択肢は、プログラムに対応するアイコンであり、前記選択処理実行手段は、特定された選択肢に対応するプログラムを起動する処理を実行することを特徴とする。
本実施形態に係る携帯型ゲーム機の外観の一例を示す斜視図である。 図1に示す携帯型ゲーム機の内部構成の一例を示す構成図である。 本実施形態に係る携帯型ゲーム機で実現される機能の一例を示す機能ブロック図である。 本実施形態に係る携帯型ゲーム機の第1の利用例を示す図である。 本実施形態に係る携帯型ゲーム機の第1の利用例を示す図である。 本実施形態に係る携帯型ゲーム機の第2の利用例を示す図である。 本実施形態に係る携帯型ゲーム機の第2の利用例を示す図である。 本実施形態に係る携帯型ゲーム機の第2の利用例を示す図である。 本実施形態に係る携帯型ゲーム機の第3の利用例を示す図である。 本実施形態に係る携帯型ゲーム機の第4の利用例を示す図である。 本実施形態に係る携帯型ゲーム機を携帯情報端末に応用した第1の応用例を示す図である。 本実施形態に係る携帯型ゲーム機の第2の応用例を示す図である。 本実施形態に係る携帯型ゲーム機の第2の応用例を示す図である。 本実施形態に係る携帯型ゲーム機の第2の応用例を示す図である。
 以下、本発明の一実施形態について図面に基づき詳細に説明する。
 図1は、本発明の一実施形態に係る情報処理システム(本実施形態では、例えば、携帯型ゲーム機1)の外観の一例を示す斜視図である。図1に示すように、携帯型ゲーム機1の筐体10は、全体として略矩形の平板状の形状をしており、その表面にはタッチパネル12が設けられている。タッチパネル12は、略矩形の形状をしており、表示部(ディスプレイ12a)とタッチセンサ12bとを含んで構成されている。ディスプレイ12aは、液晶表示パネルや有機EL表示パネル等、各種の画像表示デバイスであってよい。
 タッチセンサ12bは、ディスプレイ12aに重ねて配置されており、ディスプレイ12aの表示面に対応する形状の略矩形の検出面が設けられている。本実施形態では、タッチセンサ12bは、所定の時間間隔で、この検出面上におけるユーザの指やスタイラス等の物体の接触を順次検出する。タッチセンサ12bは、物体の接触を検出した場合は、その物体の接触位置を検出する。なお、タッチセンサ12bは、例えば静電容量式や感圧式、光学式など、検出面上における物体の位置を検出可能なデバイスであれば、どのような方式のものであってもよい。
 図1に示すように、本実施形態では、ディスプレイ12aとタッチセンサ12bとの大きさが異なっており、タッチセンサ12bがディスプレイ12aよりも一回り大きくなっている。そして、ディスプレイ12aの中心の位置がタッチセンサ12bの中心の位置よりもやや右下になるようにディスプレイ12a及びタッチセンサ12bは筐体10に配置されている。なお、タッチセンサ12bとディスプレイ12aとは、中心の位置が重なるようにして筐体10に配置されていてもよい。以下、ディスプレイ12aとタッチセンサ12bとが重なっているタッチセンサ領域(ディスプレイ12aの表示面を占める領域)を内側領域14と呼び、内側領域14に隣接する、ディスプレイ12aの表示面外のタッチセンサ領域を外側領域16と呼ぶこととする。
 なお、図1には示されていないが、携帯型ゲーム機1は、タッチパネル12以外に、例えばボタンやスイッチなど、ユーザの操作入力を受け付けるための各種の操作部材や、デジタルカメラなどの撮像部が筐体10の表面や裏面、側面などに配置されていてもよい。
 図2は、図1に示す携帯型ゲーム機1の内部構成の一例を示す構成図である。図2に示すように、携帯型ゲーム機1は、制御部20と、記憶部22と、画像処理部24と、を含んで構成されている。制御部20は、例えばCPU等であって、記憶部22に格納されているプログラムに従って、各種の情報処理を実行する。記憶部22は、例えばRAMやROM等のメモリ素子や、ディスクデバイスなどであって、制御部20によって実行されるプログラムや各種のデータを格納する。また、記憶部22は、制御部20のワークメモリとしても機能する。
 画像処理部24は、例えばGPUとフレームバッファメモリとを含んで構成され、制御部20が出力する指示に従って、ディスプレイ12aに表示する画像を描画する。具体例として、画像処理部24はディスプレイ12aの表示領域に対応したフレームバッファメモリを備え、GPUは、制御部20からの指示に従って、所定時間おきにこのフレームバッファメモリに対して画像を書き込む。そして、このフレームバッファメモリに書き込まれた画像が、所定のタイミングでビデオ信号に変換されて、ディスプレイ12aに表示される。
 図3は、本実施形態に係る携帯型ゲーム機1で実現される機能の一例を示す機能ブロック図である。図3に示すように、本実施形態に係る携帯型ゲーム機1は、検出結果受付部26と、処理実行部28と、を含むものとして機能する。検出結果受付部26は、タッチセンサ12b及び制御部20を主として実現される。処理実行部28は、制御部20及び画像処理部24を主として実現される。これらの要素は、コンピュータである携帯型ゲーム機1にインストールされたプログラムを、携帯型ゲーム機1の制御部20で実行することにより実現されている。このプログラムは、例えば、CD-ROM、DVD-ROMなどのコンピュータ可読な情報伝達媒体を介して、あるいは、インターネットなどの通信ネットワークを介して携帯型ゲーム機1に供給される。
 検出結果受付部26は、タッチセンサ12bによる検出結果を受け付ける。本実施形態では、タッチセンサ12bが、所定の時間間隔で、物体の接触位置に対応する検出結果を検出結果受付部26に出力する。そして、検出結果受付部26は、タッチセンサ12bにより所定時間毎に検出される物体の接触位置に対応する接触位置データを順次受け付ける。
 処理実行部28は、検出結果受付部26が受け付けた検出結果を用いて各種の処理を実行する。処理実行部28は、具体的には、例えば、タッチセンサ12bによるユーザの指やスタイラス等の物体の位置の検出結果(例えば、接触位置データ)を用いて、ユーザの操作入力の内容を判断する。そして、判断された操作入力の内容に応じた処理を実行し、処理結果をディスプレイ12aに表示することで、ユーザに提示する。
 本実施形態では、ディスプレイ12aに対応する内側領域14に隣接する外側領域16にタッチセンサ12bの検出面が設けられていることにより、ディスプレイ12aの外側からディスプレイ12aの内側へ、あるいは、ディスプレイ12aの内側からディスプレイ12aの外側へ、タッチセンサ12bの検出面をユーザの指やスタイラス等の物体でなぞる操作(以下、スライド操作と呼ぶ。)が行われたことを検出することが可能となる。このようにして、本実施形態によれば、ディスプレイ12aの表示面とタッチセンサ12bの検出面とが一致している場合よりも、検出可能なタッチ操作のバリエーションの幅が広がることとなる。また、本実施形態に係る携帯型ゲーム機1は、タッチセンサ12bの外側に枠部材が設けられている携帯型ゲーム機1よりも、タッチセンサ12bの縁部の操作を容易に行うことができる。
[第1の利用例]
 以下、本実施形態に係る携帯型ゲーム機1の利用例について説明する。
 図4A及び図4Bは、携帯型ゲーム機1の第1の利用例を示す図である。図4Aに示す携帯型ゲーム機1では、ディスプレイ12aにゲーム画面30が表示されている。ユーザが指32等によりゲーム画面30をタッチすると、検出結果受付部26が指32の接触位置に対応する接触位置データを受け付ける。そして、処理実行部28は、その接触位置データに応じた処理を実行する。
 そして、図4Aに示すゲーム画面30の上辺には、ディスプレイ12aの縁に沿って横方向に延伸する帯状のインジケータ画像34が配置されている。ここで、ユーザが、タッチセンサ12bの外側領域16に指32をタッチして、内側領域14に向けた指32のスライド操作を行うと、タッチセンサ12bは、所定時間毎に、そのタイミングに指32が検出面に接触している位置を順次検出する。そして、検出結果受付部26は、検出された接触位置に対応する一連の接触位置データを順次受け付ける。そして、処理実行部28は、受け付けた一連の接触位置データに基づいて、外側領域16から内側領域14への、インジケータ画像34をまたぐような指32のスライド操作が行われたことを判断する。そして、処理実行部28は、この判断に応じて、図4Bに示すように、インジケータ画像34に対応する操作パネル画像36をディスプレイ12aの上側の部分に表示する。操作パネル画像36は所定の処理に対応するボタン38を含んで構成されており、ユーザがいずれかのボタン38を指32等でタッチすると、処理実行部28は、タッチされたボタン38に対応する処理を実行する。このように、第1の利用例では、処理実行部28は、内側領域14内の位置と外側領域16内の位置とに基づく処理を実行する。また、処理実行部28は、タッチセンサ12bにより検出される接触位置の履歴に基づく処理を実行する。
 第1の利用例では、ユーザが、タッチセンサ12bの検出面に指32をタッチして、ディスプレイ12aの縁部に表示されているインジケータ画像34をまたぐよう指32をスライドさせることで、インジケータ画像34が表示されている位置の付近に操作パネル画像36を表示させる操作を行うことができる。このようにして、第1の利用例によれば、操作パネル画像36を表示する際に行うべき操作をインジケータ画像34によりユーザにわかりやすく提示することができる。また、ユーザは、ディスプレイ12aの縁をまたぐよう指32をスライドさせるという直感的にわかりやすい操作により、ゲーム画面30の表示制御を行うことができる。また、第1の利用例によれば、インジケータ画像34の幅を小さくするほど、ゲーム画面30として用いることができるディスプレイ12a内の領域が広くなるので、ディスプレイ12aの表示面を有効に活用することができる。
 なお、第1の利用例において、処理実行部28は、インジケータ画像34が表示された画面端の外側領域16から内側領域14に向かってユーザが指32をスライドした際に、ユーザが指32をスライドさせる速度と同じ速度で、操作パネル画像36をディスプレイ12aに表示するようにしてもよい。こうすれば、スライド操作と操作パネル画像36が表示されていく様子とが連動するので、ディスプレイ12aの画面端から操作パネル画像36を引き出しているような直感的な操作感覚をユーザに与えることができる。また、第1の利用例において、処理実行部28は、内側領域14から外側領域16への指32のスライド操作に応じて操作パネル画像36をディスプレイ12aに表示するようにしてもよい。また、第1の利用例において、インジケータ画像34がディスプレイ12aの左辺、右辺、あるいは、下辺に配置されていてもよい。そして、操作パネル画像36がインジケータ画像34の表示位置に応じた位置に表示されるようにしてもよい。
[第2の利用例]
 図5A、図5B及び図5Cは、携帯型ゲーム機1の第2の利用例を示す図である。図5Aに示す携帯型ゲーム機1では、ディスプレイ12aにゲーム画面30が表示されている。ユーザが指32などによりゲーム画面30をタッチすると、処理実行部28は、タッチされた位置に応じた処理を実行する。なお、図5A、図5B及び図5Cにおいて、横方向右向きをX軸方向、縦方向下向きをY軸方向とする。
 そして、図5Aに示すゲーム画面30の右辺には、ディスプレイ12aの縁に沿って縦方向に延伸する帯状のインジケータ画像34が配置されている。ここで、ユーザが、インジケータ画像34からの距離が所定の範囲内である位置を指32でタッチして、検出結果受付部26が、その位置に対応する接触位置データを受け付けた場合(例えば、インジケータ画像34のX座標と指32の接触位置のX座標とが所定値以下である場合など)は、処理実行部28が、図5Bに示すように、インジケータ画像34に対応するメニュー画像40をゲーム画面30の右側に表示する。第2の利用例では、メニュー画像40は、ユーザにより選択される対象となる複数の選択肢42(例えば、処理内容を示す文字列)を含んで構成されている。そして、選択肢42はディスプレイ12aの表示面の縁部に沿って並べて表示されている。このように、第2の利用例では、処理実行部28は、各選択肢42をディスプレイ12aの表示面の縁部に沿って並べて表示する。なお、第2の利用例では、メニュー画像40の表示操作に対応する指32のタッチ位置は、内側領域14内の位置でも外側領域16内の位置でも構わない。
 そして、処理実行部28は、検出結果受付部26が受け付ける接触位置データに対応する位置からの距離が最短である選択肢42を他の選択肢42とは異なる態様で表示(強調表示)する。図5Bの例では、強調表示の対象となる選択肢42(図5Bの例では、文字列「ブラウザ」)の周りに枠を表示して、強調表示の対象となる選択肢42の右側にその選択肢42が選択されていることを示す選択アイコン44を表示する。なお、強調表示の対象となる選択肢42の色を変化させてもよい。
 第2の利用例では、タッチセンサ12bが所定時間毎に指32の接触位置を検出して、検出結果受付部26が指32の接触位置に対応する接触位置データを順次受け付ける。そして、処理実行部28は、検出結果受付部26が接触位置データを受け付ける毎に、この接触位置データと直前に受け付けた接触位置データとを比較して、指32の移動方向を特定する。そして、指32の移動方向が上下方向(Y軸方向)であることが特定された場合は、処理実行部28は、受け付けた接触位置データに基づいて強調表示の対象となる選択肢42を特定する。そして、処理実行部28は、その選択肢42を強調表示するようメニュー画像40を更新する。図5Cの例では、文字列「中断」に対応する選択肢42が強調表示されている。このようにして、ユーザがディスプレイ12aの右側の縁に沿った指32のスライド操作を行う(例えば、Y軸方向に沿った指32のスライド操作を行う)と、強調表示の対象となる選択肢42が変化することとなる。このように、処理実行部28が、ディスプレイ12aの表示面の縁部に沿う方向の物体の移動に対応する検出結果がタッチセンサ12bにより検出される場合に、その検出結果に応じて強調表示される選択肢42を変化させるようにしてもよい。
 そして、ユーザが、ディスプレイ12aの右側の縁部から中央部に向かう指32のスライド操作を行い(例えば、X軸方向に沿った左方向の指32のスライド操作を行い)、検出結果受付部26が、この操作に対応する一連の接触位置データを受け付けると、処理実行部28は、指32の移動方向が左右方向(X軸方向)であることを特定する。この場合は、処理実行部28は、強調表示されている選択肢42に応じた処理を実行する。図5Cの例では、処理実行部28は、中断処理を実行する。
 第2の利用例では、ユーザが、ディスプレイ12aの縁に沿った指32のスライド操作を行う際に、例えば、ディスプレイ12aの縁ぎりぎりまで選択肢42が表示されており、ユーザの指32によって、選択肢42が隠れてしまうような状況において、指32がディスプレイ12aの外側にはみだしたとしても、タッチセンサ12bが外側領域16にも設けられているので、指32の位置の検出を行うことが可能となる。このようにして、第2の利用例では、ユーザによるタッチ操作の操作性を保ちつつ、ディスプレイ12aの表示面を有効に活用することができる。
 なお、第2の利用例において、処理実行部28は、検出結果受付部26が受け付ける接触位置データに対応する位置からの距離に基づいて特定される選択肢42(例えば、検出結果受付部26が受け付ける接触位置データに対応する位置からの距離が所定の範囲内である選択肢42)を強調表示するようにしてもよい。また、ユーザが、ディスプレイ12aの右側の縁部から中央部から離れる方向の指32のスライド操作を行った際に、処理実行部28が、このタイミングに強調表示されていた選択肢42に応じた処理を実行するようにしてもよい。また、第2の利用例において、メニュー画像40に含まれるクローズアイコン46をユーザが指32でタッチした際に、処理実行部28が、メニュー画像40を消去するようディスプレイ12aの表示内容を更新するようにしてもよい。また、第2の実施例におけるメニュー画像40内の選択肢42の配置や形状等は上述の例には限定されない。例えば、選択肢42はアイコンなどの画像であってもよい。また、第2の利用例を、例えば、ミュージックプレイヤやフォトビューワなどにおける、操作パネルに応用してもよい。この場合は、各選択肢42は、例えば、ミュージックプレイヤやフォトビューワなどにおける操作に対応する文字列やアイコンである。また、第2の利用例を、例えば、各種設定を行うためのコントロールパネルに応用してもよい。この場合は、各選択肢42は、例えば、設定項目に対応する文字列やアイコンである。また、第2の利用例において、処理実行部28が、ユーザの利用頻度が高いメニュー項目をメニュー画像40内の選択肢42として表示出力するようにしてもよい。
[第3の利用例]
 図6は、携帯型ゲーム機1の第3の利用例を示す図である。第3の利用例では、初期状態では、例えば、図5Aと同様のゲーム画面30がディスプレイ12aに表示されている。そして、ユーザが指32などによりゲーム画面30をタッチすると、処理実行部28は、タッチされた位置に応じたゲームに関する処理を実行する。
 そして、ユーザがディスプレイ12aに対して右側の外側領域16を指32でタッチして、指32を内側領域14に至るまで左へスライドさせる操作を行うと、検出結果受付部26が、この操作に対応する一連の接触位置データを受け付ける。すると、処理実行部28は、この接触位置データに基づいて、図6に示すように、ゲーム画面30を左に移動させ、ディスプレイ12aの右側の領域に携帯型ゲーム機1のシステム設定画面48を表示する。そして、ユーザが指32などによりシステム設定画面48をタッチすると、処理実行部28は、タッチされた位置に応じた、携帯型ゲーム機1のシステムの設定に関する処理を実行する。
 このようにして、第3の利用例によれば、現在実行されているアプリケーションプログラムなどのプログラムの画面をどかせて、他のプログラム(例えば、オペレーションシステムのプログラムなど)の画面を表示させるような演出効果を実現することができる。
[第4の利用例]
 図7は、携帯型ゲーム機1の第4の利用例を示す図である。図7に示す携帯型ゲーム機1では、ディスプレイ12aに複数のアイコン50を含むアイコン表示画面52が表示されている。
 そして、ユーザがいずれかのアイコン50を指32でタッチして、内側領域14内に指32を移動させると、処理実行部28は、タッチされたアイコン50を指32の移動先の位置に移動(ドラッグアンドドロップ)させる。
 また、ユーザが、いずれかのアイコン50を指32でタッチして、ディスプレイ12aの右側の外側領域16に指32を移動させると、処理実行部28は、アイコン表示画面52自体を左へスクロールさせる。ここで、ユーザが、指32を内側領域14に移動させると、処理実行部28は、アイコン表示画面52のスクロールを止める。
 このように、第4の利用例では、処理実行部28は、タッチセンサ12bにより検出される位置の履歴に内側領域14内の位置に対応する位置と外側領域16内の位置に対応する位置との両方が含まれる場合と、タッチセンサ12bにより検出される位置の履歴に内側領域14内の位置に対応する位置のみが含まれる場合と、で異なる処理を実行する。
 第4の利用例によれば、外側領域16にタッチセンサ12bが設けられていることにより、タッチセンサ12bは、内側領域14内で指32を移動させた場合と、内側領域14から外側領域16へ指32を移動させた場合とで、互いに異なる検出結果を出力することとなる。そのため、処理実行部28は、内側領域14内で指32を移動させた場合と、内側領域14から外側領域16へ指32を移動させた場合とで、異なる処理を実行することが可能となる。
 そして、上述の例では、アイコン表示画面52のスクロール操作をユーザが行いたい場合にユーザが指32をタッチすべき位置をディスプレイ12a内に設ける必要がないので、ディスプレイ12aの表示領域を従来よりも有効に活用することができる。
 なお、第4の利用例において、ユーザが、いずれかのアイコン50を指32でタッチして、ディスプレイ12aの右側の外側領域16に指32を移動させると、処理実行部28は、ディスプレイ12aのサイズに対応するページ単位で、アイコン表示画面52自体を左へスクロールさせるようにしてもよい。
[第1の応用例]
 ここでは、本実施形態を携帯電話などの携帯情報端末54に応用した応用例について説明する。図8は、本実施形態の第1の応用例を示す図である。図8に示す携帯情報端末54では、ディスプレイ12aの右側にインデックス情報56が縦方向に一列に並んで配置されている。そして、ディスプレイ12aの右側の外側領域16にマーク58が縦方向に一列に並んで配置されている。本応用例では、インデックス情報56(例えば、文字)とマーク58とは一対一で対応しており、対応するインデックス情報56とマーク58とは横に並んで配置されている。また、図8に示す携帯情報端末54の記憶部には、予め、人の名前や電話番号などを含んで構成される個人情報が複数登録されている。
 そして、ユーザがディスプレイ12aの右側の外側領域16内の位置を指32でタッチすると、処理実行部28は、その位置に最も近いインデックス情報56を強調表示するとともに、強調表示されたインデックス情報56に対応する情報(例えば、強調表示されたアルファベットが名字の頭文字に対応する、携帯情報端末54に登録されている個人情報の一覧など)をディスプレイ12aに表示する。
 そして、ユーザが指32をマーク58が並べられている方向に沿ってスライドさせる操作を行うと、処理実行部28は、その操作に応じて、指32の位置に最も近いインデックス情報56が強調表示されるようディスプレイ12aに表示される内容を変化させる。
 本応用例によれば、ユーザはディスプレイ12aの画面の外でインデックス情報56の選択操作を行うことができるので、ディスプレイ12aの縁付近の領域までインデックス情報56の表示に利用することができる。
 なお、本応用例において、ユーザが外側領域16内の位置を指32でタッチした後で、指32をタッチセンサ12bから離して、再度ユーザが指32をタッチセンサ12bに接触させた際に、処理実行部28が、そのタッチされた位置に最も近いインデックス情報56を強調表示するとともに、強調表示されたインデックス情報56に対応する情報をディスプレイ12aに表示するようディスプレイ12aの表示内容を更新するようにしてもよい。また、本応用例において、ディスプレイ12aの右側の外側領域16にマーク58が配置されていなくてもよい。
[第2の応用例]
 ここでは、本実施形態を動画像再生機能が付いた携帯情報端末54に応用した応用例について説明する。
 図9A、図9B及び図9Cは、携帯情報端末54の第2の応用例を示す図である。図9Aに示す携帯情報端末54では、図9Aに示す画面の下辺には、ディスプレイ12aの縁に沿って横方向に延伸する帯状のインジケータ画像34が配置されている。そして、ユーザがインジケータ画像34を指32でタッチして、ディスプレイ12aの下側の縁部から中央部に向かう指32のスライド操作を行うと、処理実行部28は、図9Bに示すように、第1段階部分の操作パネル画像36をディスプレイ12aに表示出力する。本応用例では、処理実行部28は、例えば、インジケータ画像34が縦方向に伸びて操作パネル画像36となるようディスプレイ12aの表示内容を変化させる。そして、ユーザが指32をディスプレイ12aから離さずにさらに中央部にスライドさせると、図9Cに示すように、第1段階部分の下側に第2段階部分が配置された操作パネル画像36をディスプレイ12aに表示出力する。そして、ユーザが指32をディスプレイ12aから離すと、処理実行部28は、操作パネル画像36がディスプレイ12aから消えるようディスプレイ12aを表示制御する。
 なお、この応用例において、インジケータ画像34がタッチされたことを検出結果受付部26が受け付けた際に、処理実行部28が、該インジケータ画像34が配されたディスプレイ12aの一端から操作パネル画像36が現れるよう遷移表示させてもよい。また、この応用例において、例えば、処理実行部28は、1度のスライド操作に応じて第1段階部分の操作パネル画像36をディスプレイ12aに表示出力して、同様のスライド操作を再度受け付けた際に、第1段階部分の操作パネル画像36をディスプレイ12aに表示出力するようにしてもよい。また、処理実行部28は、スライド操作における指32の移動量(あるいは、移動速度)に応じて、第1段階部分の操作パネル画像36をディスプレイ12aに表示出力するか、第2段階部分の操作パネル画像36までディスプレイ12aに表示出力するかを制御するようにしてもよい。
 第1段階部分の操作パネル画像36として表示される内容と、第2段階部分の操作パネル画像36として表示される内容とは、機能ボタンは予め定められた優先順位に基づいて分けられていてもよい。図9A、図9B及び図9Cでは、動画像コンテンツの再生中における操作例を示しており、第1段階部分の操作パネル画像36として表示される内容も、第2段階部分の操作パネル画像36として表示される内容も、動画再生に関連するものとなっている。そして、この応用例では、第1段階部分には、現在のチャプタ、経過時間、タイムラインなどの現在の動画像再生状況を表す情報が表れ、第2段階部分には、一時停止、再生、停止、早送り、早戻し、リピート、ヘルプなどの機能ボタンが表れる。なお、この応用例の携帯情報端末54が、ユーザから受け付ける設定操作に応じて、第1段階部分及び第2段階部分に表示される内容や機能ボタンの設定を変更してもよい。
 また、ユーザが操作パネル画像36の右上に表示出力されるバツ印のボタンをタッチした際に、処理実行部28が、操作パネル画像36がディスプレイ12aから消えるようディスプレイ12aを表示制御するようにしてもよい。また、ユーザが操作パネル画像36の外の領域をタッチした際に、処理実行部28が、操作パネル画像36がディスプレイ12aから消えるようディスプレイ12aを表示制御するようにしてもよい。また、ユーザが、操作パネル画像36が表示出力されていく向きとは逆の向きに指32のスライド操作を行った際に、処理実行部28が、操作パネル画像36がディスプレイ12aから消えるようディスプレイ12aを表示制御するようにしてもよい。ここで、処理実行部28は、スライド操作における指32の移動量(あるいは、移動速度)に応じて、第2段階部分、第1段階部分の順に、操作パネル画像36が段階的にディスプレイ12aから消えるようディスプレイ12aを表示制御するようにしてもよい。
 また、操作パネル画像36がディスプレイ12aに表示出力される際のユーザのスライド操作は、上述の操作に限定されない。処理実行部28は、例えば、ディスプレイ12aの外に設けられたボタンの操作や、インジケータ画像34の外での、ディスプレイ12aの下側の縁部から中央部に向かう指32のスライド操作や、ディスプレイ12の外のタッチセンサ領域からディスプレイ12内へのスライド操作、などに応じて、操作パネル画像36をディスプレイ12aに表示出力するようにしてもよい。
 なお、本発明は上述の実施形態や利用例や応用例に限定されるものではない。もちろん、情報処理システムにおいて、上述の実施形態や利用例や応用例に挙げた機能のいくつかを組み合わせても構わない。例えば、上述の第1の利用例と第2の利用例とを組み合わせることで以下のような操作が可能となる。まず、ディスプレイ12aの右側の外側領域16から左に向かって内側領域14までユーザが指32をスライドさせたことに応じて、処理実行部28が、図5Aに例示する、メニュー画像40をディスプレイ12a内に表示するようにしてもよい。そして、ユーザがそのまま指32を離さずに、指32を上下させることに応じて、処理実行部28が、検出結果受付部26が受け付ける接触位置データに対応する位置からの距離が最短である選択肢42を強調表示するようにしてもよい。そして、ユーザがそのまま指32を離さずに、さらに左に指32をスライドさせることで、処理実行部28が、強調表示されている選択肢42に応じた処理を実行するようにしてもよい。こうすれば、ユーザは、メニュー画像40の表示と選択肢42の選択を指32をディスプレイ12aから離さずに一連の操作として行うことができる。
 例えば、処理実行部28が、ユーザによるタッチセンサ12bの検出面に対するスライド操作に応じて、検出結果受付部26が順次受け付けた各接触位置データが示す位置を補間することにより特定される直線や曲線をディスプレイ12aの表示面に表示する処理を実行するようにしてもよい。ここで、処理実行部28が、外側領域16内の位置に対応する接触位置データが示す位置を補完することにより特定される線をディスプレイ12aの表示面に表示するようにしてもよい。
 また、タッチセンサ12bは、物体の接触位置及び押圧の強さを検出してもよい。また、タッチセンサ12bは、必ずしも物体が検出面に接触した場合だけ物体の位置を検出するのではなく、検出面上の検出可能範囲内まで物体が近接した場合に、当該物体の検出面に対する位置を検出してもよい。また、タッチセンサ12bがディスプレイ12aからはみ出している幅が、ディスプレイ12aの各辺について異なっていてもよい。また、ディスプレイ12aのすべての辺についてタッチセンサ12bがディスプレイ12aからはみ出していなくてもよい。また、タッチセンサ12bがディスプレイ12a内の表示面の全領域を覆っていなくてもよい。また、ディスプレイ12aがタッチセンサ12bよりも筐体10側に配置されていても、タッチセンサ12bがディスプレイ12aよりも筐体10側に配置されていてもよい。
 また、本実施形態を携帯型ゲーム機1以外の情報処理システムに対して応用してもよい。具体的には、例えば、タッチパネル12を含んで構成される操作入力装置と、検出結果受付部26及び処理実行部28として機能する情報処理装置とが別の筐体であり、操作入力装置と情報処理装置とがケーブルなどにより接続されている情報処理システムに対して本実施形態を応用してもよい。

Claims (22)

  1.  表示部と、
     前記表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、
     前記内側領域内の位置に対応する前記タッチセンサにより検出される位置と、前記外側領域内の位置に対応する前記タッチセンサにより検出される位置と、に基づく処理を実行する処理実行手段と、
     を含むことを特徴とする情報処理システム。
  2.  前記タッチセンサが、前記物体の位置を順次検出し、
     前記処理実行手段が、前記タッチセンサにより検出される位置の履歴に基づく処理を実行する、
     ことを特徴とする請求項1に記載の情報処理システム。
  3.  前記処理実行手段が、前記タッチセンサにより検出される位置の履歴に前記内側領域内の位置に対応する位置と前記外側領域内の位置に対応する位置との両方が含まれる場合と、前記タッチセンサにより検出される位置の履歴に前記内側領域内の位置に対応する位置のみが含まれる場合と、で異なる処理を実行する、
     ことを特徴とする請求項2に記載の情報処理システム。
  4.  前記処理実行手段が、前記タッチセンサにより、前記内側領域内の位置又は前記外側領域内の位置の一方に対応する位置が検出された後に、他方に対応する位置が検出された際に、所定の処理を実行する、
     ことを特徴とする請求項2に記載の情報処理システム。
  5.  前記処理実行手段が、前記タッチセンサにより検出される位置に基づいて特定される前記表示部内の位置に情報を表示する処理を実行する、
     ことを特徴とする請求項1に記載の情報処理システム。
  6.  表示部と、
     前記表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、を含み、
     前記タッチセンサが、前記内側領域内の位置に対応する前記タッチセンサにより検出される位置と、前記外側領域内の位置に対応する前記タッチセンサにより検出される位置と、に基づく処理を実行する処理実行手段に、前記タッチセンサによる検出結果に対応するデータを出力する、
     ことを特徴とする操作入力装置。
  7.  表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行手段、
     を含むことを特徴とする情報処理装置。
  8.  表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行ステップ、
     を含むことを特徴とする情報処理方法。
  9.  表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行手段、
     としてコンピュータを機能させることを特徴とするプログラム。
  10.  表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行手段、
     としてコンピュータを機能させることを特徴とするプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
  11.  表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行手段と、
     前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択処理実行手段と、
     を含むことを特徴とする情報処理装置。
  12.  前記選択処理実行手段が、前記表示面の中央部と、前記複数の選択肢が並んで表示されている前記表示面の縁部と、を結ぶ方向に沿う、前記タッチセンサにより位置が検出される物体の移動に対応する検出結果が前記タッチセンサにより検出される場合に、前記選択肢と前記物体の位置との間の距離に基づいて特定される、前記表示面に表示されている複数の選択肢のうちの少なくとも1つに基づく処理を実行する、
     ことを特徴とする請求項11に記載の情報処理装置。
  13.  前記表示処理実行手段が、前記タッチセンサにより前記表示面の縁部に対応する位置が検出される際に、当該表示面の縁部に沿って複数の選択肢を並べて表示する、
     ことを特徴とする請求項11に記載の情報処理装置。
  14.  前記表示処理実行手段が、前記タッチセンサにより検出される位置と、前記選択肢が表示されている位置と、の関係に基づいて特定される選択肢を、他の選択肢とは異なる態様で前記表示部に表示する、
     ことを特徴とする請求項11に記載の情報処理装置。
  15.  前記表示処理実行手段が、前記複数の選択肢が並んで表示されている前記表示面の縁部に沿う方向の、ユーザによる物体の移動に対応する検出結果が前記タッチセンサにより検出される場合に、当該検出結果に応じて他の選択肢とは異なる態様で表示される選択肢を変化させる、
     ことを特徴とする請求項14に記載の情報処理装置。
  16.  前記表示処理実行手段が、前記タッチセンサにより前記表示面の縁部に対応する位置が検出される際に、当該表示面の縁部に沿って複数の選択肢を並べて表示し、
     前記表示処理実行手段が、前記表示部に前記複数の選択肢が並んで表示された後に、前記タッチセンサにより検出される位置と、前記選択肢が表示されている位置と、の関係に基づいて特定される選択肢を、他の選択肢とは異なる態様で前記表示部に表示し、
     前記選択処理実行手段が、前記表示面の中央部と、前記複数の選択肢が並んで表示されている前記表示面の縁部と、を結ぶ方向に沿う、ユーザによる物体の移動に対応する検出結果が前記タッチセンサにより検出される場合に、他の選択肢とは異なる態様で表示されている選択肢に基づく処理を実行する、
     ことを特徴とする請求項11に記載の情報処理装置。
  17.  前記選択肢は、プログラムに対応するアイコンであり、
     前記選択処理実行手段は、特定された選択肢に対応するプログラムを起動する処理を実行する、
     ことを特徴とする請求項11に記載の情報処理装置。
  18.  表示部と、
     前記表示部の表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、を含み、
     前記タッチセンサが、前記表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行手段と、前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択処理実行手段と、を含む情報処理装置に、検出結果を示すデータを出力する、
     ことを特徴とする操作入力装置。
  19.  表示部と、
     前記表示部の表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、
     前記表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行手段と、
     前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択処理実行手段と、
     を含むことを特徴とする情報処理システム。
  20.  表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行ステップと、
     前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択処理実行ステップと、
     を含むことを特徴とする情報処理方法。
  21.  表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行手段、
     前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択処理実行手段、
     としてコンピュータを機能させることを特徴とするプログラム。
  22.  表示部の表示面の縁部に沿って複数の選択肢を並べて表示する表示処理実行手段、
     前記表示面内の少なくとも一部の領域である内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される位置に基づいて特定される、前記複数の選択肢のうちの少なくとも1つに応じた処理を実行する選択処理実行手段、
     としてコンピュータを機能させることを特徴とするプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2011/050443 2010-04-09 2011-01-13 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体 WO2011125352A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP11765254.5A EP2557484B1 (en) 2010-04-09 2011-01-13 Information processing system, operation input device, information processing device, information processing method, program and information storage medium
CN201180028059.6A CN102934067B (zh) 2010-04-09 2011-01-13 信息处理系统、操作输入装置、信息处理装置、信息处理方法
US13/639,612 US20130088450A1 (en) 2010-04-09 2011-01-13 Information processing system, operation input device, information processing device, information processing method, program, and information storage medium
KR1020127029104A KR101455690B1 (ko) 2010-04-09 2011-01-13 정보처리 시스템, 조작입력장치, 정보처리장치, 정보처리방법, 프로그램 및 정보기억매체

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010-090931 2010-04-09
JP2010090932A JP5653062B2 (ja) 2010-04-09 2010-04-09 情報処理装置、操作入力装置、情報処理システム、情報処理方法、プログラム及び情報記憶媒体
JP2010090931A JP5529616B2 (ja) 2010-04-09 2010-04-09 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP2010-090932 2010-04-09

Publications (1)

Publication Number Publication Date
WO2011125352A1 true WO2011125352A1 (ja) 2011-10-13

Family

ID=44762319

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/050443 WO2011125352A1 (ja) 2010-04-09 2011-01-13 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体

Country Status (5)

Country Link
US (1) US20130088450A1 (ja)
EP (1) EP2557484B1 (ja)
KR (1) KR101455690B1 (ja)
CN (1) CN102934067B (ja)
WO (1) WO2011125352A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013170233A1 (en) * 2012-05-11 2013-11-14 Perceptive Pixel Inc. Overscan display device and method of using the same
EP2930594A4 (en) * 2012-12-06 2016-07-13 Nippon Electric Glass Co DISPLAY DEVICE

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140223381A1 (en) * 2011-05-23 2014-08-07 Microsoft Corporation Invisible control
WO2012167735A1 (zh) * 2011-06-07 2012-12-13 联想(北京)有限公司 电子设备、触摸输入方法和控制方法
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
KR101924835B1 (ko) * 2011-10-10 2018-12-05 삼성전자주식회사 터치 디바이스의 기능 운용 방법 및 장치
US20130167059A1 (en) * 2011-12-21 2013-06-27 New Commerce Solutions Inc. User interface for displaying and refining search results
US10248278B2 (en) * 2011-12-30 2019-04-02 Nokia Technologies Oy Method and apparatus for intuitive multitasking
EP2735955B1 (en) * 2012-11-21 2018-08-15 Océ-Technologies B.V. Method and system for selecting a digital object on a user interface screen
CN110413175A (zh) * 2013-07-12 2019-11-05 索尼公司 信息处理装置、信息处理方法和非暂态计算机可读介质
US10451874B2 (en) 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
JP6334125B2 (ja) * 2013-10-11 2018-05-30 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
USD749117S1 (en) * 2013-11-25 2016-02-09 Tencent Technology (Shenzhen) Company Limited Graphical user interface for a portion of a display screen
USD733745S1 (en) * 2013-11-25 2015-07-07 Tencent Technology (Shenzhen) Company Limited Portion of a display screen with graphical user interface
CN108733302B (zh) * 2014-03-27 2020-11-06 原相科技股份有限公司 手势触发方法
KR20160098752A (ko) * 2015-02-11 2016-08-19 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법 및 컴퓨터 판독가능 기록매체
KR20160117098A (ko) * 2015-03-31 2016-10-10 삼성전자주식회사 전자 장치 및 그 디스플레이 방법
CN106325726B (zh) * 2015-06-30 2019-12-13 中强光电股份有限公司 触控互动方法
KR102481878B1 (ko) * 2015-10-12 2022-12-28 삼성전자주식회사 휴대 장치 및 휴대 장치의 화면 표시방법
US20170195736A1 (en) * 2015-12-31 2017-07-06 Opentv, Inc. Systems and methods for enabling transitions between items of content
WO2019073546A1 (ja) * 2017-10-11 2019-04-18 三菱電機株式会社 操作入力装置、情報処理システムおよび操作判定方法
US11409430B2 (en) * 2018-11-02 2022-08-09 Benjamin Firooz Ghassabian Screen stabilizer
JP7212071B2 (ja) * 2019-01-24 2023-01-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理装置の制御方法、及びプログラム
US10908811B1 (en) * 2019-12-17 2021-02-02 Dell Products, L.P. System and method for improving a graphical menu

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087673A (ja) 2001-09-06 2003-03-20 Sony Corp 映像表示装置
JP2005321964A (ja) * 2004-05-07 2005-11-17 Pentax Corp タッチパネル付き入力装置
JP2008532185A (ja) * 2005-03-04 2008-08-14 アップル インコーポレイテッド マルチタッチセンシングデバイスを持つハンドヘルド電子装置
JP2009042993A (ja) * 2007-08-08 2009-02-26 Hitachi Ltd 画面表示装置
JP2010049679A (ja) * 2008-08-22 2010-03-04 Fuji Xerox Co Ltd 情報処理装置、情報処理方法、およびコンピュータプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0452723A (ja) * 1990-06-14 1992-02-20 Sony Corp 座標データ入力装置
JP4686870B2 (ja) * 2001-02-28 2011-05-25 ソニー株式会社 携帯型情報端末装置、情報処理方法、プログラム記録媒体及びプログラム
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
CN101133385B (zh) * 2005-03-04 2014-05-07 苹果公司 手持电子设备、手持设备及其操作方法
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
JP2008204402A (ja) * 2007-02-22 2008-09-04 Eastman Kodak Co ユーザインターフェース装置
TWI417764B (zh) * 2007-10-01 2013-12-01 Giga Byte Comm Inc A control method and a device for performing a switching function of a touch screen of a hand-held electronic device
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
KR20100078295A (ko) * 2008-12-30 2010-07-08 삼성전자주식회사 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치
US9965165B2 (en) * 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9310994B2 (en) * 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087673A (ja) 2001-09-06 2003-03-20 Sony Corp 映像表示装置
JP2005321964A (ja) * 2004-05-07 2005-11-17 Pentax Corp タッチパネル付き入力装置
JP2008532185A (ja) * 2005-03-04 2008-08-14 アップル インコーポレイテッド マルチタッチセンシングデバイスを持つハンドヘルド電子装置
JP2009042993A (ja) * 2007-08-08 2009-02-26 Hitachi Ltd 画面表示装置
JP2010049679A (ja) * 2008-08-22 2010-03-04 Fuji Xerox Co Ltd 情報処理装置、情報処理方法、およびコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2557484A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013170233A1 (en) * 2012-05-11 2013-11-14 Perceptive Pixel Inc. Overscan display device and method of using the same
US9098192B2 (en) 2012-05-11 2015-08-04 Perceptive Pixel, Inc. Overscan display device and method of using the same
EP2930594A4 (en) * 2012-12-06 2016-07-13 Nippon Electric Glass Co DISPLAY DEVICE
TWI578199B (zh) * 2012-12-06 2017-04-11 Nippon Electric Glass Co Display device

Also Published As

Publication number Publication date
EP2557484A1 (en) 2013-02-13
CN102934067A (zh) 2013-02-13
CN102934067B (zh) 2016-07-13
EP2557484B1 (en) 2017-12-06
EP2557484A4 (en) 2015-12-02
KR20130005300A (ko) 2013-01-15
KR101455690B1 (ko) 2014-11-03
US20130088450A1 (en) 2013-04-11

Similar Documents

Publication Publication Date Title
JP5529616B2 (ja) 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体
WO2011125352A1 (ja) 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
JP5708644B2 (ja) 情報処理端末およびその制御方法
KR101224588B1 (ko) 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기
US20110138275A1 (en) Method for selecting functional icons on touch screen
US11435870B2 (en) Input/output controller and input/output control program
JP2013526171A (ja) 補助キーのストリップをもつ仮想キーボード
KR20070062911A (ko) 터치 및 드래그를 이용하여 제어 가능한 모바일 장치 및 그조작 방법
JP2006148510A (ja) 画像処理装置および画像処理プログラム
JP5780438B2 (ja) 電子機器、位置指定方法及びプログラム
US9733667B2 (en) Information processing device, information processing method and recording medium
KR20110085189A (ko) 터치패널을 갖는 개인휴대단말기의 작동방법
WO2012160829A1 (ja) タッチスクリーン装置、タッチ操作入力方法及びプログラム
JP5653062B2 (ja) 情報処理装置、操作入力装置、情報処理システム、情報処理方法、プログラム及び情報記憶媒体
JP6217633B2 (ja) 携帯端末装置、携帯端末装置の制御方法、及びプログラム
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
JP2017140342A (ja) ユーザインターフェースプログラム、当該プログラムを備えたゲームプログラム及び制御方法
US20150309601A1 (en) Touch input system and input control method
JP6267418B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
KR20120095155A (ko) 터치패널을 갖는 개인휴대단말기의 작동방법
KR20120094728A (ko) 유저인터페이스 제공 방법 및 이를 이용한 휴대 단말기
KR20140020570A (ko) 터치패널을 갖는 개인휴대단말기의 작동방법
JP2014067146A (ja) 電子機器
KR20110084042A (ko) 터치패널 작동방법 및 터치패널 구동칩

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180028059.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11765254

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13639612

Country of ref document: US

Ref document number: 2011765254

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20127029104

Country of ref document: KR

Kind code of ref document: A