WO2013065214A1 - 入力制御装置、入力制御方法、及び入力制御プログラム - Google Patents

入力制御装置、入力制御方法、及び入力制御プログラム Download PDF

Info

Publication number
WO2013065214A1
WO2013065214A1 PCT/JP2012/004695 JP2012004695W WO2013065214A1 WO 2013065214 A1 WO2013065214 A1 WO 2013065214A1 JP 2012004695 W JP2012004695 W JP 2012004695W WO 2013065214 A1 WO2013065214 A1 WO 2013065214A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
touch panel
input
display target
target
Prior art date
Application number
PCT/JP2012/004695
Other languages
English (en)
French (fr)
Inventor
寛志 森田
勇二 竹内
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to US14/351,707 priority Critical patent/US9433857B2/en
Priority to EP12846303.1A priority patent/EP2752745A4/en
Priority to CN201280052047.1A priority patent/CN103890703A/zh
Publication of WO2013065214A1 publication Critical patent/WO2013065214A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/95Storage media specially adapted for storing game information, e.g. video game cartridges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Definitions

  • the present invention relates to an input control technique, and more particularly, to an input control device, an input control method, and an input control program for receiving an input for operating a display target displayed on a display device and operating the display target.
  • Smartphones and portable game devices with touch panels are widely used, and many users have become familiar with basic input operations on touch panels such as tap input, flick input, swipe input, drag input, and pinch input. .
  • the present invention has been made in view of these circumstances, and an object thereof is to provide a more convenient input control technique.
  • An aspect of the present invention relates to an input control program.
  • the input control program displays a computer on a display control unit that displays a display target on a display screen of a display device, a touch panel provided in the display screen of the display device, and a surface opposite to the display screen of the display device.
  • An acquisition unit that acquires a position or direction of an operation input with respect to the display target from the provided rear touch panel, and a position or direction of the operation input when the acquisition unit acquires an operation input with respect to the display target from the rear touch panel.
  • a determination unit that determines a direction in which the display target is operated according to the type of display target that is an operation target, and an operation control unit that operates the display target in the direction determined by the determination unit. Make it work.
  • FIGS. 7A and 7B are diagrams showing examples of screens when scrolling a home page.
  • FIGS. 8A and 8B are diagrams showing examples of screens when scrolling the rotating drum.
  • FIGS. 9A and 9B are diagrams showing examples of screens when scrolling the rotating drum.
  • FIGS. 10A and 10B are diagrams showing examples of screens when scrolling the rotating drum.
  • FIGS. 11A and 11B are diagrams showing examples of screens when scrolling the rotating drum.
  • FIGS. 12A and 12B are diagrams showing examples of screens when scrolling the rotating drum.
  • FIGS. 13A and 13B are diagrams showing examples of screens when rotating a three-dimensional object.
  • FIGS. 14A and 14B are diagrams illustrating examples of screens when a three-dimensional object is rotated.
  • FIGS. 15A and 15B are diagrams showing examples of screens when a three-dimensional object is rotated.
  • FIGS. 16A and 16B are diagrams showing examples of screens when rotating a three-dimensional object.
  • FIGS. 17A and 17B are diagrams showing examples of screens when scrolling the circulation list.
  • FIGS. 18A and 18B are diagrams showing examples of screens when scrolling the circulation list.
  • FIGS. 19A and 19B are diagrams showing examples of screens when scrolling the circulation list.
  • FIG. 20 is a flowchart illustrating a procedure of the input control method according to the embodiment.
  • FIG. 21 is a flowchart illustrating a procedure of the input control method according to the embodiment.
  • 22A and 22B are diagrams showing examples of screens when moving a three-dimensional object.
  • FIGS. 23A and 23B are diagrams illustrating examples of screens when a three-dimensional object is rotated.
  • FIGS. 24A and 24B are diagrams illustrating examples of screens when a display target is switched by tap input.
  • FIGS. 25A and 25B are diagrams illustrating examples of screens when the display target is switched by tap input.
  • FIGS. 26A and 26B are diagrams illustrating examples of screens when a display target is switched by a tap input.
  • FIGS. 27A and 27B are diagrams illustrating examples of screens when a display target is switched by tap input.
  • FIGS. 28A and 28B are diagrams illustrating examples of screens when a display target is switched by tap input.
  • FIGS. 29A and 29B are diagrams illustrating examples of screens when a display target is switched by tap input.
  • FIGS. 30A and 30B are diagrams illustrating an example of a screen when a display target is switched by a tap input.
  • FIGS. 31A and 31B are diagrams illustrating an example of a screen when a display target is switched by a tap input.
  • FIGS. 32A and 32B are diagrams illustrating examples of screens when a display target is switched by tap input.
  • FIGS. 33A and 33B are diagrams illustrating examples of screens when a display target is switched by tap input.
  • FIGS. 34 (a) and 34 (b) are diagrams showing examples of screens when a display target is switched by tap input.
  • FIGS. 35A and 35B are diagrams illustrating examples of screens when the display target is switched by tap input.
  • FIGS. 36A and 36B are diagrams illustrating examples of screens when a display target is switched by tap input.
  • FIGS. 37A and 37B are diagrams illustrating an example of a screen when the display target is switched by a tap input.
  • FIGS. 38A and 38B are diagrams illustrating examples of screens when a display target is switched by tap input.
  • the input control device includes a touch panel provided on the display screen of the display device and a back touch panel disposed on the opposite surface of the display screen, and inputs to the touch panel, the back touch panel, and the like. Accordingly, the movement or rotation of the display target displayed on the display device is controlled. If the display target cannot be thought of rotating around a virtual axis parallel to the display screen, the input control device shows the relationship between the input direction to the rear touch panel and the operation direction, and the input direction to the touch panel and the operation direction. If the rotation around the virtual axis can be thought of, the relationship between the input direction and the operation direction on the rear touch panel is opposite to the relationship between the input direction and the operation direction on the touch panel. .
  • a game device will be described as an example of the input control device.
  • a game device 10 shown in FIGS. 1 and 2 is a portable game device that is held and used by a player.
  • a direction key 21, a button 22, a left analog stick 23, a right analog are provided on the front side of the game apparatus 10, that is, the side facing the player when the player holds and operates the game apparatus 10.
  • An input device 65 such as a stick 24, a left button 25, and a right button 26, a display device 60, and a front camera 68a are provided.
  • the display device 60 is provided with a touch panel 61 for detecting contact with a player's finger or stylus pen.
  • the button 22 includes a circle button 31, a triangle button 32, a square button 33, and a cross button 34.
  • a rear touch panel 51 and a rear camera 68b are provided on the back side of the game apparatus 10.
  • a display device may be provided on the back side of the game apparatus 10 similarly to the front side, in the present embodiment, only the back touch panel 51 is provided on the back side of the game apparatus 10 without providing a display device.
  • the player While holding the game apparatus 10 with both hands, for example, the player operates the button 22 with the thumb of the right hand, operates the direction key 21 with the thumb of the left hand, operates the right button 26 with the index finger of the right hand or the middle finger, and
  • the left button 25 can be operated with the middle finger
  • the touch panel 61 can be operated with the thumbs of both hands
  • the rear touch panel 51 can be operated with the ring finger or the little finger of both hands.
  • the touch panel 61 and the button 22 are operated with the stylus pen or index finger with the right hand, the direction key 21 is operated with the left thumb, and the left index finger or The left button 25 can be operated with the middle finger, and the rear touch panel 51 can be operated with the left hand ring finger or the little finger.
  • FIG. 3 shows a circuit configuration of the game apparatus 10.
  • the display device 60 displays a display screen generated by each function of the game device 10.
  • the display device 60 may be a liquid crystal display device or an organic EL display device.
  • the touch panel 61 is provided on the display device 60 so as to detect contact with a user's finger or pen.
  • the touch panel 61 may be of any system such as a resistive film system, a surface capacitive system, or a projected capacitive system.
  • the touch panel 61 outputs the coordinates of the position where the input is detected at a predetermined cycle.
  • the rear touch panel 51 may also be an arbitrary type touch panel.
  • the back touch panel 51 may include a pressure sensor that can detect pressure applied to the back touch panel 51, and calculates the input intensity based on the area, voltage value, capacitance, and the like of the area where the input is detected. May be.
  • the rear touch panel 51 outputs the coordinates of the position where the input is detected and the intensity (pressure) of the input at a predetermined cycle.
  • the LED 62 constitutes an indicator indicating the state of the game apparatus 10 and the like.
  • the motion sensor 63 detects the movement of the game apparatus 10.
  • the motion sensor 63 includes a three-axis gyro sensor and a three-axis acceleration sensor.
  • the three-axis gyro sensor detects angular velocities on the XZ plane, ZY plane, and YX plane of the game apparatus 10.
  • the three-axis gyro sensor may be a rotary or vibration type mechanical gyro sensor, or may be a fluid or optical gyro sensor.
  • the triaxial acceleration sensor has a built-in weight supported by the beam, and detects acceleration in the XYZ triaxial directions of the game apparatus 10 by detecting a change in the position of the weight due to acceleration.
  • the triaxial acceleration sensor may be a mechanical, optical, or semiconductor acceleration sensor. Since the relative angle between the direction of gravitational acceleration and the XYZ triaxial directions of the game apparatus 10 can be detected by the triaxial acceleration sensor, the attitude of the game apparatus 10 can be calculated. Further, the speed can be calculated by integrating the accelerations in the directions of the three axes, and the movement amount can be calculated by further integrating.
  • the microphone 35 inputs sound around the game apparatus 10.
  • the speaker 64 outputs sound generated by each function of the game apparatus 10.
  • the stereo input / output terminal 36 inputs stereo sound from an external microphone and outputs stereo sound to an external headphone or the like.
  • the input device 65 includes the operation keys described above and receives user operation inputs.
  • the touch panel 61, the rear touch panel 51, the LED 62, the motion sensor 63, the microphone 35, the speaker 64, the stereo input / output terminal 36, and the input device 65 exchange data with the CPU 71 and the like via the interface 66.
  • the wireless communication control unit 67 is configured by a wireless LAN (Wireless Local Area Network) conforming to a communication standard such as IEEE 802.11b / g, wirelessly communicates with an access point, etc., and communicates with other devices via the access point and the Internet. Control the communication between.
  • the camera 68 captures an image and inputs image data.
  • the mobile phone network communication control unit 69 corresponds to the third generation (3rd Generation) digital mobile phone system conforming to the IMT-2000 standard defined by the ITU (International Telecommunication Union), via the mobile phone network and the Internet. Controls communication with other devices.
  • the SIM card 70 is recorded with a unique ID number for specifying the telephone number of the mobile phone. By inserting the SIM card 70, communication with the mobile phone network becomes possible.
  • the camera 68 includes a front camera 68a configured by a CMOS image sensor (Complementary Metal Oxide Semiconductor Image Sensor) and a rear camera 68b configured similarly by a CMOS image sensor. And output as image
  • a CPU (Central Processing Unit) 71 executes a program loaded in the main memory 73 to realize each functional configuration shown in FIG.
  • a GPU (Graphics Processing Unit) 72 executes calculations necessary for image processing.
  • the main memory 73 is configured by a RAM (Random Access Memory) or the like, and stores programs, data, and the like that operate on the game apparatus 10.
  • the storage 74 is configured by a NAND-type flash memory (NAND-type flash memory) or the like, and records programs, data, and the like used by each configuration of the game apparatus 10.
  • a GPS (Global Positioning System) control unit 75 receives a signal from a GPS satellite and calculates a current position.
  • the Bluetooth control unit 76 controls wireless communication with the peripheral device 15 by Bluetooth.
  • the USB control unit 77 controls communication with the peripheral device 15 by USB.
  • the memory card control unit 78 controls reading / writing of data from / to the external medium 16.
  • the video output control unit 79 outputs a video signal to the external display device 17 based on a standard such as HDMI.
  • FIG. 4 shows a functional configuration of the game apparatus 10 according to the embodiment.
  • the game apparatus 10 includes a control unit 40, a data holding unit 86, an object table 80, and a screen generation unit 85.
  • these configurations are realized by a CPU of a computer, a memory, a program loaded in the memory, and the like, but here, functional blocks realized by their cooperation are illustrated. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the control unit 40 reads the program from the data holding unit 86 or the like in which the application program is stored. Execute.
  • the data holding unit 86 holds programs, various data files, and the like.
  • the object table 80 stores information on objects displayed on the display screen of the display device 60 by the application 42 or the like.
  • the screen generation unit 85 generates a screen such as an application controlled by the control unit 40 and causes the display device 60 to display the screen.
  • the control unit 40 includes an input acquisition unit 41, an application 42, a determination unit 43, a movement control unit 44, a rotation control unit 45, and a setting unit 46.
  • the input acquisition unit 41 acquires an input for operating a display target displayed on the display device 60 from the touch panel 61 and the rear touch panel 51.
  • the input acquisition unit 41 acquires an input for instructing a direction for operating a display target, such as a flick input, a swipe input, and a drag input.
  • the input acquisition unit 41 acquires the coordinates on the display screen at the position where the input to the touch panel 61 and the rear touch panel 51 is detected, and determines whether the input corresponds to flick input, swipe input, drag input, or the like. If applicable, the direction may be determined, or the direction of flick input, swipe input, drag input, etc. may be acquired from a device driver (not shown).
  • the application 42 provides various functions by reading a program such as a game from the data holding unit 86 and executing it.
  • the application 42 and the screen generation unit 85 function as a display control unit that displays a display target on the display screen of the display device 60.
  • the determination unit 43 receives an instruction input for operating the display target from the user via the touch panel 61 or the rear touch panel 51. With reference to 80, the direction to operate the display target is determined.
  • the movement control unit 44 controls the movement of the display target displayed on the display device 60.
  • the rotation control unit 45 controls the rotation of the display target displayed on the display device 60.
  • the movement control unit 44 and the rotation control unit 45 move or rotate the display target in the operation direction determined by the determination unit 43.
  • the setting unit 46 receives a setting related to the operation direction to be displayed from the user and registers it in the object table 80.
  • FIG. 5 shows an example of internal data of the object table 80.
  • an operation target column 81 stores the type of an object that is an operation target by an instruction input to the touch panel 61 and the rear touch panel 51.
  • the operation column 82 stores the contents of the operation executed on the object to be operated.
  • the direction column 83 has the same relationship between the direction of instruction input to the touch panel 61 and the direction when operating the operation target, and the relationship between the direction of instruction input to the rear touch panel 51 and the direction when operating the operation target. Stores information indicating whether or not.
  • the operation target is a home page and the operation content is scroll
  • the home page is scrolled in the same direction by an instruction input in the same direction to the touch panel 61 and the rear touch panel 51.
  • the rotating drum is scrolled, the rotating drum is scrolled in the opposite direction by an instruction input in the same direction to the touch panel 61 and the rear touch panel 51.
  • FIG. 6A when the homepage is displayed on the screen 100 by the application 42 for displaying the homepage, the input acquisition unit 41 has been dragged upward on the touch panel 61.
  • the movement control unit 44 scrolls the home page upward as shown in FIG. Thereby, the lower part of the homepage that was not displayed on the screen 100 before scrolling is displayed on the screen 100.
  • FIG. 7A and 7B show examples of screens when scrolling the home page.
  • the determination unit 43 stores the object table 80. Refer to and determine the direction of scrolling the home page.
  • the object table 80 when scrolling the home page, it is stored that the operation on the rear touch panel 51 should be scrolled in the same direction as the operation on the touch panel 61.
  • the movement control unit 44 scrolls the home page upward.
  • both the touch panel 61 and the rear touch panel 51 perform scroll input when scrolling upward, and scrolling downward when performing drag input downward. Can be made. Thereby, the operation environment suitable for a user's intuition can be provided.
  • FIG. 8A and 8B show examples of screens when scrolling the rotating drum.
  • a rotating drum 112a for setting the hour and a rotating drum 112b for setting the minute are displayed on the screen 110 by the application 42 for setting the time.
  • the rotating drums 112a and 112b are represented by columnar objects rotated around a virtual axis 114 parallel to the display screen of the display device 60 as shown in FIG. A part of the numerical value is displayed on the screen 110.
  • the user can scroll the numerical value displayed on the screen 110 up and down and change the set numerical value.
  • FIG. 9A and 9B show examples of screens when scrolling the rotating drum.
  • the input acquisition unit 41 moves upward at a position corresponding to the position where the rotating drum 112a of the touch panel 61 is displayed.
  • the movement control unit 44 moves the rotating drum 112a around the virtual axis 114 so that the heel moves downward and the eyelid moves downward as shown in FIG. 9B. Rotate and scroll the numerical value displayed on the rotating drum 112a upward.
  • 10 (a) and 10 (b) show examples of screens when scrolling the rotating drum.
  • the input acquisition unit 41 performs drag input at a position corresponding to the position where the rotating drum 112a of the rear touch panel 51 is displayed.
  • the determination unit 43 refers to the object table 80 and determines the direction in which the numerical value is scrolled by rotating the rotary drum 112a.
  • FIG. 8B only a part of the side surface of the cylindrical object representing the rotating drum 112a is displayed on the screen 110. However, if the scrolling is continued in the same direction, the numerical values from 0 to 23 are circulated.
  • the user can also recognize that the rotary drum 112a is represented by a cylindrical object rotated around the virtual axis. Therefore, when the user operates the rotary drum 112a with the touch panel 61, the user feels that the side surface on the near side of the cylindrical object is operated, and when the user operates the rotary drum 112a with the rear touch panel 51, the columnar object It feels like operating the side of the heel side. Therefore, as shown in FIG. 10B, when the user performs a drag input in the downward direction on the rear touch panel 51, the movement control unit 44 is opposite to the drag input in the downward direction on the touch panel 61. Scroll the rotating drum 112a upward. Thereby, the operation environment suitable for a user's intuition can be provided.
  • FIG. 11A and 11 (b) show examples of screens when scrolling the rotating drum.
  • the input acquisition unit 41 moves downward at a position corresponding to the position where the rotating drum 112 a of the touch panel 61 is displayed.
  • the movement control unit 44 moves the rotating drum 112a around the virtual axis 114 so that the heel moves downward and the eyelid moves upward as shown in FIG. 11B. Rotate and scroll the numerical value displayed on the rotating drum 112a downward.
  • FIG. 12A shows examples of screens when scrolling the rotating drum.
  • the input acquisition unit 41 moves downward in a position corresponding to the position where the rotating drum 112 a of the rear touch panel 51 is displayed.
  • the determination unit 43 refers to the object table 80 and determines the direction in which the numerical value is scrolled by rotating the rotary drum 112a. Since the object table 80 stores that when the rotary drum is scrolled, the operation on the rear touch panel 51 should be scrolled in the opposite direction to the operation on the touch panel 61.
  • the movement control unit 44 scrolls the rotary drum 112a upward as shown in FIG.
  • FIGS. 9 (a) and 12 (a) by inputting instructions in opposite directions to the touch panel 61 and the rear touch panel 51, as shown in FIGS. 9 (b) and 12 (b), the rotating drum 112a. Are scrolled in the same upward direction.
  • FIGS. 10 (a) and 11 (b) as shown in FIGS. 10 (b) and 11 (b), an instruction input in the opposite direction to the touch panel 61 and the rear touch panel 51, as shown in FIGS.
  • the rotating drum 112a is scrolled in the same downward direction.
  • the movement control unit 44 may receive only an operation input from either the touch panel 61 or the rear touch panel 51 to scroll the rotating drum, or may receive an operation input from both. In the latter case, for example, the user can finely adjust the scroll by scrolling the rotating drum with the rear touch panel 51 and then stopping the scroll with the touch panel 61.
  • the movement control unit 44 may adjust the scroll amount, speed, or acceleration in accordance with the movement amount, speed, or acceleration of the drag input.
  • FIGS. 13A and 13B show examples of screens when rotating a three-dimensional object.
  • the input acquisition unit 41 moves upward on the touch panel 61.
  • the rotation control unit 45 moves the three-dimensional object 122 around the virtual axis 124 so that the front is moved up and the eyelid is moved down as shown in FIG. Rotate to
  • FIGS. 14A and 14B show examples of screens when rotating a three-dimensional object.
  • the determination unit 43 determines that the three-dimensional object 122 is rotated with reference to the object table 80.
  • the rotating drum when the user rotates the three-dimensional object 122 using the touch panel 61, the user seems to rotate the three-dimensional object 122 with the front side of the virtual axis 124 of the three-dimensional object 122.
  • the object table 80 stores that the direction when the three-dimensional object is rotated by the input to the rear touch panel 51 is opposite to the direction when the three-dimensional object is rotated by the input to the touch panel 61.
  • the movement control unit 44 moves the three-dimensional object 122 so that the heel moves down on the front side. Rotate.
  • FIGS. 15A and 15B show examples of screens when rotating a three-dimensional object.
  • the input acquisition unit 41 moves rightward on the touch panel 61.
  • the rotation control unit 45 causes the three-dimensional object 122 to be parallel to the display screen of the display device 60 and in the direction of the drag input, as shown in FIG. Rotate around the vertical virtual axis 126 so that the foreground moves to the right and the eyelid moves to the left.
  • FIGS. 16A and 16B show examples of screens when rotating a three-dimensional object.
  • the determination unit 43 determines that the direction in which the three-dimensional object 122 is rotated with reference to the object table 80.
  • the object table 80 stores that the direction when the three-dimensional object is rotated by an input to the rear touch panel 51 is opposite to the direction when the three-dimensional object is rotated by an input to the touch panel 61.
  • the movement control unit 44 rotates the three-dimensional object 122 so that the foreground moves to the right and the eyelid moves to the left as shown in FIG. Let Thereby, the operation environment suitable for a user's intuition can be provided.
  • 17 (a) and 17 (b) show examples of screens when scrolling the circulation list.
  • the input acquisition unit 41 performs drag input on the touch panel 61 in the upward direction.
  • the movement control unit 44 scrolls the list up as shown in FIG.
  • the bookmark list is scrolled so that “user folder 1”, which is the first item, is cyclically displayed after “user bookmark 7,” which is the last item.
  • 18A and 18B show examples of screens when scrolling the circulation list.
  • the determination unit 43 With reference to the object table 80, the direction of scrolling the list is determined.
  • the object table 80 stores that the direction when scrolling the circulation list by input to the back touch panel 51 is opposite to the direction when scrolling the circulation list by input to the touch panel 61.
  • the movement control unit 44 scrolls the list up as shown in FIG.
  • an environment in which a list of bookmarks displayed in a circular manner is operated in the same manner as a rotating drum. It may be uncomfortable to operate this list in the same way as a rotating drum.
  • the user can change the operation direction by the setting unit 46.
  • the setting unit 46 may display a setting screen for changing the operation direction when operating the display target, accept the change of the setting from the user, and register it in the object table 80.
  • 19 (a) and 19 (b) show examples of screens when scrolling the circulation list.
  • the setting is changed by the setting unit 46 so that the direction when the circulation list is scrolled by an input to the rear touch panel is the same as the direction when the circulation list is scrolled by an input to the touch panel 61.
  • FIG. 19A when the input acquisition unit 41 detects that a drag input is performed downward on the rear touch panel 51 while the bookmark list is displayed on the screen 120.
  • the movement control unit 44 scrolls the list downward as shown in FIG. Thereby, the convenience for the user can be further improved.
  • FIG. 20 is a flowchart showing a procedure of the input control method according to the embodiment.
  • FIG. 20 shows a procedure for moving the display target.
  • the movement control unit 44 moves the operation target according to the input direction (S102).
  • S102 is skipped.
  • the determination unit 43 refers to the object table 80 and determines whether or not the operation direction is the same as the operation input on the touch panel 61. Is determined (S106).
  • the movement control unit 44 moves the operation target in the same direction as the operation input to the touch panel 61 (S108).
  • the operation direction is opposite (N in S106)
  • the movement control unit 44 moves the operation target in the opposite direction to the operation input to the touch panel 61 (S110).
  • FIG. 21 is a flowchart showing the procedure of the input control method according to the embodiment.
  • FIG. 21 shows a procedure for rotating the display target.
  • the rotation control unit 45 rotates the operation target around a virtual axis parallel to the display screen of the display device according to the input direction. (S122).
  • S122 When the input acquisition unit 41 does not acquire an operation input to the touch panel 61 (N in S120), S122 is skipped.
  • the determination unit 43 refers to the object table 80 and determines whether or not the operation direction is the same as the operation input to the touch panel 61. Is determined (S126).
  • the rotation control unit 45 rotates the operation target around the virtual axis parallel to the display screen in the same direction as the operation input to the touch panel 61 (S128).
  • the rotation control unit 45 rotates the operation target in a direction opposite to the operation input to the touch panel 61 around a virtual axis parallel to the display screen (S130). .
  • the input acquisition unit 41 does not acquire an operation input to the rear touch panel 51 (N in S124), S126, S128, and S130 are skipped.
  • the technique for operating the display target in the same direction by the operation input on the touch panel 61 and the operation input in the opposite direction on the rear touch panel 51 has been described.
  • the touch panel 61 and the rear touch panel 51 are operated.
  • the display target may be operated by simultaneous operation input to. For example, when drag input is performed on one of the touch panel 61 and the rear touch panel 51, the display target is moved, and drag input in the opposite direction is performed on both the touch panel 61 and the rear touch panel 51 at the same time. In such a case, the display target may be rotated.
  • 22 (a) and 22 (b) show examples of screens when moving a three-dimensional object.
  • FIG. 22A when the input acquisition unit 41 detects that a drag input has been performed on the touch panel 61 while the three-dimensional object 122 is displayed on the screen 120, movement control is performed.
  • the unit 44 moves the three-dimensional object 122 upward as shown in FIG.
  • FIGS. 23A and 23B show examples of screens when rotating a three-dimensional object.
  • the input acquisition unit 41 performs drag input in the upward direction on the touch panel 61, and at the same time, on the rear touch panel 51.
  • the rotation control unit 45 rotates the three-dimensional object 122 so that the front moves up and the eyelid moves down as shown in FIG. Thereby, the operation environment suitable for a user's intuition can be provided.
  • the example in which the display target is moved or rotated according to the direction instruction input such as drag input, swipe input, flick input, pinch input, etc. on the touch panel 61 or the rear touch panel 51 has been described. May operate the display target in response to a tap input on the touch panel 61 or the rear touch panel 51. Also in this case, different operations may be performed depending on whether a tap input is performed on the touch panel 61 and a tap input is performed on the rear touch panel 51.
  • FIGS. 24 (a) and 24 (b) show examples of screens when the display target is switched by tap input.
  • document pages 143a and 143b are displayed on the screen 140 by the application 42 for displaying the document.
  • the pages 143a and 143b are arranged on the side surface on the near side of the rectangular parallelepiped object 142 rotated around the virtual axis 144 parallel to the display screen of the display device 60, as shown in FIG.
  • the determination unit 43 determines the rotation direction of the object 142 assuming that the position of the object 142 corresponding to the input position is pressed by the user.
  • the user can switch the page displayed on the screen 140 by rotating the object 142.
  • 25 (a) and 25 (b) show examples of screens when the display target is switched by tap input.
  • the input acquisition unit 41 is the position where the upper page 143a of the touch panel 61 is displayed, that is, the object 142.
  • the rotation control unit 45 moves the object 142 around the virtual axis 144 as shown in FIG. Rotate so that the upper half moves to the heel and the lower half moves to the front.
  • the page displayed on the screen 140 is switched to a page arranged on the side surface on the back side of the object 142.
  • the display target when the object 142 is rotated as shown in FIG. 25B, the display target is switched to the pages 145a and 145b, which are the pages before the pages 143a and 143b.
  • the display target is further switched to the previous page.
  • FIGS. 26 (a) and 26 (b) show examples of screens when the display target is switched by tap input.
  • the input acquisition unit 41 is the position where the lower page 143b of the touch panel 61 is displayed, that is, an object.
  • the rotation control unit 45 moves the object 142 to the virtual axis 144 as shown in FIG. Rotate around so that the upper half moves to the front and the lower half moves to the heel.
  • the page displayed on the screen 140 is switched to a page arranged on the side surface on the back side of the object 142.
  • the display target when the object 142 is rotated as shown in FIG. 26B, the display target is switched to the pages 146a and 146b, which are the next pages of the pages 143a and 143b.
  • the display target is further switched to the next page.
  • FIGS. 27A and 27B show examples of screens when an object is rotated by a tap input.
  • the input acquisition unit 41 is the position where the upper page 143a of the rear touch panel 51 is displayed, that is, an object.
  • the rotation control unit 45 moves the object 142 around the virtual axis 144 as shown in FIG. Then rotate the upper half to the front and the lower half to the heel. Thereby, the page displayed on the screen 140 is switched to the pages 146a and 146b which are the next pages of the pages 143a and 143b.
  • FIGS. 28A and 28B show examples of screens when the display target is switched by tap input.
  • the input acquisition unit 41 is located at the position where the lower page 143b of the rear touch panel 51 is displayed, that is, When it is detected that tap input has been performed at a position corresponding to a region below the virtual axis 144 of the object 142, the rotation control unit 45 moves the object 142 to the virtual axis 144 as shown in FIG. Rotate so that the upper half moves toward the heel and the lower half moves toward you. As a result, the page displayed on the screen 140 is switched to the pages 145a and 145b, which are the pages before the pages 143a and 143b.
  • the user can press and rotate the object 142 by a tap input on the touch panel 61 or the rear touch panel 51 and switch to a different display target according to the rotation direction, thereby providing an intuitive operation environment. can do.
  • FIGS. 29 (a) and 29 (b) show examples of screens when the display target is switched by tap input.
  • a document page 152 is displayed on a screen 150 by an application 42 for displaying a document.
  • the page 152 is arranged on the side surface on the near side of the rectangular parallelepiped object 151 rotated around the virtual axis 153 parallel to the display screen of the display device 60.
  • the object 151 rotates around the virtual axis 153 and falls down
  • the object 154 arranged on the side of the object 151 is moved to the front, and a display target is displayed on the page arranged on the side surface on the near side of the object 154. Can be switched.
  • the object 151 rotates around the virtual axis 153 and falls down, the object 156 arranged in front of the object 151 is moved to the bag and the display target is displayed on the page arranged on the side surface on the near side of the object 156. Can be switched.
  • the determination unit 43 assumes that the front side of the object 151 is pressed by the user, and that the back side of the object 151 is pressed by the user when the tap input is performed on the rear touch panel 51. The rotation direction of 151 is determined.
  • FIG. 30 (a) and 30 (b) show examples of screens when the display target is switched by tap input.
  • the input acquisition unit 41 performs a tap input at a position corresponding to the position where the object 151 is displayed on the touch panel 61.
  • the rotation control unit 45 rotates the object 151 around the virtual axis 153 so as to fall down as shown in FIG. 30B, and sets the object 156 as a display target instead. .
  • the page displayed on the screen 150 is switched to the page 157 that is the previous page of the page 152.
  • 31 (a) and 31 (b) show examples of screens when the display target is switched by tap input.
  • the input acquisition unit 41 performs tap input at a position corresponding to the position where the object 151 is displayed on the rear touch panel 51.
  • the rotation control unit 45 rotates the object 151 around the virtual axis 153 so as to fall forward, as shown in FIG. To do.
  • the page displayed on the screen 150 is switched to the page 155 that is the next page of the page 152.
  • the user can press and rotate the object 151 by a tap input on the touch panel 61 or the rear touch panel 51 and switch to a different display target according to the rotation direction, thereby providing an intuitive operation environment. can do.
  • FIG. 32 (a) and 32 (b) show examples of screens when the display target is switched by tap input.
  • a document page 152 is displayed on a screen 150 by an application 42 for displaying a document.
  • the page 152 is arranged on the side surface on the near side of the rectangular parallelepiped object 151 arranged on the plane 159.
  • the object 154 arranged on the side of the object 151 is moved to the near side, and the display target is switched to the page arranged on the side surface on the near side of the object 154.
  • the object 151 When the object 151 is pushed to the heel side and falls from the plane 159, the object 156 arranged in front of the object 151 is moved to the heel, and the display target is switched to the page arranged on the side surface on the near side of the object 156. .
  • the determination unit 43 assumes that the front side of the object 151 is pressed by the user, and that the back side of the object 151 is pressed by the user when the tap input is performed on the rear touch panel 51. The moving direction of 151 is determined.
  • 33 (a) and 33 (b) show examples of screens when the display target is switched by tap input.
  • the input acquisition unit 41 performs a tap input at a position corresponding to the position where the object 151 is displayed on the touch panel 61.
  • the movement control unit 44 moves the object 151 to the heel side and then moves it downward as shown in FIG. 33B, and instead uses the object 156 as a display target.
  • the page displayed on the screen 150 is switched to the page 157 that is the previous page of the page 152.
  • 34 (a) and 34 (b) show examples of screens when the display target is switched by tap input.
  • the input acquisition unit 41 performs a tap input at a position corresponding to the position where the object 151 is displayed on the rear touch panel 51.
  • the movement control unit 44 moves the object 151 to the near side and then moves it downward as shown in FIG. 34 (b), and instead uses the object 154 as a display target. .
  • the page displayed on the screen 150 is switched to the page 155 that is the next page of the page 152.
  • the user can press and move the object 151 by a tap input on the touch panel 61 or the rear touch panel 51 and switch to a different display target according to the moving direction, thereby providing an intuitive operation environment. can do.
  • the display target is rotated or moved as if the display target was pressed by the tap input.
  • an instruction input for pulling or sucking the display target is received from the user, and the display target is pulled. It is also possible to rotate or move the display object as a result.
  • an operation input that is released after tapping a position corresponding to the display target and pressing and holding for a predetermined time or longer may be used as an instruction input for sucking the display target.
  • An operation that the user presses on the target to be sucked and then pulls the target after the target is attracted to the finger is used as an instruction input for sucking the display target, thus providing an operation environment that matches the user's intuition. be able to.
  • the instruction input for sucking the display target may be other input, for example, pinch-in input or the like.
  • 35 (a) and 35 (b) show examples of screens when the display target is switched by tap input.
  • the input acquisition unit 41 performs tap input at a position corresponding to the position where the object 151 is displayed on the rear touch panel 51.
  • an object 158 indicating the tapped position is displayed on the screen 150.
  • the input acquisition unit 41 detects that the tap input has been performed at the same position for a predetermined time or longer, the input acquisition unit 41 visually indicates to the user that the display mode has been switched to the suction mode for sucking the display target. ), The display mode of the object 158 is changed.
  • 36 (a) and 36 (b) show examples of screens when the display target is switched by tap input.
  • the input acquisition unit 41 detects that the user has lifted his / her finger from the rear touch panel 51
  • the input acquisition unit 41 Information indicating the input position and the rotation control unit 45 are notified of the suction mode.
  • the rotation control unit 45 rotates the object 151 around the virtual axis 153 so as to fall down on the heel, as shown in FIG. 36B.
  • the object 156 is a display target.
  • the page displayed on the screen 150 is switched to the page 157 that is the previous page of the page 152.
  • FIG. 37A and 37 (b) show examples of screens when the display target is switched by tap input.
  • the input acquisition unit 41 performs tap input at a position corresponding to the position where the object 151 is displayed on the touch panel 61.
  • the display mode of the object 151 is changed.
  • the touch panel 61 is tapped, even if an object indicating the tapped position is displayed on the screen 150, it may be difficult to view the object hidden behind the finger, so the display mode of the entire object 151 to be operated is changed. Yes.
  • the input acquisition unit 41 detects that the tap input has been performed at the same position for a predetermined time or longer, the input acquisition unit 41 visually indicates to the user that the display mode has been switched to the suction mode for sucking the display target. ), The display mode of the object 151 is further changed.
  • 38 (a) and 38 (b) show examples of screens when the display target is switched by tap input.
  • the input acquisition unit 41 detects that the user has lifted his / her finger from the touch panel 61 as shown in FIG. 38A after shifting to the suction mode for sucking the display target, the input acquisition unit 41 Information indicating the position and the rotation control unit 45 are notified of the suction mode.
  • the rotation control unit 45 rotates the object 151 around the virtual axis 153 so as to fall forward, as shown in FIG. 38B.
  • the object 154 is a display target.
  • the page displayed on the screen 150 is switched to the page 155 that is the next page of the page 152.
  • the determination unit 43 displays the side surface on the near side of the object 151 when the user performs input for sucking the display target on the touch panel 61, and the side surface on the back side of the object 151 when input is performed on the rear touch panel 51.
  • the direction of rotation of the object 151 is determined as being sucked by the user.
  • the suction mode can be used for various functions. For example, an object sucked in the suction mode may be reduced and displayed at a predetermined magnification.
  • the object when the user performs an input for suction on the rear touch panel 51, the object can appear as if it has entered the bag, and when the user performs an input for suction on the touch panel 61, the object is displayed. It can be seen as if it has floated forward, and the movement of the object can be expressed three-dimensionally.
  • a vacuum cleaner icon is displayed on the screen, and dust is sucked when the user touches the dust object arranged on the screen for a predetermined time or longer. Such a game can be realized.
  • the content of the operation may be varied according to the length or strength of the tap input.
  • the object 142 may be rotated twice or more to switch the display target to two or more previous or next pages.
  • the number of times to be displayed may be switched.
  • the number of times to be displayed may be switched.
  • the technique of the present embodiment can be applied to a case where other objects are operated.
  • a gun firing game when you change the direction of the gun by operating the gun displayed on the screen, when you operate a control stick such as an airplane, or when you operate an elevator that moves up and down with a pulley
  • the technique of this embodiment can be applied to the operation of an arbitrary operation target that can be thought of rotating around a virtual axis parallel to the screen.
  • the present invention is applicable to an input control device that receives an input for operating a display object displayed on a display device and operates the display object.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 ゲーム装置10は、表示装置60の表示画面に表示対象を表示する画面生成部85と、表示装置60の表示画面に併設されたタッチパネル61及び表示装置60の表示画面と反対側の面に設けられた背面タッチパネル51から、表示対象に対する操作入力の位置又は方向を取得する入力取得部41と、入力取得部41が背面タッチパネル51から表示対象に対する操作入力を取得したときに、操作入力の位置又は方向と、操作の対象となっている表示対象の種類に応じて、その表示対象を操作する方向を判定する判定部43と、判定部43により判定された方向に表示対象を操作する移動制御部44又は回転制御部45とを備える。

Description

入力制御装置、入力制御方法、及び入力制御プログラム
 本発明は、入力制御技術に関し、とくに、表示装置に表示された表示対象を操作するための入力を受け付けて表示対象を操作する入力制御装置、入力制御方法、及び入力制御プログラムに関する。
 タッチパネルを備えたスマートフォンや携帯型ゲーム装置が広く普及しており、多くのユーザは、タップ入力、フリック入力、スワイプ入力、ドラッグ入力、ピンチ入力などのタッチパネルに対する基本的な入力操作に習熟してきている。
 しかし、今後さらにスマートフォンや携帯型ゲーム装置などが普及することが予想される中、より分かりやすく、操作性の良い入力方法を提供する技術が求められる。本出願人は、表示装置の表示画面に併設されたタッチパネルと、表示装置の表示画面と反対側の面に設けられた背面タッチパネルとを有するゲーム装置を開発する過程において、そのような新しいゲーム装置を用いたユーザインタフェースの問題点を認識するに至り、問題点を克服してユーザの利便性を向上させるための技術に想到した。
 本発明はこうした状況に鑑みてなされたものであり、その目的は、より利便性の高い入力制御技術を提供することにある。
 本発明のある態様は、入力制御プログラムに関する。この入力制御プログラムは、コンピュータを、表示装置の表示画面に表示対象を表示する表示制御部、前記表示装置の前記表示画面に併設されたタッチパネル及び前記表示装置の前記表示画面と反対側の面に設けられた背面タッチパネルから、前記表示対象に対する操作入力の位置又は方向を取得する取得部、前記取得部が前記背面タッチパネルから前記表示対象に対する操作入力を取得したときに、前記操作入力の位置又は方向と、操作の対象となっている表示対象の種類に応じて、その表示対象を操作する方向を判定する判定部、前記判定部により判定された方向に前記表示対象を操作する操作制御部、として機能させる。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、より利便性の高い入力制御技術を提供することができる。
[規則91に基づく訂正 27.07.2012] 
実施の形態に係るゲーム装置の外観を示す図である。 実施の形態に係るゲーム装置の外観を示す図である。 ゲーム装置の回路構成を示す図である。 実施の形態に係るゲーム装置の機能構成を示す図である。 オブジェクトテーブルの内部データの例を示す図である。 図6(a)(b)は、ホームページをスクロールするときの画面の例を示す図である。 図7(a)(b)は、ホームページをスクロールするときの画面の例を示す図である。 図8(a)(b)は、回転ドラムをスクロールするときの画面の例を示す図である。 図9(a)(b)は、回転ドラムをスクロールするときの画面の例を示す図である。 図10(a)(b)は、回転ドラムをスクロールするときの画面の例を示す図である。 図11(a)(b)は、回転ドラムをスクロールするときの画面の例を示す図である。 図12(a)(b)は、回転ドラムをスクロールするときの画面の例を示す図である。 図13(a)(b)は、三次元オブジェクトを回転させるときの画面の例を示す図である。 図14(a)(b)は、三次元オブジェクトを回転させるときの画面の例を示す図である。 図15(a)(b)は、三次元オブジェクトを回転させるときの画面の例を示す図である。 図16(a)(b)は、三次元オブジェクトを回転させるときの画面の例を示す図である。 図17(a)(b)は、循環リストをスクロールするときの画面の例を示す図である。 図18(a)(b)は、循環リストをスクロールするときの画面の例を示す図である。 図19(a)(b)は、循環リストをスクロールするときの画面の例を示す図である。 図20は、実施の形態に係る入力制御方法の手順を示すフローチャートである。 図21は、実施の形態に係る入力制御方法の手順を示すフローチャートである。 図22(a)(b)は、三次元オブジェクトを移動させるときの画面の例を示す図である。 図23(a)(b)は、三次元オブジェクトを回転させるときの画面の例を示す図である。 図24(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図25(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図26(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図27(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図28(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図29(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図30(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図31(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図32(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図33(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図34(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図35(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図36(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図37(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。 図38(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す図である。
 実施の形態に係る入力制御装置は、表示装置の表示画面に併設されたタッチパネルと、表示画面の反対側の面に配設された背面タッチパネルとを有しており、タッチパネルや背面タッチパネルなどに対する入力に応じて、表示装置に表示される表示対象の移動又は回転を制御する。入力制御装置は、表示対象が、表示画面に平行な仮想軸の周りの回転を観念できないものであれば、背面タッチパネルに対する入力の方向と操作方向との関係を、タッチパネルに対する入力の方向と操作方向との関係と同じとし、仮想軸の周りの回転を観念できるものであれば、背面タッチパネルに対する入力の方向と操作方向との関係を、タッチパネルに対する入力の方向と操作方向との関係と反対にする。例えば、タッチパネルにおける上方向へのドラッグ入力により上方向に操作される表示対象に対して、背面タッチパネルにおいて上方向へのドラッグ入力を行ったとき、前者の場合、表示対象は上方向に操作されるが、後者の場合、表示対象は下方向に操作される。実施の形態においては、入力制御装置の例として、ゲーム装置について説明する。
 図1及び図2は、実施の形態に係るゲーム装置10の外観を示す。図1及び図2に示すゲーム装置10は、プレイヤーが把持して使用する携帯型のゲーム装置である。図1に示すように、ゲーム装置10の表側、すなわち、プレイヤーがゲーム装置10を把持して操作するときにプレイヤーに面する側には、方向キー21、ボタン22、左アナログスティック23、右アナログスティック24、左ボタン25、右ボタン26などの入力装置65と、表示装置60と、前面カメラ68aとが備えられている。表示装置60には、プレイヤーの指やスタイラスペンなどによる接触を検知するためのタッチパネル61が併設されている。ボタン22は、○ボタン31、△ボタン32、□ボタン33、及び×ボタン34を含む。
 図2に示すように、ゲーム装置10の裏側には、背面タッチパネル51と背面カメラ68bが備えられている。ゲーム装置10の裏側にも、表側と同様に表示装置を設けてもよいが、本実施の形態では、ゲーム装置10の裏側には表示装置を設けずに、背面タッチパネル51のみを設ける。
 プレイヤーは、ゲーム装置10を両手で把持した状態で、例えば、右手親指でボタン22を操作し、左手親指で方向キー21を操作し、右手人差し指又は中指で右ボタン26を操作し、左手人差し指又は中指で左ボタン25を操作し、両手の親指でタッチパネル61を操作し、両手の薬指又は小指で背面タッチパネル51を操作することができる。スタイラスペンなどを用いる場合は、例えば、ゲーム装置10を左手で把持した状態で、右手でスタイラスペン又は人差し指によりタッチパネル61及びボタン22を操作し、左手親指で方向キー21を操作し、左手人差し指又は中指で左ボタン25を操作し、左手薬指又は小指で背面タッチパネル51を操作することができる。
 図3は、ゲーム装置10の回路構成を示す。表示装置60は、ゲーム装置10の各機能により生成される表示画面を表示する。表示装置60は、液晶表示装置であってもよいし、有機EL表示装置であってもよい。タッチパネル61は、表示装置60の上に重ね合わせて設けられ、ユーザの指やペンなどによる接触を検知する。タッチパネル61は、抵抗膜方式、表面型静電容量方式、投影型静電容量方式など、いずれの方式のものであってもよい。タッチパネル61は、入力を検知した位置の座標を所定の周期で出力する。背面タッチパネル51も、任意の方式のタッチパネルであってもよい。背面タッチパネル51は、背面タッチパネル51に対する押圧の圧力を検知可能な感圧センサを備えてもよいし、入力を検知した領域の面積、電圧値、静電容量などに基づいて入力の強度を算出してもよい。背面タッチパネル51は、入力を検知した位置の座標及び入力の強度(圧力)を所定の周期で出力する。
 LED62は、ゲーム装置10の状態などを示すインジケータを構成する。動きセンサ63は、ゲーム装置10の動きを検知する。動きセンサ63は、3軸ジャイロセンサ及び3軸加速度センサを含む。3軸ジャイロセンサは、ゲーム装置10のXZ平面、ZY平面、YX平面における角速度を検知する。3軸ジャイロセンサは、回転型又は振動型の機械式ジャイロセンサであってもよいし、流体式又は光学式のジャイロセンサであってもよい。3軸ジャイロセンサにより検知された3軸の周りの角速度を積分することにより、3軸の周りの回転量を算出することができる。3軸加速度センサは、梁に支持された錘を内蔵し、加速による錘の位置変化を検知することにより、ゲーム装置10のXYZの3軸方向の加速度を検知する。3軸加速度センサは、機械式、光学式、又は半導体式の加速度センサであってもよい。3軸加速度センサにより、重力加速度の方向とゲーム装置10のXYZの3軸の方向との相対角度を検知することができるので、ゲーム装置10の姿勢を算出することができる。また、3軸の方向の加速度を積分することにより速度を算出することができ、さらに積分することにより移動量を算出することができる。
 マイク35は、ゲーム装置10の周辺の音声を入力する。スピーカ64は、ゲーム装置10の各機能により生成される音声を出力する。ステレオ入出力端子36は、外部のマイクからステレオ音声を入力し、外部のヘッドフォンなどへステレオ音声を出力する。入力装置65は、前述した操作キーなどを含み、ユーザの操作入力を受け付ける。以上のタッチパネル61、背面タッチパネル51、LED62、動きセンサ63、マイク35、スピーカ64、ステレオ入出力端子36及び入力装置65が、インターフェイス66を介してCPU71等と相互にデータを授受する。
 無線通信制御部67は、IEEE802.11b/g等の通信規格に準拠した無線LAN(Wireless Local Area Network)によって構成され、アクセスポイントなどと無線通信し、アクセスポイント及びインターネットを介した他の装置との間の通信を制御する。カメラ68は、画像を撮像し、画像データを入力する。携帯電話網通信制御部69は、ITU(国際電気通信連合)によって定められたIMT-2000規格に準拠した第三世代(3rd Generation)デジタル携帯電話方式に対応し、携帯電話網及びインターネットを介した他の装置との間の通信を制御する。SIMカード70には、携帯電話の電話番号を特定するための固有のID番号が記録されており、SIMカード70が挿入されることにより、携帯電話網との間の通信が可能となる。カメラ68は、CMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)によって構成される正面カメラ68aと、同様にCMOSイメージセンサによって構成される背面カメラ68bとから成り、正面方向と背面方向の画像を各々撮像し、画像データとして出力する。
 CPU(Central Processing Unit)71は、メインメモリ73にロードされたプログラムなどを実行し、図4に示す各機能構成を実現する。GPU(Graphics Processing Unit)72は、画像処理に必要な計算を実行する。メインメモリ73は、RAM(Random Access Memory)などにより構成され、ゲーム装置10で動作するプログラムやデータなどを記憶する。ストレージ74は、NAND型フラッシュメモリ(NAND-type flash memory)などにより構成され、ゲーム装置10の各構成により利用されるプログラムやデータなどを記録する。
 GPS(Global Positioning System)制御部75は、GPS衛星からの信号を受信し、現在位置を算出する。Bluetooth制御部76は、Bluetoothによる周辺装置15との間の無線通信を制御する。USB制御部77は、USBによる周辺装置15との間の通信を制御する。メモリカード制御部78は、外部メディア16との間のデータの読み書きを制御する。ビデオ出力制御部79は、HDMIなどの規格に基づいて、外部表示装置17へビデオ信号を出力する。
 図4は、実施の形態に係るゲーム装置10の機能構成を示す。ゲーム装置10は、制御部40、データ保持部86、オブジェクトテーブル80、及び画面生成部85を備える。これらの構成は、ハードウエアコンポーネントでいえば、任意のコンピュータのCPU、メモリ、メモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
 制御部40は、アプリケーションのプログラムが格納されたデータ保持部86などからプログラムを読み出し、入力装置65、タッチパネル61、背面タッチパネル51、動きセンサ63などからユーザにより入力される操作指示に基づいて、アプリケーションを実行する。データ保持部86は、プログラムや各種のデータファイルなどを保持する。オブジェクトテーブル80は、アプリケーション42などにより表示装置60の表示画面に表示されるオブジェクトの情報を格納する。画面生成部85は、制御部40により制御されるアプリケーションなどの画面を生成し、表示装置60に表示させる。
 制御部40は、入力取得部41、アプリケーション42、判定部43、移動制御部44、回転制御部45、及び設定部46を備える。
 入力取得部41は、タッチパネル61及び背面タッチパネル51から、表示装置60に表示された表示対象を操作するための入力を取得する。入力取得部41は、フリック入力、スワイプ入力、ドラッグ入力など、表示対象を操作する方向を指示するための入力を取得する。入力取得部41は、タッチパネル61及び背面タッチパネル51に対する入力が検知された位置の表示画面における座標を取得し、その入力が、フリック入力、スワイプ入力、ドラッグ入力などに該当するか否かを判定し、該当する場合はその方向を判定してもよいし、図示しないデバイスドライバなどから、フリック入力、スワイプ入力、ドラッグ入力などの方向を取得してもよい。
 アプリケーション42は、ゲームなどのプログラムをデータ保持部86から読み出して実行することにより、各種の機能を提供する。アプリケーション42と画面生成部85は、表示装置60の表示画面に表示対象を表示する表示制御部として機能する。
 判定部43は、アプリケーション42により表示装置60に表示対象が表示されているときに、タッチパネル61又は背面タッチパネル51を介して、ユーザから表示対象を操作するための指示入力を受け付けたとき、オブジェクトテーブル80を参照して、その表示対象を操作する方向を判定する。
 移動制御部44は、表示装置60に表示される表示対象の移動を制御する。回転制御部45は、表示装置60に表示される表示対象の回転を制御する。移動制御部44及び回転制御部45は、判定部43により判定された操作方向に表示対象を移動又は回転させる。設定部46は、ユーザから表示対象の操作方向に関する設定を受け付け、オブジェクトテーブル80に登録する。
 図5は、オブジェクトテーブル80の内部データの例を示す。オブジェクトテーブル80には、操作対象欄81、操作欄82、及び方向欄83が設けられている。操作対象欄81は、タッチパネル61及び背面タッチパネル51に対する指示入力による操作の対象となるオブジェクトなどの種別を格納する。操作欄82は、操作対象となるオブジェクトなどに対して実行される操作の内容を格納する。方向欄83は、タッチパネル61に対する指示入力の方向と操作対象を操作するときの方向の関係と、背面タッチパネル51に対する指示入力の方向と操作対象を操作するときの方向の関係とが、同じであるか反対であるかを示す情報を格納する。例えば、操作対象がホームページで、操作内容がスクロールである場合には、タッチパネル61と背面タッチパネル51に対する同一方向の指示入力により、ホームページは同一方向にスクロールされる。回転ドラムをスクロールする場合には、タッチパネル61と背面タッチパネル51に対する同一方向の指示入力により、回転ドラムは反対方向にスクロールされる。
 図6(a)(b)は、ホームページをスクロールするときの画面の例を示す。図6(a)に示すように、ホームページを表示するためのアプリケーション42により、画面100にホームページが表示されているとき、入力取得部41がタッチパネル61において上方向にドラッグ入力が行われたことを検知すると、移動制御部44は、図6(b)に示すように、ホームページを上方向へスクロールする。これにより、スクロール前には画面100に表示されていなかったホームページの下部が画面100に表示される。
 図7(a)(b)は、ホームページをスクロールするときの画面の例を示す。図7(a)に示すように、画面100にホームページが表示されているとき、入力取得部41が背面タッチパネル51においてドラッグ入力が行われたことを検知すると、判定部43は、オブジェクトテーブル80を参照して、ホームページをスクロールする方向を決定する。オブジェクトテーブル80には、ホームページをスクロールする場合、背面タッチパネル51に対する操作により、タッチパネル61に対する操作の場合と同じ方向へスクロールすべきことが格納されているので、判定部43は、背面タッチパネル51において上方向にドラッグ入力が行われたことが検知されると、ホームページを上方向へスクロールすると判定する。移動制御部44は、図7(b)に示すように、上方向へホームページをスクロールする。このように、ユーザは、ホームページをスクロールさせるときには、タッチパネル61においても、背面タッチパネル51においても、上方向へドラッグ入力を行うと上方向にスクロールさせ、下方向へドラッグ入力を行うと下方向にスクロールさせることができる。これにより、ユーザの直感に合った操作環境を提供することができる。
 図8(a)(b)は、回転ドラムをスクロールするときの画面の例を示す。図8(a)に示すように、時間を設定するためのアプリケーション42により、画面110に、時を設定するための回転ドラム112a及び分を設定するための回転ドラム112bが表示されている。回転ドラム112a及び112bは、図8(b)に示すように、表示装置60の表示画面に平行な仮想軸114の周りで回転される円柱状のオブジェクトにより表現され、円柱の側面に記載された数値の一部が画面110に表示される。ユーザは、回転ドラム112a及び112bを回転させることにより、画面110に表示される数値を上下にスクロールさせ、設定される数値を変更することができる。
 図9(a)(b)は、回転ドラムをスクロールするときの画面の例を示す。図9(a)に示すように、画面110に回転ドラム112aが表示されているときに、入力取得部41が、タッチパネル61の回転ドラム112aが表示されている位置に対応する位置において上方向にドラッグ入力が行われたことを検知すると、移動制御部44は、図9(b)に示すように、回転ドラム112aを仮想軸114の周りで、手前が上に奧が下に移動するように回転させ、回転ドラム112aに表示される数値を上方向にスクロールする。
 図10(a)(b)は、回転ドラムをスクロールするときの画面の例を示す。図10(a)に示すように、画面110に回転ドラム112aが表示されているときに、入力取得部41が、背面タッチパネル51の回転ドラム112aが表示されている位置に対応する位置においてドラッグ入力が行われたことを検知すると、判定部43は、オブジェクトテーブル80を参照して、回転ドラム112aを回転させて数値をスクロールする方向を判定する。図8(b)に示すように、画面110には、回転ドラム112aを表現する円柱状のオブジェクトの側面の一部しか表示されないが、同一方向にスクロールし続けると0~23の数値が循環して表示されるので、ユーザも、回転ドラム112aが仮想軸の周りで回転される円柱状のオブジェクトにより表現されていることを認識することができる。そのため、ユーザは、タッチパネル61により回転ドラム112aを操作するときには、円柱状のオブジェクトの手前側の側面を操作しているように感じ、背面タッチパネル51により回転ドラム112aを操作するときには、円柱状のオブジェクトの奧側の側面を操作しているように感じる。したがって、図10(b)に示すように、ユーザが背面タッチパネル51において下方向にドラッグ入力を行ったとき、移動制御部44は、タッチパネル61において下方向にドラッグ入力を行ったときとは逆に、回転ドラム112aを上方向にスクロールする。これにより、ユーザの直感に合った操作環境を提供することができる。
 図11(a)(b)は、回転ドラムをスクロールするときの画面の例を示す。図11(a)に示すように、画面110に回転ドラム112aが表示されているときに、入力取得部41が、タッチパネル61の回転ドラム112aが表示されている位置に対応する位置において下方向にドラッグ入力が行われたことを検知すると、移動制御部44は、図11(b)に示すように、回転ドラム112aを仮想軸114の周りで、手前が下に奧が上に移動するように回転させ、回転ドラム112aに表示される数値を下方向にスクロールする。
 図12(a)(b)は、回転ドラムをスクロールするときの画面の例を示す。図12(a)に示すように、画面110に回転ドラム112aが表示されているときに、入力取得部41が、背面タッチパネル51の回転ドラム112aが表示されている位置に対応する位置において下方向にドラッグ入力が行われたことを検知すると、判定部43は、オブジェクトテーブル80を参照して、回転ドラム112aを回転させて数値をスクロールする方向を判定する。オブジェクトテーブル80には、回転ドラムをスクロールする場合、背面タッチパネル51に対する操作により、タッチパネル61に対する操作の場合と反対の方向へスクロールすべきことが格納されているので、判定部43は、背面タッチパネル51において下方向にドラッグ入力が行われたことが検知されると、回転ドラムを上方向へスクロールすると判定する。移動制御部44は、図12(b)に示すように、上方向へ回転ドラム112aをスクロールする。
 図9(a)及び図12(a)に示すように、タッチパネル61と背面タッチパネル51に対する反対の方向の指示入力により、図9(b)及び図12(b)に示すように、回転ドラム112aが同じ上方向にスクロールされる。同様に、図10(a)及び図11(b)に示すように、タッチパネル61と背面タッチパネル51に対する反対の方向の指示入力により、図10(b)及び図11(b)に示すように、回転ドラム112aが同じ下方向にスクロールされる。
 移動制御部44は、タッチパネル61及び背面タッチパネル51のうちいずれか一方からの操作入力のみを受け付けて回転ドラムをスクロールしてもよいし、双方からの操作入力を受け付けてもよい。後者の場合、ユーザは、例えば、背面タッチパネル51により回転ドラムをスクロールさせた後、タッチパネル61によりスクロールを停止させ、スクロールを微調整することができる。移動制御部44は、ドラッグ入力の移動量、速度、又は加速度に応じて、スクロールの量、速度、又は加速度を調整してもよい。
 図13(a)(b)は、三次元オブジェクトを回転させるときの画面の例を示す。図13(a)に示すように、三次元オブジェクトを表示するためのアプリケーション42により、画面120に、三次元オブジェクト122が表示されているときに、入力取得部41が、タッチパネル61において上方向にドラッグ入力が行われたことを検知すると、回転制御部45は、図13(b)に示すように、三次元オブジェクト122を仮想軸124の周りで、手前が上に奧が下に移動するように回転させる。
 図14(a)(b)は、三次元オブジェクトを回転させるときの画面の例を示す。図14(a)に示すように、画面120に三次元オブジェクト122が表示されているときに、入力取得部41が、背面タッチパネル51においてドラッグ入力が行われたことを検知すると、判定部43は、オブジェクトテーブル80を参照して、三次元オブジェクト122を回転させる方向を判定する。回転ドラムの場合と同様に、ユーザは、タッチパネル61により三次元オブジェクト122を回転させるときには、三次元オブジェクト122の、仮想軸124よりも手前側を持って、三次元オブジェクト122を回転させているように感じ、背面タッチパネル51により三次元オブジェクト122を回転させるときには、三次元オブジェクト122の、仮想軸124よりも奧側を持って、三次元オブジェクト122を回転させているように感じる。したがって、オブジェクトテーブル80には、背面タッチパネル51に対する入力により三次元オブジェクトを回転させるときの方向は、タッチパネル61に対する入力により三次元オブジェクトを回転させるときの方向と反対であることが格納される。図14(b)に示すように、ユーザが背面タッチパネル51において下方向にドラッグ入力を行ったとき、移動制御部44は、三次元オブジェクト122を、手前が上に奧が下に移動するように回転させる。これにより、ユーザの直感に合った操作環境を提供することができる。
 図15(a)(b)は、三次元オブジェクトを回転させるときの画面の例を示す。図15(a)に示すように、三次元オブジェクトを表示するためのアプリケーション42により、画面120に、三次元オブジェクト122が表示されているときに、入力取得部41が、タッチパネル61において右方向にドラッグ入力が行われたことを検知すると、回転制御部45は、図15(b)に示すように、三次元オブジェクト122を、表示装置60の表示画面に平行で、かつ、ドラッグ入力の方向に垂直な仮想軸126の周りで、手前が右に奧が左に移動するように回転させる。
 図16(a)(b)は、三次元オブジェクトを回転させるときの画面の例を示す。図16(a)に示すように、画面120に三次元オブジェクト122が表示されているときに、入力取得部41が、背面タッチパネル51においてドラッグ入力が行われたことを検知すると、判定部43は、オブジェクトテーブル80を参照して、三次元オブジェクト122を回転させる方向を判定する。オブジェクトテーブル80には、背面タッチパネル51に対する入力により三次元オブジェクトを回転させるときの方向は、タッチパネル61に対する入力により三次元オブジェクトを回転させるときの方向と反対であることが格納されているので、ユーザが背面タッチパネル51において左方向にドラッグ入力を行ったとき、移動制御部44は、図14(b)に示すように、三次元オブジェクト122を、手前が右に奧が左に移動するように回転させる。これにより、ユーザの直感に合った操作環境を提供することができる。
 図17(a)(b)は、循環リストをスクロールするときの画面の例を示す。図17(a)に示すように、ブックマークを表示するためのアプリケーション42により、画面130に、ブックマークのリストが表示されているときに、入力取得部41が、タッチパネル61において上方向にドラッグ入力が行われたことを検知すると、移動制御部44は、図17(b)に示すように、リストを上にスクロールする。ブックマークのリストは、最終の項目である「ユーザブックマーク7」の次に、最初の項目である「ユーザフォルダ1」が循環して表示されるようにスクロールされる。
 図18(a)(b)は、循環リストをスクロールするときの画面の例を示す。図18(a)に示すように、画面120にブックマークのリストが表示されているときに、入力取得部41が、背面タッチパネル51においてドラッグ入力が行われたことを検知すると、判定部43は、オブジェクトテーブル80を参照して、リストをスクロールする方向を判定する。オブジェクトテーブル80には、背面タッチパネル51に対する入力により循環リストをスクロールするときの方向は、タッチパネル61に対する入力により循環リストをスクロールするときの方向と反対であることが格納されているので、ユーザが背面タッチパネル51において下方向にドラッグ入力を行ったとき、移動制御部44は、図18(b)に示すように、リストを上にスクロールする。
 図18(b)に示した例では、循環的に表示されるブックマークのリストを、回転ドラムと同様に操作する環境を提供するが、ユーザによっては、回転ドラムよりも平面的な印象を受けるブックマークのリストを、回転ドラムと同様に操作することに違和感を覚える可能性がある。このとき、ユーザは、設定部46により操作方向を変更することができる。設定部46は、例えば、表示対象を操作するときの操作方向を変更するための設定画面を表示し、ユーザから設定の変更を受け付けて、オブジェクトテーブル80に登録してもよい。
 図19(a)(b)は、循環リストをスクロールするときの画面の例を示す。ユーザが、設定部46により、背面タッチパネルに対する入力により循環リストをスクロールときの方向を、タッチパネル61に対する入力により循環リストをスクロールするときの方向と同じになるように設定を変更したとする。この場合、図19(a)に示すように、画面120にブックマークのリストが表示されているときに、入力取得部41が、背面タッチパネル51において下方向にドラッグ入力が行われたことを検知すると、移動制御部44は、図19(b)に示すように、リストを下にスクロールする。これにより、ユーザの利便性をさらに向上させることができる。
 図20は、実施の形態に係る入力制御方法の手順を示すフローチャートである。図20は、表示対象を移動させるときの手順を示す。入力取得部41がタッチパネル61に対する操作入力を取得すると(S100のY)、移動制御部44は、入力の方向に応じて操作対象を移動させる(S102)。入力取得部41がタッチパネル61に対する操作入力を取得しない場合は(S100のN)、S102はスキップされる。入力取得部41が背面タッチパネル51に対する操作入力を取得すると(S104のY)、判定部43は、オブジェクトテーブル80を参照して、タッチパネル61に対する操作入力の場合と操作方向が同じであるか否かを判定する(S106)。操作方向が同じである場合(S106のY)、移動制御部44は、タッチパネル61に対する操作入力の場合と同じ方向に操作対象を移動させる(S108)。操作方向が反対である場合(S106のN)、移動制御部44は、タッチパネル61に対する操作入力の場合と反対の方向に操作対象を移動させる(S110)。入力取得部41が背面タッチパネル51に対する操作入力を取得しない場合(S104のN)、S106、S108、及びS110はスキップされる。
 図21は、実施の形態に係る入力制御方法の手順を示すフローチャートである。図21は、表示対象を回転させるときの手順を示す。入力取得部41がタッチパネル61に対する操作入力を取得すると(S120のY)、回転制御部45は、入力の方向に応じて、表示装置の表示画面に平行な仮想軸の周りで操作対象を回転させる(S122)。入力取得部41がタッチパネル61に対する操作入力を取得しない場合は(S120のN)、S122はスキップされる。入力取得部41が背面タッチパネル51に対する操作入力を取得すると(S124のY)、判定部43は、オブジェクトテーブル80を参照して、タッチパネル61に対する操作入力の場合と操作方向が同じであるか否かを判定する(S126)。操作方向が同じである場合(S126のY)、回転制御部45は、表示画面に平行な仮想軸の周りで、タッチパネル61に対する操作入力の場合と同じ方向に操作対象を回転させる(S128)。操作方向が反対である場合(S126のN)、回転制御部45は、表示画面に平行な仮想軸の周りで、タッチパネル61に対する操作入力の場合と反対の方向に操作対象を回転させる(S130)。入力取得部41が背面タッチパネル51に対する操作入力を取得しない場合(S124のN)、S126、S128、及びS130はスキップされる。
 以上の例においては、タッチパネル61に対する操作入力と、背面タッチパネル51に対する反対方向の操作入力によって、表示対象を同じ方向に操作する技術について説明したが、別の例においては、タッチパネル61と背面タッチパネル51に対する同時の操作入力によって、表示対象を操作してもよい。例えば、タッチパネル61及び背面タッチパネル51のいずれか一方に対してドラッグ入力が行われた場合は表示対象を移動させ、タッチパネル61及び背面タッチパネル51の双方に対して同時に反対方向へのドラッグ入力が行われた場合は表示対象を回転させてもよい。
 図22(a)(b)は、三次元オブジェクトを移動させるときの画面の例を示す。図22(a)に示すように、画面120に三次元オブジェクト122が表示されているときに、入力取得部41が、タッチパネル61において上方向にドラッグ入力が行われたことを検知すると、移動制御部44は、図22(b)に示すように、三次元オブジェクト122を上方向に移動させる。
 図23(a)(b)は、三次元オブジェクトを回転させるときの画面の例を示す。図23(a)に示すように、画面120に三次元オブジェクト122が表示されているときに、入力取得部41が、タッチパネル61において上方向にドラッグ入力が行われ、同時に、背面タッチパネル51において下方向にドラッグ入力が行われたことを検知すると、回転制御部45は、図23(b)に示すように、三次元オブジェクト122を、手前が上に奧が下に移動するように回転させる。これにより、ユーザの直感に合った操作環境を提供することができる。
 以上の例においては、タッチパネル61又は背面タッチパネル51に対する、ドラッグ入力、スワイプ入力、フリック入力、ピンチ入力などの方向指示入力に応じて表示対象を移動又は回転させる例について説明したが、別の例においては、タッチパネル61又は背面タッチパネル51に対するタップ入力などに応じて表示対象を操作してもよい。この場合も、タッチパネル61に対してタップ入力が行われた場合と、背面タッチパネル51に対してタップ入力が行われた場合とで、異なる操作を行ってもよい。
 図24(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図24(a)に示すように、文書を表示するためのアプリケーション42により、画面140に文書のページ143a及び143bが表示されている。ページ143a及び143bは、図24(b)に示すように、表示装置60の表示画面に平行な仮想軸144の周りで回転される直方体状のオブジェクト142の手前側の側面に配置される。判定部43は、ユーザがタッチパネル61又は背面タッチパネル51においてタップ入力を行うと、入力位置に対応するオブジェクト142の位置がユーザにより押されたものとして、オブジェクト142の回転方向を判定する。ユーザは、オブジェクト142を回転させることにより、画面140に表示されるページを切り替えることができる。
 図25(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図25(a)に示すように、画面140にページ143a及び143bが表示されているときに、入力取得部41が、タッチパネル61の、上側のページ143aが表示されている位置、すなわち、オブジェクト142の仮想軸144よりも上側の領域に対応する位置においてタップ入力が行われたことを検知すると、回転制御部45は、図25(b)に示すように、オブジェクト142を仮想軸144の周りで、上半分が奧に、下半分が手前に移動するように回転させる。これにより、画面140に表示されるページは、オブジェクト142の裏側の側面に配置されたページに切り替えられる。本実施の形態では、オブジェクト142が図25(b)に示すように回転されたとき、ページ143a及び143bの前のページであるページ145a及び145bに表示対象が切り替えられるものとする。オブジェクト142が更に同じ方向に回転されると、表示対象は更に前のページに切り替えられる。
 図26(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図26(a)に示すように、画面140にページ143a及び143bが表示されているときに、入力取得部41が、タッチパネル61の、下側のページ143bが表示されている位置、すなわち、オブジェクト142の仮想軸144よりも下側の領域に対応する位置においてタップ入力が行われたことを検知すると、回転制御部45は、図26(b)に示すように、オブジェクト142を仮想軸144の周りで、上半分が手前に、下半分が奧に移動するように回転させる。これにより、画面140に表示されるページは、オブジェクト142の裏側の側面に配置されたページに切り替えられる。本実施の形態では、オブジェクト142が図26(b)に示すように回転されたとき、ページ143a及び143bの次のページであるページ146a及び146bに表示対象が切り替えられるものとする。オブジェクト142が更に同じ方向に回転されると、表示対象は更に次のページに切り替えられる。
 図27(a)(b)は、タップ入力によりオブジェクトを回転させるときの画面の例を示す。図27(a)に示すように、画面140にページ143a及び143bが表示されているときに、入力取得部41が、背面タッチパネル51の、上側のページ143aが表示されている位置、すなわち、オブジェクト142の仮想軸144よりも上側の領域に対応する位置においてタップ入力が行われたことを検知すると、回転制御部45は、図27(b)に示すように、オブジェクト142を仮想軸144の周りで、上半分が手前に、下半分が奧に移動するように回転させる。これにより、画面140に表示されるページは、ページ143a及び143bの次のページであるページ146a及び146bに切り替えられる。
 図28(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図28(a)に示すように、画面140にページ143a及び143bが表示されているときに、入力取得部41が、背面タッチパネル51の、下側のページ143bが表示されている位置、すなわち、オブジェクト142の仮想軸144よりも下側の領域に対応する位置においてタップ入力が行われたことを検知すると、回転制御部45は、図28(b)に示すように、オブジェクト142を仮想軸144の周りで、上半分が奧に、下半分が手前に移動するように回転させる。これにより、画面140に表示されるページは、ページ143a及び143bの前のページであるページ145a及び145bに切り替えられる。
 このような機能により、ユーザは、タッチパネル61又は背面タッチパネル51に対するタップ入力により、オブジェクト142を押して回転させ、回転方向に応じて異なる表示対象に切り替えることができるので、直感に合った操作環境を提供することができる。
 図29(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図29(a)に示すように、文書を表示するためのアプリケーション42により、画面150に文書のページ152が表示されている。ページ152は、図29(b)に示すように、表示装置60の表示画面に平行な仮想軸153の周りで回転される直方体状のオブジェクト151の手前側の側面に配置される。オブジェクト151が仮想軸153の周りで手前に回転して倒れると、オブジェクト151の奧に配置されていたオブジェクト154が手前に移動され、オブジェクト154の手前側の側面に配置されたページに表示対象が切り替えられる。オブジェクト151が仮想軸153の周りで奧に回転して倒れると、オブジェクト151の手前に配置されていたオブジェクト156が奧に移動され、オブジェクト156の手前側の側面に配置されたページに表示対象が切り替えられる。判定部43は、ユーザがタッチパネル61においてタップ入力を行うとオブジェクト151の手前側の側面が、背面タッチパネル51においてタップ入力を行うとオブジェクト151の裏側の側面が、ユーザにより押されたものとして、オブジェクト151の回転方向を判定する。
 図30(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図30(a)に示すように、画面150にページ152が表示されているときに、入力取得部41が、タッチパネル61の、オブジェクト151が表示されている位置に対応する位置においてタップ入力が行われたことを検知すると、回転制御部45は、図30(b)に示すように、オブジェクト151を仮想軸153の周りで、奧に倒れるように回転させ、代わってオブジェクト156を表示対象とする。これにより、画面150に表示されるページは、ページ152の前のページであるページ157に切り替えられる。
 図31(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図31(a)に示すように、画面150にページ152が表示されているときに、入力取得部41が、背面タッチパネル51の、オブジェクト151が表示されている位置に対応する位置においてタップ入力が行われたことを検知すると、回転制御部45は、図31(b)に示すように、オブジェクト151を仮想軸153の周りで、手前に倒れるように回転させ、代わってオブジェクト154を表示対象とする。これにより、画面150に表示されるページは、ページ152の次のページであるページ155に切り替えられる。
 このような機能により、ユーザは、タッチパネル61又は背面タッチパネル51に対するタップ入力により、オブジェクト151を押して回転させ、回転方向に応じて異なる表示対象に切り替えることができるので、直感に合った操作環境を提供することができる。
 図32(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図32(a)に示すように、文書を表示するためのアプリケーション42により、画面150に文書のページ152が表示されている。ページ152は、図32(b)に示すように、平面159の上に配置された直方体状のオブジェクト151の手前側の側面に配置される。オブジェクト151が手前側に押されて平面159から落下すると、オブジェクト151の奧に配置されていたオブジェクト154が手前に移動され、オブジェクト154の手前側の側面に配置されたページに表示対象が切り替えられる。オブジェクト151が奧側に押されて平面159から落下すると、オブジェクト151の手前に配置されていたオブジェクト156が奧に移動され、オブジェクト156の手前側の側面に配置されたページに表示対象が切り替えられる。判定部43は、ユーザがタッチパネル61においてタップ入力を行うとオブジェクト151の手前側の側面が、背面タッチパネル51においてタップ入力を行うとオブジェクト151の裏側の側面が、ユーザにより押されたものとして、オブジェクト151の移動方向を判定する。
 図33(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図33(a)に示すように、画面150にページ152が表示されているときに、入力取得部41が、タッチパネル61の、オブジェクト151が表示されている位置に対応する位置においてタップ入力が行われたことを検知すると、移動制御部44は、図33(b)に示すように、オブジェクト151を奧側に移動させた後、下方向に移動させ、代わってオブジェクト156を表示対象とする。これにより、画面150に表示されるページは、ページ152の前のページであるページ157に切り替えられる。
 図34(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図34(a)に示すように、画面150にページ152が表示されているときに、入力取得部41が、背面タッチパネル51の、オブジェクト151が表示されている位置に対応する位置においてタップ入力が行われたことを検知すると、移動制御部44は、図34(b)に示すように、オブジェクト151を手前側に移動させた後、下方向に移動させ、代わってオブジェクト154を表示対象とする。これにより、画面150に表示されるページは、ページ152の次のページであるページ155に切り替えられる。
 このような機能により、ユーザは、タッチパネル61又は背面タッチパネル51に対するタップ入力により、オブジェクト151を押して移動させ、移動方向に応じて異なる表示対象に切り替えることができるので、直感に合った操作環境を提供することができる。
 上記の例においては、タップ入力により表示対象が押されたものとして表示対象を回転又は移動させたが、逆に、表示対象を引っ張る又は吸引するための指示入力をユーザから受け付け、表示対象が引っ張られたものとして表示対象を回転又は移動させてもよい。例えば、表示対象に対応する位置をタップして所定時間以上長押しした後にリリースする操作入力を、表示対象を吸引するための指示入力としてもよい。吸引する対象にユーザが指を押しつけて対象を指に吸着させた後に引っ張っているような操作を、表示対象を吸引するための指示入力とするので、ユーザの直感に合った操作環境を提供することができる。表示対象を吸引するための指示入力は、その他の入力であってもよく、例えば、ピンチイン入力などであってもよい。
 図35(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図35(a)に示すように、入力取得部41は、画面150にページ152が表示されているときに、背面タッチパネル51の、オブジェクト151が表示されている位置に対応する位置においてタップ入力が行われたことを検知すると、タップされた位置を示すオブジェクト158を画面150に表示する。入力取得部41は、同じ位置で所定時間以上タップ入力が行われたことを検知すると、表示対象を吸引するための吸引モードに移行したことをユーザに視覚的に示すために、図35(b)に示すように、オブジェクト158の表示態様を変更する。
 図36(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。表示対象を吸引するための吸引モードに移行した後、図36(a)に示すように、ユーザが背面タッチパネル51から指を離したことを入力取得部41が検知すると、入力取得部41は、入力位置を示す情報と、吸引モードであることを回転制御部45に通知する。回転制御部45は、図31(a)(b)に示した例とは逆に、オブジェクト151を仮想軸153の周りで、奧に倒れるように回転させ、図36(b)に示すように、代わってオブジェクト156を表示対象とする。これにより、画面150に表示されるページは、ページ152の前のページであるページ157に切り替えられる。
 図37(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。図37(a)に示すように、入力取得部41は、画面150にページ152が表示されているときに、タッチパネル61の、オブジェクト151が表示されている位置に対応する位置においてタップ入力が行われたことを検知すると、オブジェクト151の表示態様を変更する。タッチパネル61がタップされた場合、タップされた位置を示すオブジェクトを画面150に表示しても、指に隠れて視認しにくい場合があるので、操作対象となるオブジェクト151全体の表示態様を変更している。入力取得部41は、同じ位置で所定時間以上タップ入力が行われたことを検知すると、表示対象を吸引するための吸引モードに移行したことをユーザに視覚的に示すために、図37(b)に示すように、オブジェクト151の表示態様を更に変更する。
 図38(a)(b)は、タップ入力により表示対象を切り替えるときの画面の例を示す。表示対象を吸引するための吸引モードに移行した後、図38(a)に示すように、ユーザがタッチパネル61から指を離したことを入力取得部41が検知すると、入力取得部41は、入力位置を示す情報と、吸引モードであることを回転制御部45に通知する。回転制御部45は、図30(a)(b)に示した例とは逆に、オブジェクト151を仮想軸153の周りで、手前に倒れるように回転させ、図38(b)に示すように、代わってオブジェクト154を表示対象とする。これにより、画面150に表示されるページは、ページ152の次のページであるページ155に切り替えられる。
 吸引モードにおいて、判定部43は、ユーザがタッチパネル61において表示対象を吸引するための入力を行うとオブジェクト151の手前側の側面が、背面タッチパネル51において入力を行うとオブジェクト151の裏側の側面が、ユーザにより吸引されたものとして、オブジェクト151の回転方向を判定する。
 吸引モードは、様々な機能に利用可能である。例えば、吸引モードにおいて吸引されたオブジェクトを所定の倍率で縮小表示してもよい。これにより、ユーザが背面タッチパネル51において吸引のための入力を行ったときには、オブジェクトがあたかも奧に入り込んだように見せることができ、ユーザがタッチパネル61において吸引のための入力を行ったときには、オブジェクトがあたかも手前に浮き上がったように見せることができ、オブジェクトの移動を三次元的に表現することができる。また、ユーザが指でタッチパネル61又は背面タッチパネル51にタッチしたときに掃除機のアイコンを画面に表示し、画面上に配置されたゴミのオブジェクトの上で所定時間以上タッチし続けるとゴミを吸引するようなゲームを実現することができる。
 タップ入力によりオブジェクトを操作する例において、タップ入力の長さや強さなどに応じて操作の内容を異ならせてもよい。例えば、図24~28に示した例において、タップ入力が所定値よりも長い又は強い場合は、オブジェクト142を2回以上回転させて、2以上前又は次のページに表示対象を切り替えてもよい。タップ入力が長い又は強いほど、多くの回数表示対象を切り替えるようにしてもよい。図29~図38に示した例においても、同様に、タップ入力が長い又は強いほど、多くの回数表示対象を切り替えるようにしてもよい。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、その各構成要素や各処理プロセスの組合せにいろいろな変形が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 実施の形態では、回転ドラム、三次元オブジェクト、循環リストを操作する例について説明したが、本実施の形態の技術は、もちろん、その他のオブジェクトを操作する場合にも適用可能である。例えば、銃を発射するゲームにおいて、画面に表示されている銃を操作して銃の向きを変更する場合や、飛行機などの操縦桿を操作する場合や、滑車により上下する昇降機などを操作する場合など、画面に平行な仮想軸の周りでの回転を観念できる任意の操作対象を操作する場合に、本実施の形態の技術を適用可能である。
 10 ゲーム装置、40 制御部、41 入力取得部、42 アプリケーション、43 判定部、44 移動制御部、45 回転制御部、46 設定部、51 背面タッチパネル、60 表示装置、61 タッチパネル、80 オブジェクトテーブル。
 本発明は、表示装置に表示された表示対象を操作するための入力を受け付けて表示対象を操作する入力制御装置に利用可能である。

Claims (8)

  1.  コンピュータを、
     表示装置の表示画面に表示対象を表示する表示制御部、
     前記表示装置の前記表示画面に併設されたタッチパネル及び前記表示装置の前記表示画面と反対側の面に設けられた背面タッチパネルから、前記表示対象に対する操作入力の位置又は方向を取得する取得部、
     前記取得部が前記背面タッチパネルから前記表示対象に対する操作入力を取得したときに、前記操作入力の位置又は方向と、操作の対象となっている表示対象の種類に応じて、その表示対象を操作する方向を判定する判定部、
     前記判定部により判定された方向に前記表示対象を操作する操作制御部、
     として機能させるための入力制御プログラム。
  2.  前記判定部は、前記表示対象が、前記表示画面に平行な仮想軸の回りで回転可能である場合に、前記取得部が前記背面タッチパネルから前記表示対象に対するある方向の操作入力を取得したときに、前記取得部が前記タッチパネルから前記表示対象に対する同一方向の操作入力を取得したときと反対の方向に前記表示対象を操作すると判定することを特徴とする請求項1に記載の入力制御プログラム。
  3.  前記判定部は、前記表示対象が、表示領域よりも大きな表示部分が循環的にスクロール可能に表示されるものである場合に、前記取得部が前記背面タッチパネルから前記表示対象に対するある方向の操作入力を取得したときに、前記取得部が前記タッチパネルから前記表示対象に対する同一方向の操作入力を取得したときと反対の方向に前記表示対象を操作すると判定することを特徴とする請求項1又は2に記載の入力制御プログラム。
  4.  前記判定部は、前記取得部が前記背面タッチパネルから前記表示対象に対するある方向の操作入力を取得したときに、前記取得部が前記タッチパネルから前記表示対象に対する同一方向の操作入力を取得したときと同じ方向に前記表示対象を操作するか反対の方向に前記表示対象を操作するかを示す情報を、前記表示対象の種類に対応づけて格納したテーブルを参照して、前記表示対象を操作する方向を判定することを特徴とする請求項1から3のいずれかに記載の入力制御プログラム。
  5.  コンピュータを、前記取得部が前記背面タッチパネルから前記表示対象に対するある方向の操作入力を取得したときに、前記取得部が前記タッチパネルから前記表示対象に対する同一方向の操作入力を取得したときと同じ方向に前記表示対象を操作するか反対の方向に前記表示対象を操作するかの設定をユーザから受け付け、受け付けた設定を前記テーブルに登録する設定部として更に機能させることを特徴とする請求項4に記載の入力制御プログラム。
  6.  表示装置の表示画面に表示対象を表示する表示制御部と、
     前記表示装置の前記表示画面に併設されたタッチパネル及び前記表示装置の前記表示画面と反対側の面に設けられた背面タッチパネルから、前記表示対象に対する操作入力の位置又は方向を取得する取得部と、
     前記取得部が前記背面タッチパネルから前記表示対象に対する操作入力を取得したときに、前記操作入力の位置又は方向と、操作の対象となっている表示対象の種類に応じて、その表示対象を操作する方向を判定する判定部と、
     前記判定部により判定された方向に前記表示対象を操作する操作制御部と、
     を備えることを特徴とする入力制御装置。
  7.  表示制御部が、表示装置の表示画面に表示対象を表示するステップと、
     取得部が、前記表示装置の前記表示画面に併設されたタッチパネル及び前記表示装置の前記表示画面と反対側の面に設けられた背面タッチパネルから、前記表示対象に対する操作入力の位置又は方向を取得するステップと、
     判定部が、前記取得部が前記背面タッチパネルから前記表示対象に対する操作入力を取得したときに、前記操作入力の位置又は方向と、操作の対象となっている表示対象の種類に応じて、その表示対象を操作する方向を判定するステップと、
     操作制御部が、前記判定部により判定された方向に前記表示対象を操作するステップと、
     を備えることを特徴とする入力制御方法。
  8.  請求項1から5のいずれかに記載の入力制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2012/004695 2011-10-31 2012-07-24 入力制御装置、入力制御方法、及び入力制御プログラム WO2013065214A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/351,707 US9433857B2 (en) 2011-10-31 2012-07-24 Input control device, input control method, and input control program
EP12846303.1A EP2752745A4 (en) 2011-10-31 2012-07-24 INPUT CONTROL DEVICE, INPUT CONTROL METHOD AND INPUT CONTROL PROGRAM
CN201280052047.1A CN103890703A (zh) 2011-10-31 2012-07-24 输入控制设备、输入控制方法以及输入控制程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011239620A JP5920869B2 (ja) 2011-10-31 2011-10-31 入力制御装置、入力制御方法、及び入力制御プログラム
JP2011-239620 2011-10-31

Publications (1)

Publication Number Publication Date
WO2013065214A1 true WO2013065214A1 (ja) 2013-05-10

Family

ID=48191600

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/004695 WO2013065214A1 (ja) 2011-10-31 2012-07-24 入力制御装置、入力制御方法、及び入力制御プログラム

Country Status (5)

Country Link
US (1) US9433857B2 (ja)
EP (1) EP2752745A4 (ja)
JP (1) JP5920869B2 (ja)
CN (1) CN103890703A (ja)
WO (1) WO2013065214A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016201138A (ja) * 2015-03-12 2016-12-01 Line株式会社 画面制御のための効率的なインタフェースを提供するシステムおよび方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
JP2014035562A (ja) * 2012-08-07 2014-02-24 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
CA154923S (en) * 2013-08-09 2014-11-27 Sony Computer Entertainment Inc Portable electronic multimedia device
GT201400009S (es) * 2013-08-09 2015-02-12 Terminal de información portátil
JP2015121996A (ja) * 2013-12-24 2015-07-02 京セラ株式会社 電子機器
JP6367547B2 (ja) * 2013-12-24 2018-08-01 京セラ株式会社 電子機器
WO2015098061A1 (ja) * 2013-12-24 2015-07-02 京セラ株式会社 電子機器
WO2015096020A1 (en) * 2013-12-24 2015-07-02 Intel Corporation Adaptive enclosure for a mobile computing device
JP6433178B2 (ja) * 2014-07-02 2018-12-05 株式会社ディスコ 加工装置
JP2016015112A (ja) * 2014-07-03 2016-01-28 恆▲こう▼科技股▲ふん▼有限公司 情報入力装置
TWI530864B (zh) * 2014-08-19 2016-04-21 宏碁股份有限公司 可攜式電子裝置以及使用者介面操作方法
USD783423S1 (en) * 2015-05-29 2017-04-11 Thermo King Corporation Housing for a wireless sensor device
JP6972070B2 (ja) * 2016-04-08 2021-11-24 株式会社東芝 プログラム、点検支援端末及び点検支援方法
JP6724259B2 (ja) * 2017-10-31 2020-07-15 富士フイルム株式会社 操作装置、その作動方法および作動プログラム
WO2019187619A1 (ja) * 2018-03-29 2019-10-03 株式会社コナミデジタルエンタテインメント 情報処理装置およびそのプログラムを記録した記録媒体
CN108379844B (zh) * 2018-03-30 2020-10-23 腾讯科技(深圳)有限公司 控制虚拟对象移动的方法、装置、电子装置及存储介质
KR102235533B1 (ko) 2019-05-13 2021-04-05 넷마블 주식회사 복수의 디스플레이들을 포함하는 단말 및 이의 게임 제공 방법
USD959558S1 (en) * 2020-09-21 2022-08-02 Shenzhen AYN Technologies Co., Ltd Handheld game console
USD965686S1 (en) * 2020-11-11 2022-10-04 Shenzhen Moorechip Technologies Co., Ltd Handheld game console

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP2010140417A (ja) * 2008-12-15 2010-06-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2010146506A (ja) * 2008-12-22 2010-07-01 Sharp Corp 入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置
WO2011018869A1 (ja) * 2009-08-11 2011-02-17 株式会社ソニー・コンピュータエンタテインメント ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
JP2011076233A (ja) * 2009-09-29 2011-04-14 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070097151A1 (en) * 2006-04-07 2007-05-03 Outland Research, Llc Behind-screen zoom for handheld computing devices
US20090256809A1 (en) 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US20100277420A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Hand Held Electronic Device and Method of Performing a Dual Sided Gesture
EP2282256A1 (en) * 2009-08-04 2011-02-09 Deutsche Telekom AG Electronic device and method for controlling an electronic device
US8479107B2 (en) * 2009-12-31 2013-07-02 Nokia Corporation Method and apparatus for fluid graphical user interface
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
CN102043534A (zh) * 2010-10-13 2011-05-04 苏州佳世达电通有限公司 电子装置控制方法及电子装置
KR20120089087A (ko) * 2011-02-01 2012-08-09 삼성전자주식회사 단말기 방향에 따른 사용자 인터페이스를 제공하는 단말기 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP2010140417A (ja) * 2008-12-15 2010-06-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2010146506A (ja) * 2008-12-22 2010-07-01 Sharp Corp 入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置
WO2011018869A1 (ja) * 2009-08-11 2011-02-17 株式会社ソニー・コンピュータエンタテインメント ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
JP2011076233A (ja) * 2009-09-29 2011-04-14 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016201138A (ja) * 2015-03-12 2016-12-01 Line株式会社 画面制御のための効率的なインタフェースを提供するシステムおよび方法
US10318127B2 (en) 2015-03-12 2019-06-11 Line Corporation Interface providing systems and methods for enabling efficient screen control

Also Published As

Publication number Publication date
EP2752745A1 (en) 2014-07-09
US9433857B2 (en) 2016-09-06
US20140243092A1 (en) 2014-08-28
EP2752745A4 (en) 2015-06-03
JP2013097563A (ja) 2013-05-20
JP5920869B2 (ja) 2016-05-18
CN103890703A (zh) 2014-06-25

Similar Documents

Publication Publication Date Title
JP5920869B2 (ja) 入力制御装置、入力制御方法、及び入力制御プログラム
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
US8866776B2 (en) Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof
JP5813476B2 (ja) 電子機器およびタッチ操作処理方法
JP5446624B2 (ja) 情報表示装置、情報表示方法及びプログラム
TWI571790B (zh) 依感測信號更改圖示座標值的方法與電子裝置
CN1818840B (zh) 显示激励器
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
US9280265B2 (en) Input control device, input control method, and input control program for controlling display target upon receiving input on display screen of display device
US20130100051A1 (en) Input control device, input control method, and input control program for controlling display target upon receiving input on display screen of display device
WO2015084684A2 (en) Bezel gesture techniques
EP2497009A1 (en) Scrolling and zooming of a portable device display with motion
WO2011149659A2 (en) User interface with z-axis interaction
JP2014109866A (ja) 機器操作装置及びプログラム
KR20140102649A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
TWI502471B (zh) 游標控制方法與電腦程式產品
US20130100050A1 (en) Input control device, input control method, and input control program for controlling display target upon receiving input on display screen of display device
WO2017022031A1 (ja) 情報端末装置
KR101332708B1 (ko) 배면 터치 보조 입력 장치를 갖는 모바일 단말기 및 배면 터치 보조 입력 장치를 탑재한 모바일 단말기용 보호 케이스
KR101725253B1 (ko) 마우스 기능을 구비한 휴대용 단말기
EP3433713B1 (en) Selecting first digital input behavior based on presence of a second, concurrent, input
JP2019096182A (ja) 電子装置、表示方法、およびプログラム
JP5841023B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
KR20110066545A (ko) 터치스크린을 이용하여 이미지를 표시하기 위한 방법 및 단말
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12846303

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012846303

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14351707

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE