WO2013145804A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2013145804A1
WO2013145804A1 PCT/JP2013/050419 JP2013050419W WO2013145804A1 WO 2013145804 A1 WO2013145804 A1 WO 2013145804A1 JP 2013050419 W JP2013050419 W JP 2013050419W WO 2013145804 A1 WO2013145804 A1 WO 2013145804A1
Authority
WO
WIPO (PCT)
Prior art keywords
fat
operating body
swipe
information processing
longitudinal direction
Prior art date
Application number
PCT/JP2013/050419
Other languages
English (en)
French (fr)
Inventor
智也 成田
山本 一幸
山野 郁男
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to KR1020147025948A priority Critical patent/KR20140148381A/ko
Priority to BR112014023286A priority patent/BR112014023286A8/pt
Priority to CN201380015134.4A priority patent/CN104246681B/zh
Priority to US14/374,939 priority patent/US9582096B2/en
Priority to EP13768761.2A priority patent/EP2837997A4/en
Priority to JP2014507458A priority patent/JP6036807B2/ja
Publication of WO2013145804A1 publication Critical patent/WO2013145804A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Patent Document 1 discloses a technique for detecting an operation by forming a plurality of conductors in an island shape and elastically deforming the conductors when an operation by a user is received.
  • Patent Document 2 discloses a technique for specifying a contact position and a contact area of an operation body of a touch panel and enlarging an image displayed at the contact position according to the contact area and displaying the image on another screen. It is disclosed.
  • Patent Document 2 does not consider the direction when the operating body touches the touch panel.
  • the present technology has been devised in view of the above circumstances, and a new and improved information processing apparatus and information processing capable of more intuitive operation in consideration of the direction of the operation tool. It is intended to provide a method and program.
  • an information processing apparatus that includes an operation body direction detection unit that detects a longitudinal direction of an operation body, and an operation direction determination unit that assigns a command to a direction based on the longitudinal direction of the operation body.
  • an information processing method including a step of detecting a longitudinal direction of an operation body and a step of assigning a command to a direction based on the longitudinal direction of the operation body.
  • the computer realizes the operating body direction detecting function for detecting the longitudinal direction of the operating body and the operating direction determining function for assigning a command to a direction based on the longitudinal direction of the operating body.
  • a program is provided.
  • FIG. 4 is an explanatory diagram for describing a basic configuration of an information processing apparatus according to a first embodiment of the present disclosure.
  • FIG. It is explanatory drawing for demonstrating the operation detection method which concerns on the same embodiment. It is explanatory drawing for demonstrating the operating body shape specific method which concerns on the embodiment. It is explanatory drawing for demonstrating the basic operation method which concerns on the embodiment. It is explanatory drawing for demonstrating the example of an operation direction. It is explanatory drawing for demonstrating the example of an operation direction. It is explanatory drawing for demonstrating the example of the area
  • FIGS. 1 and 2 Basic configuration (1 finger fat swipe) 2-1: Overall configuration (Figs. 1 to 3) 2-2 Basic operation of 1-finger fat swipe (Fig. 4) 2-3: Example of operation direction in one-finger fat swipe (FIGS. 5 and 6) 2-4: Example of screen area division (FIGS. 7 and 8) 2-5: Process flow (FIGS. 9 and 10) 3: First modification (two-finger fat swipe) 3-1 Basic operation of two-finger fat swipe ( Figure 11) 3-2: Screen switching in two-finger fat swipe (FIGS. 12 and 13) 3-3: Example of operation direction in two-finger fat swipe (FIG. 14) 4: Second modification (1.5-finger fat swipe; FIGS.
  • the present disclosure relates to touch panel operation and operation direction detection performed by a finger pad or the like in addition to a normal operation by a fingertip or the like performed mainly on one point of the touch panel.
  • an operation method by touching the touch panel with a large area not only with the fingertip but also with the belly of the finger is referred to as fat swipe.
  • a method of switching between a one-finger fat swipe mode for performing a fat swipe with one of the most basic operating bodies (such as a finger and a touch pen) and a normal mode for detecting a normal operation, and the contents of the one-finger fat swipe Will be described.
  • a fat swipe performed by two operating bodies, a fat swipe combined with a normal operation, and a fat swipe performed by a movement of an operating body different from the one-finger fat swipe will be described as modified examples.
  • One-finger fat swipe is an operation method for switching screens and functions when one finger touches not only the fingertip but also a large area on the touch panel and the finger is moved in a horizontal direction perpendicular to the finger. .
  • FIG. 1 is an explanatory diagram for explaining a basic configuration of the information processing apparatus according to the present embodiment.
  • FIG. 1 The overall configuration shown in FIG. 1 is an example, and some components may be changed, added, or deleted.
  • an information processing apparatus including an in-cell touch panel in which a touch panel function is integrated in a liquid crystal panel will be mainly described.
  • the information processing apparatus 10 includes an operation detection unit 102, an operation tool position / shape specifying unit 104, a mode switching unit 110, a normal mode execution unit 112, and a fat swipe mode execution unit 114. Prepare mainly.
  • the operating body position / shape specifying unit 104 includes an operation region specifying unit 106 and an aspect ratio calculating unit 108.
  • the fat swipe mode execution unit 114 includes an operation body direction detection unit 116, an operation direction determination unit 118, a display control unit 118, and a display unit 120.
  • the operation detection unit 102 When an operation by the user of the information processing apparatus 10 is performed, the operation detection unit 102 first detects the operation.
  • the user operates the touch panel with an operation body such as a finger or a touch pen.
  • the operation detection unit 102 includes information that can distinguish between a state in which the user's finger is in contact with the touch panel, a close state, and a separated state, such as a conductor in an in-cell touch panel.
  • a sensor to acquire is provided.
  • the operation of the screen of the display unit 120 by the user may distinguish between contact and non-contact, or may distinguish between proximity and non-contact.
  • the case where a user's operation is performed by contact is mainly demonstrated.
  • the operation detection unit 102 detects a finger touch by the user.
  • the detection target includes both a case where the user touches with a fingertip intended to perform a normal operation and a case where a user touches a wide area including the belly of a finger intended to perform a fat swipe.
  • a signal is input from the operation detection unit 102 to the operation tool position / shape specifying unit 104.
  • the operation body position / shape specifying unit 104 specifies the shape of the operation body such as a finger. By specifying the shape, it is intended to distinguish between a normal touch and a touch for performing a fat swipe.
  • FIG. 2 is an explanatory diagram for explaining an operation detection method.
  • FIG. 2A shows a normal touch.
  • FIG. 2B shows a touch intended for fat swipe.
  • TA in FIG. 2A indicates a contact area when the user touches the information processing apparatus 10 with the hand H1 by a normal method.
  • TB of FIG.2 (b) has shown the contact area
  • the shape of the contact area is different between the case of touching by a normal method and the case of touching with the intention of fat swipe. Different.
  • the belly of the finger also touches the screen of the display unit 120, so that the shape of the contact area becomes a vertically long shape as compared with the case of normal touch.
  • the area of the contact area is considered to be larger than that in a normal case, the area of the contact area in the case of a normal touch and in the case of a touch intended for fat swipe is greatly different for each user.
  • the difference and ratio of the contact area in the case of a normal touch by a user and in the case of a touch intended for fat swipe are also greatly different for each user.
  • FIG. 3 is an explanatory diagram for describing the operating body shape specifying method according to the embodiment.
  • FIG. 3A shows a normal touch.
  • FIG. 3B shows a touch intended for fat swipe.
  • the length in the short direction when the contact area is surrounded by a rectangle.
  • the ratio of the length in the longitudinal direction to is large.
  • the operation area specifying unit 106 of the operating body position / shape specifying unit 104 first specifies a contact area where the operating body is in contact with the screen of the display unit 120.
  • the method for detecting the contact area includes, for example, a method for measuring the pressure applied to each part of the display unit 120.
  • the operation region specifying unit 106 further surrounds the specified contact portion with a rectangle that best includes the shape of the specified contact portion, and measures the length in the longitudinal direction and the length in the short direction of the rectangle.
  • the rectangle that best includes the shape of the contact portion is, for example, a rectangle that circumscribes the contact portion.
  • the operation area specifying unit 106 specifies the position and direction of the rectangle surrounding the contact portion, and outputs information on the position and direction to the fat swipe mode execution unit 114.
  • the length h in the longitudinal direction and the length w in the short direction measured by the operation area specifying unit 106 are input to the aspect ratio calculating unit 108.
  • the aspect ratio calculation unit 108 calculates the ratio of the length h in the longitudinal direction to the input length w in the short direction as an aspect ratio of a rectangle surrounding the contact portion.
  • the aspect ratio of the rectangle calculated by the aspect ratio calculation unit 108 is input to the mode switching unit 110.
  • the mode switching unit 110 selects one of the normal mode and the fat swipe mode according to the rectangular aspect ratio range surrounding the contact portion.
  • the mode switching unit 110 selects the fat swipe mode when the aspect ratio of the rectangle surrounding the contact portion is equal to or greater than the predetermined threshold value TH, and selects the normal mode when it is less than the predetermined threshold value TH.
  • the above-mentioned threshold value TH may be changed as appropriate according to the shape of the user's finger and the manner of operation.
  • the normal mode execution unit 112 executes the normal mode.
  • the normal mode the user performs fine operations with a fingertip or the like, and the normal mode execution unit 112 executes various applications according to the user's operations.
  • the fat swipe mode execution unit 114 executes the fat swipe mode.
  • the information regarding the position and direction of the rectangle surrounding the contact portion specified by the operating body position / shape specifying unit 104 is input to the operating body direction detecting unit 116 of the fat swipe mode execution unit 114.
  • the operating body direction detection unit 116 detects the direction of the operating body when the operating body touches the screen of the display unit 120 based on the position and direction of the rectangle surrounding the input contact portion. For example, the operating tool direction detection unit 116 detects the rectangular longitudinal direction as the direction of the operating tool.
  • the direction of the operation body detected by the operation body direction detection unit 116 is input to the operation direction determination unit 118.
  • the operation direction determination unit 118 determines one or a plurality of directions in which the user can move the operation body according to the detected direction of the operation body. For example, the operation direction determination unit 118 determines a direction perpendicular to the detected direction of the operation body as the operation direction.
  • the operation direction determination unit 118 determines the short direction of the contact portion as the operation direction.
  • the operation direction determination unit 118 also includes a function of assigning a command corresponding to the direction to each direction in which the user can move the operation tool.
  • the fat swipe mode execution unit 114 can specify the movement of the operating tool.
  • the operation direction determination unit 118 determines the direction in which the user can move the operation body. Therefore, when the motion of the operating tool is expressed by a vector, the description will be made assuming that the following processing is performed using the component in the direction determined by the operation direction determining unit 118.
  • the display control unit 119 receives information indicating the direction of the operating tool from the operating tool direction detection unit 116. Further, information indicating the operation direction is input from the operation direction determination unit 118 to the display control unit 119. Further, the position information of the operating tool is input from the operating tool position / shape specifying unit 104 to the display control unit 119.
  • the display control unit 119 performs display control of the display unit 120 based on the input information. Refer to Section 2 below for details on display control for user operations and command assignment methods.
  • FIG. 4 is an explanatory diagram for explaining a basic operation method in the fat swipe mode.
  • FIG. 4 shows that the screen display changes from (a) to (c).
  • R1 in FIG. 4 represents a rectangle (hereinafter simply referred to as a rectangle) surrounded so as to best include the contact portion between the operating body operated by the user and the screen of the display unit 120. .
  • This rectangle may be displayed on the display unit 120 or may not be displayed and only used for processing.
  • the direction of the operating body is not limited to the longitudinal direction of the rectangle, but in the following, the description will be made assuming that the longitudinal direction of the rectangular body is the direction of the operating body.
  • the display control unit 119 displays the cursor C1 at the rectangular position of the display unit 120.
  • the display control unit 119 displays the cursor C1 so that the longitudinal direction of the cursor C1 matches the longitudinal direction of the rectangle.
  • the display control unit 119 displays arrows A1_R and A1_L corresponding to directions determined by the operation direction determination unit 118 in which the user can move the operating body (hereinafter referred to as operation directions). .
  • the rectangular short direction is the operation direction
  • the display control unit 119 displays the arrow A1_L on one side of the cursor C1 and the arrow A1_R on the other side.
  • the display control unit 119 further displays different screens on both sides using the longitudinal direction of the operation body as a reference (boundary). Support different commands and applications. For example, the display control unit 119 causes the display unit 120 to display the screen of the PIC 1 in FIG. 4 before an operation by the user is performed.
  • the display control unit 119 has different images PIC1 on the left and right with respect to the longitudinal direction of the cursor C1, as shown in FIG. 4A. And PIC2 are displayed.
  • the image PIC1 is a home image displayed during standby before starting various applications
  • the image PIC2 is an image associated with a specific application or function.
  • the user can call an application associated with the image PIC2 by touching with the intention of a fat swipe. It is possible to apply such technology.
  • the screen display as shown in FIG. 4A is first performed.
  • FIG. 4B is an explanatory diagram for explaining a case where the user further moves the operating tool to the left side of the drawing in the situation shown in FIG.
  • the position and direction of the operation tool are specified by the operation tool position / shape specifying unit 104 according to the movement, and the fat swipe mode execution unit 114 determines the operation direction and displays it. Control.
  • the position of the cursor C1 displayed by the display control unit 119 and the positions of the arrows A1_R and A1_L also follow. Further, when the cursor C1 moves, the boundary position of the screen division of the display unit 120 with the position of the cursor C1 as a boundary also changes.
  • the user touches the operating body at a desired position with the intention of performing a fat swipe as shown in FIG. Thereafter, it is possible to change the ratio of the area of the entire display unit 120 of the screen displaying the image PIC1 and the screen displaying the image PIC2 by moving the operating tool to a desired position.
  • the action intended by the user includes selection of the image PIC1 or selection of the image PIC2. Note that, by selecting each image, the information processing 10 can start an application associated with each image and execute a function.
  • the user touches the screen of the display unit 120 and then separates the image, the user intends to select one of the two images with the position of the cursor C1 as a boundary. It is possible to make a determination based on the position of the operating body that is in contact with the screen of the display unit 120 immediately before the separation and the moving direction of the operating body.
  • first region For example, consider dividing the screen of the display unit 120 into two regions along the longitudinal direction of the operation body. One region is referred to as a first region, and the other region is referred to as a second region.
  • one of the first region and the second region is a left region, and the other is a right region.
  • the display control unit 119 displays the image PIC2 on the entire screen of the display unit 120.
  • the display control unit 119 displays the image PIC1 on the entire screen of the display unit 120.
  • the display control unit 119 can also switch an image to be displayed on the display unit 120 in consideration of the moving direction of the operating body in addition to the position where the operating body is in contact immediately before the user moves the operating body apart. It is.
  • the display control unit 119 displays the selected image on the entire screen of the display unit 120.
  • the user switches the image. It may be determined that the operation to be performed is stopped halfway, and the image displayed in the right region is displayed.
  • the operating body position / shape specifying unit 104 specifies the position and shape of the operating body, and each part of the fat swipe mode execution unit 114 performs display control or the like corresponding to the position and shape of the operating body.
  • FIGS. 5 and 6 are explanatory diagrams for explaining examples of operation directions.
  • the cursor C1 is moved in the longitudinal direction of the display unit 120.
  • the display control unit 119 displays the arrow A1_U on one side of the position of the cursor C1 as a boundary and the arrow A1_D on the other side.
  • the display control unit 119 further displays the image PIC1 and the image PIC2 with the position of the cursor C1 as a boundary.
  • the user can switch the screen by moving the operating body in the short direction of the display unit 120.
  • the operating body can be brought into contact with the screen of the display unit 120 in a direction other than the longitudinal direction or the short direction of the display unit 120.
  • the image displayed while the operating body is in contact may be different depending on the contact direction of the operating body.
  • the display control unit 119 displays the image PIC2 in addition to the image PIC1.
  • the display control unit 119 displays the image PIC3 in addition to the image PIC1.
  • the display unit 120 is divided into two regions (first region RF and second region LF) so as to pass through the center thereof.
  • a more relative method of dividing the screen area based on the position of the operating body may be used.
  • the screen of the display unit 120 is divided into two regions (first region RF) with a longitudinal line of the rectangle R1 passing through the start position where the user touches the display unit 120 as the boundary. And the second region LF).
  • FIG. 10 is a diagram showing detailed processing in the processing step S110 of FIG.
  • the operation detection unit 102 determines whether or not the user has operated the information processing apparatus 10 (S102).
  • the process waits until it is detected.
  • the operation area specifying unit 106 specifies the operation area (S104).
  • the operation area corresponds to a contact area between the operation tool and the screen of the display unit 120 when the user performs an operation by bringing the operation tool into contact with the screen of the display unit 120.
  • the operation area specifying unit 106 first specifies the operation area, and then encloses the specified operation area with a rectangle that best includes the operation area. Further, the length in the longitudinal direction and the length in the short direction of the rectangle are also specified. The operation area specifying unit 106 also measures the length h in the longitudinal direction and the length w in the short direction of the rectangle.
  • the aspect ratio calculation unit 108 calculates the ratio of the length h in the longitudinal direction to the length w in the short direction of the rectangle measured by the operation region specifying unit 106 as the aspect ratio of the rectangle (S106).
  • the mode switching unit 110 switches between the normal mode and the fat swipe mode based on the rectangular aspect ratio.
  • the mode switching unit 110 determines whether or not the aspect ratio of the rectangle is equal to or greater than a predetermined threshold (S108).
  • the mode switching unit 110 selects the fat swipe mode.
  • the fat swipe mode execution unit 114 executes the fat swipe mode (S110).
  • the mode switching unit 110 selects the normal mode.
  • the normal mode execution unit 112 executes the normal mode (S112).
  • the information processing apparatus 10 waits for the next operation from the user.
  • the information processing apparatus 10 waits for an operation from the user, the information processing apparatus 10 performs a series of processes from the operation detection in the process step S102 again.
  • the operation standby is not performed, for example, when the operation is not performed by the user for a certain time, the information processing apparatus 10 ends the series of processes (S114).
  • the operating body direction detection unit 116 of the fat swipe mode execution unit 114 detects the direction of the operating body (S1102).
  • the operating tool direction detection unit 116 detects the longitudinal direction of a rectangle surrounding the operating tool as the direction of the operating tool.
  • the operation direction determination unit 118 determines a direction in which the user can move the operation tool (S1104). For example, the operation direction determination unit 118 determines a direction perpendicular to the direction of the operation body as the operation direction.
  • the display control unit 119 performs display control of the display unit 120 in accordance with the detected movement. For example, the display control unit 119 displays the cursor C1 along the longitudinal direction of the operating body at the position of the operating body, displays the arrows A1_R and A1_L indicating the operating direction, and displays the screen with the position of the cursor C1 as a boundary. , And display different images on each screen. Thereafter, the information processing apparatus 10 ends the series of processes (S1108).
  • the above processing flow is an example of the processing flow performed by the information processing apparatus 10, and the order of some processing steps may be changed or omitted.
  • FIG. 11 is an explanatory diagram for explaining operations in the present modification.
  • R1 represents a rectangle corresponding to the first operating body.
  • the rectangle R1 may be actually displayed on the display unit 120 or may not be displayed.
  • the user While the user operates the first operation body and the fat swipe mode execution unit 114 of the information processing apparatus 10 executes the fat swipe mode, the user is an operation body different from the first operation body.
  • the second operating body is further brought into contact with the screen of the display unit 120, execution of the two-finger fat swipe mode is started.
  • the operating body position / shape specifying unit 104 specifies the position and shape of the second operating body in the same manner as the position and shape of the first operating body.
  • the fat swipe mode execution unit 114 executes the two-finger fat swipe mode using the identification result obtained by the operating tool position / shape identification unit 104.
  • the image viewed from the user who is executing the two-finger fat swipe mode is as shown in FIG. In FIG. 11, during execution of the one-finger fat swipe mode, the second operating body is brought into contact with the display unit 120 so that the longitudinal direction of the first operating body matches the longitudinal direction of the second operating body.
  • R2 represents a rectangle corresponding to the second operating body.
  • the rectangle R2 may be actually displayed on the display unit 120 or may not be displayed.
  • the display control unit 119 displays the cursor C2 corresponding to the second operating body at the position of the rectangle R2 of the display unit 120.
  • the display control unit 119 causes the display so that the longitudinal direction of the cursor C2 matches the longitudinal direction of the rectangle.
  • two cursors C1 and C2 are displayed by two operating bodies (first and second operating bodies).
  • the screen of the display unit 120 is divided into three areas by the two cursors C1 and C2.
  • the display control unit 119 displays the third image PIC3 during execution of the two-finger fat swipe mode in addition to the images PIC1 and PIC2 displayed during execution of the one-finger fat swipe mode.
  • the image PIC3 is displayed by further operation by the user while the images PIC1 and PIC2 are displayed, the image PIC3 that is additionally displayed when the two-finger fat swipe mode is executed, It is considered that it is easy for the user to understand and operate the display in the area between the cursors C1 and C2.
  • the following mainly describes a case where the image PIC3 additionally displayed when the two-finger fat swipe mode is executed is displayed in the area between the cursors C1 and C2.
  • the image PIC1 and the PIC2 originally displayed on the screen of the display unit 120 are newly associated with another application or function.
  • the image PIC3 is inserted.
  • the cursors C1 and C2 move so that the operating body follows. Moreover, the ratio of the area in the whole display part 120 of each screen which displays each image changes according to the movement of cursor C1 and C2.
  • images PIC1, PIC2, and PIC3 are displayed on the screens with the positions of the two cursors C1 and C2 as boundaries.
  • the display area of the image (image PIC3 in the example of FIG. 12A) displayed in the center area on the screen of the display unit 120 becomes narrow according to the movement.
  • the user moves the operating tool so as to narrow the display area of a predetermined image (in the example of FIG. 12A, the image PIC3), the user does not intend to select the image. Conceivable. In other words, it is considered that an image other than the image (image PIC1 or PIC2 in the example of FIG. 12A) is being selected.
  • first operating body and the second operating body are brought closer to each other than a certain level, it becomes difficult to make them approach further, and the necessity of distinguishing between the two operating bodies is reduced.
  • the fat swipe mode execution unit 114 starts from the two-finger fat swipe mode. Switch to single-finger fat swipe mode.
  • FIG. 12B shows a screen display example after switching from the two-finger fat swipe mode to the one-finger fat swipe mode.
  • the display control unit 119 displays one cursor C1, two images with the cursor C1 as a boundary, and an arrow A1_R indicating the direction in which the user can move the operating tool. And A1_L are displayed.
  • the information processing apparatus 10 may detect one of the two operating bodies that are in contact with the display unit 120 as the operating body in the one-finger fat swipe mode execution.
  • the user can further select one of the images displayed on the display unit 120 by performing a one-finger fat swipe.
  • the user can display the image PIC1 in full screen or the image PIC2 in full screen.
  • the user moves either one or both of the first operating body and the second operating body so as to keep the first operating body and the second operating body away from each other.
  • the fat swipe mode execution unit 114 is displayed between the first operating body and the second operating body. It is determined that the selected image (image PIC3 in FIG. 13A) has been selected. In this case, the display control unit 119 of the fat swipe mode execution unit 114 displays the image displayed between the first operating body and the second operating body on the display unit 120 in full screen.
  • the user performs two-finger fat swipe by bringing the two operating bodies into contact with the display unit 120 so that the second operating body is perpendicular to the first operating body.
  • the longitudinal direction of the first operating body coincides with the short direction of the second operating body.
  • FIG. 14 is an explanatory diagram for describing an example of an operation direction in the present modification.
  • the one-finger fat swipe mode is executed when the user brings the first operating body into contact with the display unit 120.
  • the operating body position / shape specifying unit 104 specifies the positions and shapes of the first operating body and the second operating body.
  • the display control unit 119 of the fat swipe mode execution unit 114 performs display control of the display unit 120 based on the specified position and shape.
  • FIG. 14B is a screen display example of the display unit 120 in the two-finger fat swipe mode.
  • the cursor corresponds to the cursor C1 and the second operating body corresponding to the first operating body.
  • the cursor C2 is also in a vertical positional relationship.
  • the display control unit 119 preferentially displays the cursor C1 that has been continuously displayed since the one-finger fat swipe mode is executed.
  • the display control unit 119 displays the cursor C2 so as to further divide the screen area divided by the cursor C1, and displays the images PIC2 and PIC3 with the cursor C2 as a boundary. .
  • the region touched by the second operating body can be divided in the two-finger fat swipe. It is.
  • FIGS. 15 and 16 Second modification (1.5-finger fat swipe; FIGS. 15 and 16)>
  • the one-finger fat swipe performed by one operating body and the two-finger fat swipe performed by two operating bodies have been described.
  • toe fat swipe is demonstrated, referring FIG.15 and FIG.16. 15 and 16 show screen display examples according to this modification.
  • 1.5-finger fat swipe operation is performed with two operating bodies. However, unlike a two-finger fat swipe, a single-finger fat swipe is performed with one operating body, and a normal operation is performed with the other operating body.
  • the 1.5-finger fat swipe mode technology is an application of the one-finger fat swipe mode technology, which is a technology corresponding to the one-finger fat swipe.
  • the fat swipe mode execution unit 114 executes the one-finger fat swipe mode.
  • the cursor C1 is displayed according to the direction of the operating body, the screen of the display unit 120 is divided with the position of the cursor C1 as a boundary, and the images PIC1 and PIC2 are displayed on each of the divided screens. ing.
  • the user performs a normal operation with the second operating body (second operating body).
  • second operating body As shown in FIG. 15B, the user performs a normal operation with the second operation body on one screen of the screens of the display unit 120 divided in the one-finger fat swipe mode.
  • the fat swipe mode execution unit 114 switches from the one-finger fat swipe to the 1.5-finger fat swipe mode.
  • FIG. 15B shows a screen display example when the user performs an operation with the second operating tool on the screen on which the image PIC2 is displayed in FIG. 15A.
  • FIG. 15B shows a screen display example when the operation direction of the first operation body and the operation direction of the second operation body are vertical.
  • 16 also shows a screen display example during execution of the one-finger fat swipe mode in (a), and a screen display example during execution of 1.5-finger fat swipe mode in (b).
  • FIG. 16 shows a screen display example in the case where the operation direction of the first operating body and the operation direction of the second operating body are the same.
  • FIG. 17 shows a screen display example according to this modification.
  • an operation is performed by bringing one operating body into contact with the display unit 120 over a wide range.
  • the single-finger twist fat swipe is configured to twist the operation body on the screen of the display unit 120. Perform the operation.
  • the one-finger twist fat swipe mode technology is an application of the one-finger fat swipe mode technology corresponding to the one-finger fat swipe technology.
  • the fat swipe mode execution unit 114 may execute the one-finger twist fat swipe mode.
  • the display control unit 119 responds to the direction in which the operating body touches the display unit 120 in the same manner as in the one-finger fat swipe mode.
  • the cursor C1 is displayed.
  • the display control unit 119 displays an image on each screen of the display unit 120 divided by using the cursor position as a boundary. Further, the display control unit 119 displays an arrow A1 indicating a direction in which the operating body can be twisted.
  • the display control unit 119 When the user performs a twist fat swipe, that is, twists the operation body that is in contact with the display unit 120, the display control unit 119 gradually displays new images (image PIC3 and image PIC4) as shown in FIG. ) Is displayed.
  • the user can display an image associated with a desired function or the like with an intuitive movement that expands the fan.
  • the information processing apparatus 10 focuses on the function corresponding to the last displayed image among the displayed images and waits for the user to select the function.
  • FIG. 17B shows that the display control unit 119 indicates that the last displayed image (in other words, a predetermined function associated with the image) is in focus. Like the image PIC4), a color different from that of the other image is added to the selected image so that the user can confirm it.
  • the selected image and the other image can have different transparency, It may be surrounded by a thick line.
  • the information processing apparatus 10 recognizes that the user has selected a function associated with the image, and the function And so on.
  • the display control unit 119 displays the image PIC5 associated with another function as shown in FIG. Display and focus.
  • FIG. 18 shows a screen display example according to this modification.
  • 1.5-finger twist fat swipe operation is performed with two operating bodies.
  • one finger twist fat swipe is performed with one operating body (first operating body), and the other operating body (second operating body) is usually used. Perform the operation.
  • the 1.5-finger twist fat swipe mode technology is an application of the one-finger fat swipe mode technology, which is a technology corresponding to the one-finger twist fat swipe.
  • the 1.5-finger twist fat swipe mode is used in addition to the image displayed by the operation of the first operation body during the execution of the one-finger twist fat swipe mode on the first operation body.
  • another image image PIC5 in the example of FIG. 18
  • image PIC5 can be opened or tapped to be selected by the second operating body.
  • 1.5-finger twist fat swipe combining one-finger twist fat swipe and normal operation allows you to select and execute many types of functions with intuitive and few steps Is possible.
  • FIGS. 19 to 22 Application examples for application switching (FIGS. 19 to 22)]
  • FIGS. 19 to 22 an application example in which the technology according to the basic configuration and the modification described above is applied to image switching corresponding to an application will be described.
  • 19 to 22 are explanatory diagrams for describing application examples of the present embodiment.
  • FIG. 19 illustrates an example of switching between an image PIC1 associated with an application displaying a detailed map and an image PIC2 associated with an application displaying a wide area map in the device 11 having a navigation function.
  • FIG. 19 shows an image displaying a part of the detailed map as the image PIC1 associated with the application displaying the detailed map.
  • FIG. 19 shows an image displaying a part of the wide area map as the image PIC2 associated with the application for displaying the wide area map.
  • the user can smoothly switch between the detailed map and the wide area map by performing a fat swipe with the hand opposite to the driving hand while driving the car.
  • an enlarged or reduced image of an image displayed on one side of the operating body can be displayed on the other side of the operating body.
  • FIG. 20 illustrates an example of switching between an image PIC1 associated with an application that performs navigation and an image PIC2 associated with an application that performs music playback in the device 11 having a navigation function.
  • a user usually displays a map in full screen and drives a car while viewing the map.
  • a situation may be considered in which an application that performs music playback in the back is executed to listen to music while an application that performs navigation is executed.
  • the user can switch screens by a simple operation called fat swipe when operating an application for playing music, for example, selecting, playing, or stopping a song.
  • the technology according to the present embodiment can also be applied to screen switching of the display device 12 such as a television.
  • the display device 12 such as a television.
  • the display control unit 119 recognizes the operation body such as the user's arm ARM and displays the cursor C1 at the position on the screen indicated by the operation body. For example, the display control unit 119 displays a television program as the image PIC1, and displays a television program different from the image PIC1 as the image PIC2.
  • the display control unit 119 can display a video such as a TV program on one screen divided by the cursor C1, and can display information such as a program guide on the other screen. is there.
  • FIGS. 23 and 24 are explanatory diagrams for describing an application example of the present embodiment.
  • Fig. 23 For example, in an imaging apparatus having a plurality of shooting modes, by using fat swipe, it is possible to perform mode switching with few operation steps and intuitive operations.
  • the user switches between the normal shooting mode MD1 and the night shooting mode MD2.
  • the user can instantaneously switch between a shooting mode for performing imaging and a playback mode for the user to confirm a previously captured image.
  • the user can instantaneously switch to the shooting mode without missing a photo opportunity. Is possible.
  • FIG. 25 shows an example in which the user who takes a picture with the imaging apparatus performs the zoom adjustment by performing a fat swipe on the preview screen.
  • the display control unit 119 displays an arrow A1_U indicating the direction in which the user can move the operating tool on the captured image PIC1.
  • A1_D is superimposed and displayed.
  • the display control unit 119 performs a character display W_U indicating the operation (for example, zoom) of the imaging device associated when the operating tool is moved in the direction indicated by the one arrow A1_U. Further, the display control unit 119 performs a character display W_D indicating an operation (for example, wide) associated with the operation tool when the operating tool is moved in the direction indicated by the other arrow A1_D.
  • a character display W_U indicating the operation (for example, zoom) of the imaging device associated when the operating tool is moved in the direction indicated by the one arrow A1_U.
  • the display control unit 119 performs a character display W_D indicating an operation (for example, wide) associated with the operation tool when the operating tool is moved in the direction indicated by the other arrow A1_D.
  • FIG. 25 (b) shows a case where the user moves the operating tool in the direction indicated by the arrow A1_U and the captured image PIC1 of the zoom image is displayed in FIG. 25 (a).
  • FIG. 25C shows a case where the user moves the operating tool in the direction indicated by the arrow A1_D in FIG. 25A and the wide-image captured image PIC2 is displayed.
  • the user can also perform a fat swipe without moving the line of sight from the captured image PIC1 displayed on the preview screen, and it is possible to prevent the zoom adjustment from taking time and missing a photo opportunity.
  • zoom adjustment function described above can be applied to display control in various devices in addition to being applied to the preview screen of the imaging device. Further, instead of displaying characters indicating the operation of the imaging apparatus, icons may be displayed.
  • the display device 12 or the like can be configured to adjust the volume.
  • the camera ARM of the display device 12 captures the arm ARM held by the user in front of the display device 12, and performs object recognition.
  • the display device 12 increases the volume according to the movement. To do.
  • the technique according to the present embodiment can be applied when adjusting the parameter values such as the shutter speed in the imaging apparatus.
  • the fat swipe mode is started as shown in FIG. 27A, and then, as shown in FIG. 27B, the user moves the operating body in the direction of increasing the shutter speed.
  • FIG. 27 it is also possible to display the value of the currently set parameter.
  • the shutter speed is 1/50 as shown in FIG. 27A
  • the user performs a fat swipe so as to increase the shutter speed. Is adjusted to 1/100.
  • the imaging device when the imaging device detects that the operating body is touched in the short direction of the display unit 120 and detects the movement of the operating body in the longitudinal direction of the display unit 120, the imaging device sets the shutter speed. adjust.
  • the ISO sensitivity is adjusted.
  • FIG. 29 For example, as shown in FIG. 29, the technology according to the present embodiment can be applied to a page moving operation on a screen of a web browser or the like.
  • a page moving operation on a screen of a web browser or the like.
  • An arrow A1_L is displayed in one direction of the hand direction
  • an arrow A1_R is displayed in the other direction, indicating that the user can move the operating tool in the short direction.
  • the display control unit 119 displays the character display W_L corresponding to the operation of “returning the page” on one side of the operation body, and displays the character display W_R corresponding to the operation of “forwarding the page” on the other side of the operation body. It is possible to display on the side.
  • the display control unit 119 displays the current display.
  • the image PIC1 that has been browsed before the user browses the image PIC2 is displayed.
  • the user can switch between these images PIC1 and PIC2 by fat swipe.
  • the display control unit 119 displays the current display.
  • the image PIC3 that the user has browsed before viewing the image PIC2 is displayed. The user can switch between these images PIC2 and PIC3 by fat swipe.
  • Fig. 30 Further, it can be applied to page switching of the book reader 13 or the like. For example, when the user performs a fat swipe while the image PIC1 associated with a certain page is displayed, a user interface that switches to the image PIC2 associated with the next page can be realized. is there.
  • the user can move to an image associated with the previous and subsequent pages while confirming an image associated with a certain page.
  • an image PIC2 indicating information about the title, author, etc. of the electronic book is displayed together with the image PIC1 indicating the text of the electronic book.
  • the additional information is displayed as the image PIC2 together with the image PIC1 of the television program.
  • the user when the user needs additional information such as cooking ingredients taken up in the cooking program while viewing the cooking program, the user operates the display device 12 by moving the arm ARM, Additional information can be obtained.
  • FIG. 33 Game application example (FIG. 33)
  • the facial expression of the character displayed on the screen changes step by step each time a fat swipe is performed.
  • the character is laughing step by step from FIG. 33 (a) to FIG. 33 (c).
  • an information processing device expressed as (1) below enables more intuitive operation in consideration of the direction of the operating body.
  • the longitudinal direction of the operating body can be any direction, and the user can determine the desired direction. According to the information processing apparatus expressed as (1) below, more specifically, an operation based on the direction of the operating tool reflecting the user's intention can be performed.
  • An operating body direction detector for detecting the longitudinal direction of the operating body;
  • An operation direction determination unit that assigns a command to a direction based on the longitudinal direction of the operation body;
  • An information processing apparatus comprising:
  • the operation direction determination unit A different command is assigned to each of a plurality of directions based on the longitudinal direction of the operating body.
  • a display control unit for displaying a first display object representing the longitudinal direction of the operation body;
  • the information processing apparatus according to (1) or (2).
  • the display control unit displays a second display object representing a direction based on a longitudinal direction of the operation body;
  • the information processing apparatus according to (3).
  • the display control unit displays the screen area by dividing the screen region at a boundary along the longitudinal direction of the operation body, with the position of the operation body as a reference.
  • the display control unit adjusts the ratio of each screen area in the entire screen according to one or both of the position and movement of the operating body.
  • the information processing apparatus according to (5).
  • An aspect ratio calculating unit for calculating an aspect ratio of an operation area by the operating body;
  • the longitudinal direction of the operating body is calculated based on the aspect ratio of the region.
  • the operation body direction detection unit detects a longitudinal direction of each of the plurality of operation bodies, The operation direction determination unit assigns a command to a direction based on a longitudinal direction of each operation body.
  • the information processing apparatus according to any one of (1) to (7).
  • the aspect ratio calculation unit calculates an aspect ratio of a region corresponding to each of the plurality of operating bodies,
  • the operating body direction detection unit detects a longitudinal direction of the operating body in the operating body in which the aspect ratio of the operating area is within a predetermined range,
  • the operation direction determination unit assigns a command to a direction based on the longitudinal direction of the operation body.
  • the operation body further includes an operation detection unit that detects a position of the operation body in proximity or contact.
  • the information processing apparatus according to any one of (1) to (9).
  • An operation body direction detection function for detecting the longitudinal direction of the operation body;
  • An operation direction determination function for assigning a command to a direction based on the longitudinal direction of the operation body;
  • the operating tool position / shape specifying unit 104 is an example of an operating tool shape specifying unit.
  • the arrow displayed on the display unit 120 is an example of a second display object.
  • the cursor displayed on the display unit 120 is an example of a first display object.

Abstract

 操作体の方向を考慮して、より直感的な操作が可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提供する。操作体の長手方向を検出する操作体方向検出部と、前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定部と、を備える情報処理装置。

Description

情報処理装置、情報処理方法及びプログラム
 本開示は、情報処理装置、情報処理方法及びプログラムに関する。
 近年、タッチパネルを備える情報処理装置において、指等の操作体の位置特定を精度良く行うことが可能な技術が開示されている。例えば、特許文献1には、複数の導電体を島状に形成され、ユーザによる操作を受けた際に当該導電体が弾性変形されることにより、操作検出を行う技術が開示されている。
 また、上記のように操作体の位置特定を精度良く行うことができるようになったことで、より直感的なタッチパネルの操作方法も創作されてきている。
 例えば、下記の特許文献2には、タッチパネルの操作体の接触位置及び接触面積を特定し、接触位置に表示されている画像を、接触面積に応じて拡大して別の画面に表示する技術が開示されている。
 また、例えば、下記の特許文献3には、操作体と表示部の接触点の位置及び接触点とは異なる近接点の位置を特定することにより、操作体をツイストさせる動きを検知し、操作性を向上させる技術が開示されている。
特開2011-221677号公報 特開2011-141753号公報 特開2010-33158号公報
 しかし、上記の特許文献2の技術では、操作体がタッチパネルに接触した際の方向を考慮していない。
 また、上記の特許文献3の技術では、操作体の方向の変化を考慮しているものの、検出した操作体の方向を、その後に行われる操作に利用されておらず、直感性に欠ける。
 そこで、本技術は、上記のような事情を受けて考案されたものであり、操作体の方向を考慮して、より直感的な操作が可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提供することを意図している。
 本開示によれば、操作体の長手方向を検出する操作体方向検出部と、前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定部と、を備える情報処理装置が提供される。
 また、本開示によれば、操作体の長手方向を検出するステップと、前記操作体の長手方向を基準とする方向にコマンドを割り当てるステップと、を含む情報処理方法が提供される。
 また、本開示によれば、コンピュータに、操作体の長手方向を検出する操作体方向検出機能と、前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定機能と、を実現させるためのプログラムが提供される。
 以上説明したように本開示によれば、操作体の方向を考慮して、より直感的な操作が可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラム装置が提供される。
本開示の第1実施形態に係る情報処理装置の基本構成について説明するための説明図である。 同実施形態に係る操作検出方法について説明するための説明図である。 同実施形態に係る操作体形状特定方法について説明するための説明図である。 同実施形態に係る基本操作方法について説明するための説明図である。 操作方向の例について説明するための説明図である。 操作方向の例について説明するための説明図である。 画面の領域分割の例について説明するための説明図である。 画面の領域分割の例について説明するための説明図である。 同実施形態に係る情報処理方法の処理の流れについて説明するための説明図である。 同実施形態に係る情報処理方法の処理の流れについて説明するための説明図である。 同実施形態の第1変形例における操作について説明するための説明図である。 同実施形態の第1変形例における画面切り替えについて説明するための説明図である。 同実施形態の第1変形例における画面切り替えについて説明するための説明図である。 同実施形態の第1変形例における操作方向の例について説明するための説明図である。 同実施形態の第2変形例について説明するための説明図である。 同実施形態の第2変形例について説明するための説明図である。 同実施形態の第3変形例について説明するための説明図である。 同実施形態の第4変形例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。 同実施形態の応用例について説明するための説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1:概要
 2:基本構成(1本指ファットスワイプ)
  2-1:全体構成(図1~図3)
  2-2:1本指ファットスワイプの基本操作(図4)
  2-3:1本指ファットスワイプにおける操作方向の例(図5及び図6)
  2-4:画面の領域分割の例(図7及び図8)
  2-5:処理の流れ(図9及び図10)
 3:第1変形例(2本指ファットスワイプ)
  3-1:2本指ファットスワイプの基本操作(図11)
  3-2:2本指ファットスワイプにおける画面切り替え(図12及び図13)
  3-3:2本指ファットスワイプにおける操作方向の例(図14)
 4:第2変形例(1.5本指ファットスワイプ;図15及び図16)
 5:第3変形例(1本指ツイストファットスワイプ;図17)
 6:第4変形例(1.5本指ツイストファットスワイプ;図18)
 7:応用例
  7-1:アプリケーション切り替えへの応用例(図19~図22)
  7-2:モード切り替えへの応用例(図23及び図24)
  7-3:パラメータ値の設定への応用例(図25~図28)
  7-4:ページ移動操作への応用例(図29及び図30)
  7-5:追加情報提供への応用例(図31及び図32)
  7-6:ゲームへの応用例(図33)
 8:まとめ
 <1:概要>
 本開示は、タッチパネルの一点を中心に行う指先等による通常の操作に加え、指の腹等で行うタッチパネルの操作及び操作方向の検出に関する。指先のみではなく指の腹等でタッチパネルに多くの面積で接触することによる操作方法を本開示では、ファットスワイプとよぶこととする。
 以下では、まず最も基本的な1つの操作体(指やタッチペン等)でファットスワイプを行う1本指ファットスワイプモードと通常の操作を検出する通常モードとの切り替え方法及び1本指ファットスワイプの内容について説明する。次に、2つの操作体で行うファットスワイプや、通常の操作と組み合わせたファットスワイプや、1本指ファットスワイプとは異なる操作体の動きで操作を行うファットスワイプについて、変形例として説明する。
 さらに、ファットスワイプでの操作を各種装置の各種機能に適用する応用例について説明する。
 <2:基本構成(1本指ファットスワイプ)>
 以下では、本開示における最も基本的な構成である1本指ファットスワイプモードと通常モードとの切り替え方法及び1本指ファットスワイプの内容について説明する。1本指ファットスワイプは、1本の指で、指先のみではなくタッチパネルに多くの面積を触れ、その指を、指と垂直の横方向に動かした場合に、画面や機能を切り替える操作方法である。
 [2-1:全体構成(図1~図3)]
 以下では、図1~図3を参照しながら、本実施形態に係る情報処理装置の全体構成について説明する。図1は、本実施形態に係る情報処理装置の基本構成について説明するための説明図である。
 図1に示す全体構成は一例であり、一部の構成要素を変更したり、追加したり、削除したりしてもよい。以下では、タッチパネル機能を液晶パネルの内部に一体化したインセルタッチパネルを備える情報処理装置について主に説明する。
 図1に示すように、情報処理装置10は、操作検出部102と、操作体位置・形状特定部104と、モード切替部110と、通常モード実行部112と、ファットスワイプモード実行部114とを主に備える。
 また、操作体位置・形状特定部104は、操作領域特定部106と、縦横比算出部108とを備える。ファットスワイプモード実行部114は、操作体方向検出部116と、操作方向決定部118と、表示制御部118と、表示部120とを備える。
 情報処理装置10のユーザによる操作が行われた場合に、まず、操作検出部102が、当該操作を検出する。タッチパネルに対して、ユーザは、指やタッチペン等の操作体で操作を行う。
 操作検出部102には、例えばインセルタッチパネルにおける導電体のように、ユーザの指がタッチパネルに接触している状態と、近接している状態と、離隔している状態とを区別できるような情報を取得するセンサを備える。
 本開示において、ユーザによる表示部120の画面の操作は、接触と非接触を区別するものでもよく、近接と非近接を区別するものでもよい。但し、以下では、接触によりユーザの操作が行われる場合について主に説明する。
 操作検出部102は、ユーザによる指のタッチを検出する。検出対象には、通常の操作を行うことを意図してユーザが指先でタッチした場合と、ファットスワイプを行うことを意図して指の腹を含む広範囲でタッチする場合との両者を含む。
 ユーザによる表示部120の画面の操作が行われた場合に、操作体位置・形状特定部104には、操作検出部102から信号が入力される。
 操作体位置・形状特定部104は、操作検出部102からユーザによる表示部120の画面の操作が行われていることを示す信号が入力されると、指等の操作体の形状を特定する。形状を特定することにより、通常のタッチと、ファットスワイプを行うためのタッチを区別することを意図している。
 図2は、操作検出方法について説明するための説明図である。図2(a)は通常のタッチを示している。また、図2(b)は、ファットスワイプを意図したタッチを示している。
 図2(a)のTAは、ユーザが手H1で情報処理装置10を通常の方法でタッチする場合の接触領域を示している。また、図2(b)のTBは、ユーザが手H2で情報処理装置10をファットスワイプを行うことを意図してタッチする場合の接触領域を示している。
 図2(a)の接触領域TAと図2(b)の接触領域TBに示すように、通常の方法でタッチする場合と、ファットスワイプを意図してタッチする場合とでは、接触領域の形状が異なる。ファットスワイプを意図してタッチする場合には、指の腹も表示部120の画面に接触するため、接触領域の形状が、通常のタッチの場合と比較して縦長の形状になる。
 また、接触領域の面積も通常の場合と比較して大きくなると考えられるが、通常のタッチの場合及びファットスワイプを意図したタッチの場合それぞれの接触領域の面積は、ユーザごとの個人差が大きい。
 更に、ユーザによって通常のタッチの場合とファットスワイプを意図したタッチの場合の接触領域の面積の差や比も同様にユーザごとの個人差が大きい。
 よって、本実施形態においては、接触領域の形状のうち、接触領域の縦横比に着目することとするが、接触領域の面積に着目して接触領域の形状を特定することを排除するものではない。
 以下では、図3を参照しながら、操作体位置・形状特定部104の詳細について説明する。図3は、同実施形態に係る操作体形状特定方法について説明するための説明図である。図3(a)は通常のタッチを示している。また、図3(b)は、ファットスワイプを意図したタッチを示している。
 図3(a)に示す通常のタッチの場合と比較して、図3(b)に示すファットスワイプを意図したタッチの場合には、接触領域を矩形で囲んだときの短手方向の長さに対する長手方向の長さの比が大きい。
 上記のような違いを考慮すると、特定した接触領域を矩形で囲み、矩形の縦横比の違いにより、通常のタッチと、ファットスワイプを意図したタッチとを判別することが可能である。
 操作体位置・形状特定部104の操作領域特定部106は、まず、操作体が表示部120の画面に接触している接触領域を特定する。
 接触領域の検出方法は、例えば、表示部120の各部分への圧力を測定する方法等がある。
 操作領域特定部106は、更に、特定した接触部分の形状を最も良く包含する矩形で囲い、当該矩形の長手方向の長さと短手方向の長さを測定する。ここで、接触部分の形状を最も良く包含する矩形とは、例えば、接触部分に外接する矩形である。
 また、操作領域特定部106は、接触部分を囲んだ矩形の位置及び方向を特定し、位置及び方向に関する情報を、ファットスワイプモード実行部114へ出力する。
 操作領域特定部106により測定された矩形の長手方向の長さhと短手方向の長さwは、縦横比算出部108に入力される。縦横比算出部108は、入力された短手方向の長さwに対する長手方向の長さhの比を、接触部分を囲んだ矩形の縦横比として算出する。
 縦横比算出部108により算出された矩形の縦横比は、モード切替部110に入力される。モード切替部110は、接触部分を囲んだ矩形の縦横比の範囲によって、通常モード及びファットスワイプモードのうち、一方を選択する。
 例えば、モード切替部110は、接触部分を囲んだ矩形の縦横比が所定の閾値TH以上の場合に、ファットスワイプモードを選択し、所定の閾値TH未満の場合に、通常モードを選択する。
 上記の閾値THは、ユーザの指の形状や操作の仕方に合わせて、適宜変更できるようにしてもよい。
 モード切替部110が通常モードを選択した場合に、通常モード実行部112は、通常モードを実行する。通常モードでは、ユーザが指先等で細かな操作を行い、通常モード実行部112がユーザの操作に従って様々なアプリケーション等を実行する。
 モード切替部110がファットスワイプモードを選択した場合に、ファットスワイプモード実行部114は、ファットスワイプモードを実行する。
 ファットスワイプモード実行部114の操作体方向検出部116には、操作体位置・形状特定部104が特定した接触部分を囲んだ矩形の位置及び方向に関する情報が入力される。
 操作体方向検出部116は、入力された接触部分を囲んだ矩形の位置及び方向に基づき、操作体が表示部120の画面に接触した際の操作体の方向を検出する。例えば、操作体方向検出部116は、矩形の長手方向を操作体の方向として検出する。
 操作体方向検出部116により検出された操作体の方向は、操作方向決定部118に入力される。操作方向決定部118は、検出された操作体の方向に応じて、ユーザが操作体を移動可能な一又は複数の方向を決定する。操作方向決定部118は、例えば、検出された操作体の方向に垂直な方向を操作方向として決定する。
 例えば、操作体方向検出部116が接触部分の長手方向を操作体の方向として検出した場合には、操作方向決定部118は、接触部分の短手方向を操作方向として決定する。
 また、操作方向決定部118は、ユーザが操作体を移動可能な各方向に対し、当該方向に対応するコマンドを割り当てる機能も包含する。
 表示部120の画面に接触される操作体の方向はユーザが意図して決定しているため、上記のように操作体の方向に応じてユーザが操作体を移動可能な方向を決定することにより、より直感的な操作が可能になる。
 操作体位置・形状特定部104の操作領域特定部106により特定された操作体の位置の変化に基づき、ファットスワイプモード実行部114には操作体の動きを特定することが可能である。
 但し、上記のように、ファットスワイプモードでは、ユーザが操作体を移動可能な方向が操作方向決定部118により決定される。そのため、操作体の動きをベクトルで表現した際には、操作方向決定部118により決定された方向の成分を利用して以下の処理を行うこととして説明を進める。
 但し、操作体方向決定部118により決定された方向以外の動きを更に利用して、以下の処理に加え、他の処理を行うことを排除するものではない。
 表示制御部119には、操作体方向検出部116から、操作体の方向を示す情報が入力される。表示制御部119には、更に、操作方向決定部118から、操作方向を示す情報が入力される。表示制御部119には、更に、操作体位置・形状特定部104から、操作体の位置情報が入力される。
 表示制御部119は、入力された上記の情報に基づいて、表示部120の表示制御を行う。ユーザの操作に対する表示制御の例や、コマンド割り当ての方法についての詳細は、以下の第2節を参照されたい。
 以上、図1~図3を参照しながら、本実施形態に係る情報処理装置10の基本構成について説明した。
 なお、一旦モード切替部110により通常モード及びファットスワイプモードのうち、いずれか一方が選択されても、その後のユーザの操作体の接触方法により、通常モードからファットスワイプモードへの切り替えや、ファットスワイプモードから通常モードへの切り替えが行われてもよい。
 [2-2:1本指ファットスワイプの基本操作(図4)]
 以下では、1本指ファットスワイプモードにおける基本操作について、図4を参照しながら説明する。1本指ファットスワイプは、ファットスワイプモード実行部114が実行するファットスワイプのうち、最も基本的なものである。
 図4は、ファットスワイプモードにおける基本操作方法について説明するための説明図である。図4では、(a)から(c)へと画面表示が遷移することを表している。
 図4のR1は、ユーザにより操作される操作体と表示部120の画面との接触部分を最も良く包含するように囲んだ矩形(以下では、単に矩形とよぶこととする。)を表している。この矩形は、表示部120に表示されてもよいし、表示されず、処理に利用されるのみでもよい。
 上記のように、操作体の方向は、矩形の長手方向に限定されないが、以下では、矩形の長手方向を操作体の方向として説明を進める。
 まず、図4(a)を参照しながら、ユーザが表示部120の画面に操作体を接触させた場合にまず情報処理10により行われる処理の説明を行う。
 表示制御部119は、表示部120の矩形の位置に、カーソルC1を表示させる。表示制御部119は、カーソルC1の長手方向と、矩形の長手方向とは一致するように表示させる。
 また、表示制御部119は、操作方向決定部118により決定された、ユーザが操作体を移動可能な方向(以下では、操作方向とよぶこととする。)に対応する矢印A1_R及びA1_Lを表示させる。
 例えば、矩形の短手方向が操作方向であり、表示制御部119は、カーソルC1の一方の側に矢印A1_Lを表示させ、他方の側に矢印A1_Rを表示させる。
 このようにユーザが操作体を移動可能な方向に対応する矢印等を表示し、ユーザによる操作体の移動方向を誘導することにより、よりスムーズな操作感をユーザに提供することが可能である。
 表示制御部119は、更に、操作体の長手方向を基準(境界)として、その両側で異なる画面表示を行う。異なるコマンドやアプリケーションに対応する。例えば、表示制御部119は、ユーザによる操作が行われる前には、図4のPIC1の画面が表示部120に表示させる。
 その後、表示制御部119は、ユーザがファットスワイプを意図して表示部120の画面をタッチすると、図4(a)に示すように、カーソルC1の長手方向を基準として、その左右に異なる画像PIC1及びPIC2を表示させる。
 例えば、画像PIC1が様々なアプリケーションを起動する前の待機中等に表示されるホーム画像であり、画像PIC2が特定のアプリケーションや機能に対応付けられた画像である場合を考える。
 この場合、ホーム画像PIC1が表示されている場合にユーザがファットスワイプを意図してタッチすることにより、画像PIC2に対応付けられたアプリケーションを呼び出すことが可能であり、ショートカット機能として、本実施形態に係る技術を適用することが可能である。
 ユーザが表示部120の画面にファットスワイプを意図してタッチを行うと、上述した図4(a)のような画面表示がまず行われる。
 次に、ユーザが操作体を表示部120の画面に接触させたまま移動させた場合について考える。図4(b)は、図4(a)に示す状況において、更にユーザが操作体を紙面左側に移動させた場合について説明する説明図である。
 ユーザが操作体を紙面左側に移動させると、移動に応じて操作体位置・形状特定部104により操作体の位置及び方向が特定され、ファットスワイプモード実行部114が操作方向を決定したり、表示制御を行ったりする。
 ユーザが操作体を移動させると、表示制御部119が表示させるカーソルC1の位置や矢印A1_RやA1_Lの位置も追従する。また、カーソルC1が移動すると、カーソルC1の位置を境界とする表示部120の画面分割の境界位置も変化する。
 ユーザは、図4(a)で示すように、ファットスワイプを行うことを意図して、所望の位置で操作体を接触させる。その後、表示される画像PIC1を表示させる画面及び画像PIC2を表示させる画面それぞれの表示部120全体における面積の割合を、操作体を所望の位置に移動させることにより変化させることが可能である。
 次にユーザが意図する行為として、画像PIC1の選択又は画像PIC2の選択があげられる。なお、各画像が選択されることによって、情報処理10は、各画像に対応付けられたアプリケーションの起動や機能の実行を行うことが可能である。
 ユーザがカーソルC1の位置を境界とする2枚の画像のうち、どちらを選択することを意図しているかは、例えば、ユーザが操作体を表示部120の画面に接触させ、その後離隔した際に、離隔した直前に表示部120の画面に接触していた操作体の位置や操作体の移動方向により、判別することが可能である。
 例えば、表示部120の画面を操作体の長手方向に沿って2つの領域に分割することを考える。一方の領域を第1領域とよぶこととし、他方の領域を第2領域とよぶこととする。
 図4では、例えば、第1領域及び第2領域の一方が左側の領域であり、他方が右側の領域である場合である。
 例えば、図4(c)に示すように、表示部120のユーザが操作体を離隔させる直前に操作体が接触していた位置が表示部120の左側の領域であれば、カーソルC1の右側に表示されていた画像PIC2が選択されたと判別することが可能である。この場合、表示制御部119は、表示部120の画面全体に、画像PIC2を表示させる。
 一方、表示部120のユーザが操作体を離隔させる直前に操作体が接触していた位置が表示部120の右側の領域であれば、カーソルC1の左側に表示されていた画像PIC1が選択されたと判別することが可能である。この場合、表示制御部119は、表示部120の画面全体に、画像PIC1を表示させる。
 また、表示制御部119は、ユーザが操作体を離隔させる直前に操作体が接触していた位置に加え、操作体の移動方向を考慮して、表示部120に表示させる画像を切り替えることも可能である。
 例えば、ユーザが操作体を表示部120の左側から右側に向けて移動させたことを検出し、かつ、移動後にユーザが操作体を右側の領域で離隔させたことを検出した場合に、左側の領域に表示していた画像が選択されたと判別することが可能である。この場合、表示制御部119は、表示部120の画面全体に、選択された画像を表示させる。
 一方、ユーザが操作体を表示部120の左側から右側に向けて移動させたことを検出した場合であっても、ユーザが操作体を左側の領域で離隔させたときには、ユーザが画像の切り替えを行う操作を途中でやめたと判別し、右側の領域に表示していた画像を表示させることが考えられる。
 上記のように、操作体の方向及び操作体の離隔直前の位置に応じて表示部120に表示する画像を切り替えることにより、ユーザの意図を反映する直感的な操作をスムーズに行うことが可能である。
 以上、図4を参照しながら、1本指ファットスワイプモードにおける基本操作について説明した。
 [2-3:1本指ファットスワイプにおける操作方向の例(図5及び図6)]
 上記の基本操作の説明では、図4を参照しながら、表示部120の長手方向と、操作体の短手方向とが一致している場合について説明したが、本実施形態に係る技術の適用範囲はこれに限定されない。
 操作体位置・形状特定部104は操作体の位置及び形状を特定し、ファットスワイプモード実行部114の各部が操作体の位置及び形状に対応して表示制御等を行うためである。
 以下では、図5及び図6を参照しながら、操作体の接触方向が図4の場合と異なる場合について、表示例も示しながら説明する。図5及び図6は、操作方向の例について説明するための説明図である。
 例えば、図5に示すように、表示部120の長手方向と、操作体の短手方向とが一致するようにユーザが操作体を接触させた場合には、カーソルC1が表示部120の長手方向に、操作体の位置を通るように表示される。また、表示制御部119は、カーソルC1の位置を境界として、その一方の側に矢印A1_Uを表示させ、他方の側に矢印A1_Dを表示させる。
 表示制御部119は、更に、カーソルC1の位置を境界として、画像PIC1及び画像PIC2を表示させる。
 ユーザは、表示部120の短手方向に操作体を移動させることにより、画面の切り替えが可能である。
 また、図6に示すように、表示部120の長手方向や短手方向以外の方向で、操作体を表示部120の画面に接触させることも可能である。
 上記のように、操作体の接触方向に対応して画像の表示方法を変化させることが可能である。また、操作体の接触方向によって、操作体が接触している間に表示させる画像を異なるものにしてもよい。
 例えば、表示部120に画像PIC1が表示されている場合において、表示部120の長手方向の操作体の接触を検出したとき、表示制御部119は、画像PIC1に加え、画像PIC2を表示させる。
 一方、表示部120に画像PIC1が表示されている場合において、表示部120の短手方向の操作体の接触を検出したとき、表示制御部119は、画像PIC1に加え、画像PIC3を表示させる。
 上記のように、操作体の複数の接触方向に対応させることにより、直感的な操作感を維持しつつ、より多くの操作のバリエーションを実現することが可能になる。
 以上、図5及び図6を参照しながら、操作方向の例について説明した。
 [2-4:画面の領域分割の例(図7及び図8)]
 ユーザが操作体を表示部120の画面から離隔した直前の操作体の位置により、ユーザによりいずれの画像が選択されたか(換言すれば、画像に対応付けられたいずれの機能やアプリケーション等が選択されたか)を判別する方法について上述した。
 その際に、操作体の位置が表示部120を2分割した際のいずれの領域に含まれるかで判別を行った。以上では、表示部120の画面を操作体の長手方向に沿って2つの領域に分割する場合について説明した。
 この場合、図7に示すように、表示部120は、その中心を通るように2つの領域(第1領域RF及び第2領域LF)に分割される。
 また、上記のような画面の領域分割の仕方の他に、操作体の位置を基準としたより相対的な画面の領域分割の仕方でもよい。
 例えば、図8に示すように、ユーザが操作体を表示部120に接触させた開始位置を通る矩形R1の長手方向のラインを境界として、表示部120の画面を2つの領域(第1領域RF及び第2領域LF)に分割することが可能である。
 [2-5:処理の流れ(図9及び図10)]
 以下では、図9及び図10を参照しながら、本実施形態に係る情報処理装置10が行う処理の流れについて説明する。図9及び図10は、情報処理装置10が行う処理の流れについて説明するための説明図である。図10は、図9の処理ステップS110における詳細な処理を示す図である。
 図9に示すように、まず、操作検出部102は、ユーザによる情報処理装置10の操作が行われたか否かを判定する(S102)。
 ユーザによる情報処理装置10の操作が検出されない場合には、検出されるまで待機する。
 ユーザによる情報処理装置10の操作が検出された場合に、操作領域特定部106は、操作領域を特定する(S104)。操作領域は、ユーザが操作体を表示部120の画面に接触させることにより操作を行う場合には、操作体と表示部120の画面との接触領域が該当する。
 操作領域特定部106は、まず、操作領域の特定を行い、次に特定した操作領域を最も良く包含する矩形で囲む。更に、当該矩形の長手方向の長さと短手方向の長さも特定する。操作領域特定部106は、矩形の長手方向の長さh及び短手方向の長さwの測定も行う。
 次に、縦横比算出部108は、操作領域特定部106により測定された矩形の短手方向の長さwに対する長手方向の長さhの比を、矩形の縦横比として算出する(S106)。
 次に、モード切替部110は、矩形の縦横比に基づいて、通常モードとファットスワイプモードの切り替えを行う。
 例えば、モード切替部110は、矩形の縦横比が所定の閾値以上であるか否かを判別する(S108)。
 矩形の縦横比が所定の閾値以上の場合に、モード切替部110は、ファットスワイプモードを選択する。ファットスワイプモード実行部114は、ファットスワイプモードを実行する(S110)。
 一方、矩形の縦横比が所定の閾値未満の場合に、モード切替部110は、通常モードを選択する。通常モード実行部112は、通常モードを実行する(S112)。
 ファットスワイプモード又は通常モードを実行され、ユーザによる一連の操作及び当該操作に基づく情報処理装置10の動作が終了した場合に、情報処理装置10は、ユーザからの次の操作を待機する。
 情報処理装置10は、ユーザからの操作待機を行う場合に、再び処理ステップS102の操作検出からの一連の処理を行う。一方、ユーザから一定時間操作が行われない場合等の操作待機を行わない場合に、情報処理装置10は、一連の処理を終了する(S114)。
 以上、図9を参照しながら、情報処理装置10が行う処理の全体的な流れについて説明した。以下では、図10を参照しながら、図9におけるステップS110で、ファットスワイプモード実行部114が行う処理の詳細について説明する。
 図10に示すように、まず、ファットスワイプモード実行部114の操作体方向検出部116は、操作体の方向を検出する(S1102)。例えば、操作体方向検出部116は、操作体を囲んだ矩形の長手方向を、操作体の方向として検出する。
 次に、操作方向決定部118は、ユーザが操作体を移動可能な方向を決定する(S1104)。例えば、操作方向決定部118は、操作体の方向と垂直な方向を操作方向と決定する。
 次に、ファットスワイプモード実行部114が操作体の動きを検知すると(S1106)、表示制御部119は、検知した動きに合わせて、表示部120の表示制御を行う。例えば、表示制御部119は、操作体の位置において、操作体の長手方向に沿ったカーソルC1を表示させたり、操作方向を示す矢印A1_R及びA1_Lを表示させたり、カーソルC1の位置を境界として画面を分割し、各画面に異なる画像を表示させたりする。その後、情報処理装置10は、一連の処理を終了する(S1108)。
 以上、図10を参照しながら、図9におけるステップS110で、ファットスワイプモード実行部114が行う処理の詳細について説明した。
 なお、上記の処理の流れは、情報処理装置10が行う処理の流れの一例であり、一部の処理ステップの順序を変更したり、省略したりしてもよい。
 <3:第1変形例(2本指ファットスワイプ)>
 以上では、1つの操作体で行う1本指ファットスワイプについて説明した。以下では、2つの操作体で行う2本指ファットスワイプに係る第1変形例について説明する。2本指ファットスワイプモードは、1本指ファットスワイプに対応した技術である1本指ファットスワイプモードの技術を、2つの操作体による操作に対応させたものである。
 [3-1:2本指ファットスワイプの基本操作(図11)]
 まず、以下では、図11を参照しながら、ユーザが行う2本指ファットスワイプの基本操作と、ユーザの操作に従って情報処理装置10が実行する2本指ファットスワイプモードについて説明する。図11は、本変形例における操作について説明するための説明図である。
 ユーザがファットスワイプを行うことを意図して操作を行う一の操作体である第1操作体(例えば、片手の指等)で表示部120の画面をタッチすると、図11(a)に示すように、まず1本指ファットスワイプモードの実行が開始される。
 なお、図11(a)において、R1は、第1操作体に対応する矩形を表している。矩形R1は、実際に表示部120に表示されてもよいし、表示されなくてもよい。
 上記のように、第1操作体をユーザが操作し、情報処理装置10のファットスワイプモード実行部114がファットスワイプモードを実行している間に、ユーザが第1操作体と異なる操作体である第2操作体を、更に表示部120の画面に接触させた場合に、2本指ファットスワイプモードの実行が開始される。
 操作体位置・形状特定部104は、第2操作体の位置及び形状の特定を、第1操作体の位置及び形状の特定と同様に行う。ファットスワイプモード実行部114は、操作体位置・形状特定部104による特定結果を用いて、2本指ファットスワイプモードを実行する。
 2本指ファットスワイプモード実行中のユーザから見たイメージは、図11(b)のようになる。図11では、1本指ファットスワイプモード実行中に、第1操作体の長手方向と第2操作体の長手方向が一致するように、第2操作体を表示部120に接触させる
 図11(b)において、R2は、第2操作体に対応する矩形を表している。矩形R2は、実際に表示部120に表示されてもよいし、表示されなくてもよい。
 表示制御部119は、表示部120の矩形R2の位置に、第2操作体に対応するカーソルC2を表示させる。表示制御部119は、カーソルC2の長手方向と、矩形の長手方向とが一致するように表示させる。
 このように、2本指ファットスワイプモードにおいては、2つの操作体(第1及び第2操作体)により、2つのカーソルC1及びC2が表示される。表示部120の画面は、2つのカーソルC1及びC2により、3つの領域に分割される。
 そこで、表示制御部119は、1本指ファットスワイプモード実行中に表示させていた画像PIC1及びPIC2に加え、2本指ファットスワイプモード実行中には、3つめの画像PIC3を表示させる。
 ここで、3つの画像PIC1、PIC2及びPIC3を3つに分割された表示部120の画面領域それぞれに表示する場合、いずれの画像をいずれの画面領域に表示するかについては6パターンが考えられる。
 しかし、画像PIC1及びPIC2が表示されている状態でユーザが更に操作を行うことにより画像PIC3を表示させていることを考慮すると、2本指ファットスワイプモード実行時に追加で表示される画像PIC3が、カーソルC1及びC2の間の領域に表示されることがユーザにとって分かりやすく、操作もしやすいと考えられる。
 そのため、以下では、2本指ファットスワイプモード実行時に追加表示される画像PIC3が、カーソルC1及びC2の間の領域に表示される場合について主に説明する。この場合、ユーザから見ると、図11(b)に示すように、表示部120の画面に元々表示されていた画像PIC1及びPIC2の間に、新たに別のアプリケーションや機能等に対応付けられた画像PIC3が、挿入されることとなる。
 ユーザが第1操作体又は第2操作体を移動(ファットスワイプ)させると、カーソルC1及びC2が操作体の追従するように移動する。また、カーソルC1及びC2の移動に応じて、各画像を表示させる画面それぞれの表示部120全体における面積の割合が変化する。
 以上、図11を参照しながら、ユーザが行う2本指ファットスワイプの基本操作と、ユーザの操作に従って情報処理装置10が実行する2本指ファットスワイプモードについて説明した。
 [3-2:2本指ファットスワイプにおける画面切り替え(図12及び図13)]
 以下では、上述したような2本指ファットスワイプモードが実行されていることを前提として、ユーザが所望の画面に切り替える方法について説明する。
 2本指ファットスワイプモードが実行されると、2つのカーソルC1及びC2の位置を境界とする画面それぞれに、画像PIC1、PIC2及びPIC3が表示されている。
 まず、図12を参照しながら、ユーザが、表示部120の画面における両端の領域に表示されている画像のうち、いずれかを選択したい場合について説明する。図12(a)の例では、ユーザが画像PIC1や画像PIC2を選択する場合がこれに該当する。
 ユーザが、第1操作体と第2操作体とを近づけるように、第1操作体及び第2操作体のうち、いずれか一方又は両方を移動させるとする。この場合、その動きに応じて、表示部120の画面における中央の領域に表示されている画像(図12(a)の例では、画像PIC3)の表示領域が狭くなる。
 上記のように、ユーザが所定の画像(図12(a)の例では、画像PIC3)の表示領域を狭くするように操作体の移動を行う場合には、その画像は選択しない意図があると考えられる。換言すれば、その画像以外の画像(図12(a)の例では、画像PIC1又はPIC2)を選択しようとしていると考えられる。
 また、第1操作体と第2操作体を一定以上接近させると、それ以上接近させることが困難になる上、2つの操作体を区別する必要性が低くなる。
 そこで、2本指ファットスワイプモードにおいて、第1操作体と第2操作体との距離DISが所定の閾値未満になった場合には、ファットスワイプモード実行部114は、2本指ファットスワイプモードから1本指ファットスワイプモードへと切り替える。
 図12(b)は、2本指ファットスワイプモードから1本指ファットスワイプモードへの切り替え後の画面表示例を示している。
 つまり、1本指ファットスワイプモードへの切り替え後には、表示制御部119は、1つのカーソルC1や、カーソルC1を境界とする2つの画像や、ユーザが操作体を移動可能な方向を示す矢印A1_R及びA1_Lを表示させる。
 ここで、2本指ファットスワイプモードから1本指ファットスワイプモードへの切り替えられた瞬間に、まだ操作体が2つとも表示部120に接触している場合が考えられる。
 この場合に、情報処理装置10は、例えば、表示部120に接触している2つの操作体のうち、いずれか一方を1本指ファットスワイプモード実行における操作体として検知することが考えられる。
 上記のようにすることにより、ユーザが接触させている2つの操作体のうち、いずれか一方を表示部120に接触させた状態からそのまま1本指ファットスワイプを行うことが可能である。その結果、2本指ファットスワイプモードから1本指ファットスワイプモードへのシームレスな切り替えが可能である。
 1本指ファットスワイプモードに切り替えられた後は、ユーザは1本指ファットスワイプを行うことにより、表示部120に表示されている画像のうち、一方を更に選択することが可能である。
 例えば、図12(b)において、ユーザは、画像PIC1及びPIC2のうち、画像PIC1を全画面表示にしたり、画像PIC2を全画面表示にしたりすることが可能である。
 以上、図12を参照しながら、ユーザが、表示部120の画面における両端の領域に表示されている画像のうち、いずれか一方を選択したい場合について説明した。
 次に、図13を参照しながら、ユーザが、カーソルC1及びC2の間に表示された画像(例えば、図12の画像PIC3)を選択する場合について説明する。
 この場合に、ユーザは、第1操作体と第2操作体とを遠ざけるように、第1操作体及び第2操作体のうち、いずれか一方又は両方を移動させる。
 その結果、第1操作体と第2操作体との距離DISが所定の閾値以上となった場合には、ファットスワイプモード実行部114は、第1操作体と第2操作体の間に表示された画像(図13(a)では、画像PIC3)が選択されたと判別する。この場合に、ファットスワイプモード実行部114の表示制御部119は、第1操作体と第2操作体の間に表示された画像を、表示部120に全画面表示する。
 以上、図13を参照しながら、ユーザが、カーソルC1及びC2の間に表示された画像を選択する場合について説明した。
 [3-3:2本指ファットスワイプにおける操作方向の例(図14)]
 1本指ファットスワイプにおいて、ユーザが操作体を接触させた方向に応じた表示制御を行うことが可能であることを説明した。2本指ファットスワイプにおいても、ユーザが2つの操作体(第1操作体及び第2操作体)を接触させた方向に応じた表示制御を行うことが可能である。
 例えば、ユーザが第1操作体に対して、第2操作体が垂直になるように、2つの操作体を表示部120に接触させて、2本指ファットスワイプを行うことが考えられる。この場合には、第1操作体の長手方向と、第2操作体の短手方向が一致することとなる。
 以下では、図14を参照しながら、第1操作体と第2操作体とが垂直な位置関係の場合の2本指ファットスワイプモードについて簡単に説明する。図14は、本変形例における操作方向の例について説明するための説明図である。
 図14(a)に示すように、ユーザが第1操作体を表示部120に接触させることにより、1本指ファットスワイプモードが実行される。
 この状態において、ユーザは、第2操作体を、第1操作体に垂直な方向に接触させる。操作体位置・形状特定部104は、第1操作体及び第2操作体の位置及び形状を特定する。ファットスワイプモード実行部114の表示制御部119は、特定した位置及び形状に基づいて、表示部120の表示制御を行う。
 図14(b)は、2本指ファットスワイプモードにおける表示部120の画面表示例である。第1操作体の長手方向及び第2操作体が垂直な位置関係にある場合には、図14(b)に示すように、第1操作体に対応するカーソルC1及び第2操作体に対応するカーソルC2も垂直な位置関係にある。
 そのため、表示制御部119は、1本指ファットスワイプモード実行時から継続して表示されているカーソルC1を優先的に表示させる。2本指ファットスワイプが実行されると、表示制御部119は、カーソルC1により分割された画面領域を更に細かく分割するようにカーソルC2を表示し、カーソルC2を境界として画像PIC2及びPIC3を表示させる。
 例えば、図14(b)に示すように、1本指ファットスワイプモードにおいて分割された領域のうち、第2操作体が接触された領域について、2本指ファットスワイプにおいては分割を行うことが可能である。
 <4:第2変形例(1.5本指ファットスワイプ;図15及び図16)>
 以上では、1つの操作体で行う1本指ファットスワイプ及び2つの操作体で行う2本指ファットスワイプについて説明した。以下では、図15及び図16を参照しながら、1.5本指ファットスワイプに係る第2変形例について説明する。図15及び図16は、本変形例に係る画面表示例を示している。
 1.5本指ファットスワイプでは、2つの操作体で操作を行う。但し、2本指ファットスワイプと異なり、一方の操作体で1本指ファットスワイプを行い、他方の操作体で通常の操作を行う。
 1.5本指ファットスワイプモードの技術は、1本指ファットスワイプに対応した技術である1本指ファットスワイプモードの技術を応用したものである。
 図15(a)のように、ユーザが1つの操作体(第1操作体)で1本指ファットスワイプを行い、ファットスワイプモード実行部114が1本指ファットスワイプモードを実行しているとする。
 1本指ファットスワイプモードでは、操作体の方向に応じてカーソルC1が表示され、カーソルC1の位置を境界として表示部120の画面が分割され、分割された画面それぞれに画像PIC1やPIC2が表示されている。
 この状態で、ユーザが2つ目の操作体(第2操作体)で通常の操作を行う。図15(b)のように、1本指ファットスワイプモードにおいて分割された表示部120の画面のうち、一方の画面で、ユーザは2つ目の操作体で通常の操作を行うこととなる。
 第2操作体が接触された時に、ファットスワイプモード実行部114は、1本指ファットスワイプから1.5本指ファットスワイプモードへ切り替えを行う。
 図15(b)では、図15(a)において画像PIC2が表示されていた画面でユーザが第2操作体での操作を行う場合の画面表示例を示している。
 図15(b)に示した例では、第1操作体の操作方向と第2操作体の操作方向とが垂直な場合の画面表示例を示している。
 図16に示す例も、(a)で1本指ファットスワイプモード実行中の画面表示例を示し、(b)で1.5本指ファットスワイプモード実行中の画面表示例を示している。
 但し、1.5本指ファットスワイプモードでの画面表示例を示している。但し、図16では、第1操作体の操作方向と第2操作体の操作方向とが一致している場合の画面表示例を示している。
 以上、図15及び図16を参照しながら、本実施形態の第2変形例について説明した。
 <5:第3変形例(1本指ツイストファットスワイプ;図17)>
 以下では、図17を参照しながら、1本指ツイストファットスワイプに係る第3変形例について説明する。図17は、本変形例に係る画面表示例を示している。
 1本指ツイストファットスワイプでは、1つの操作体を広範囲で表示部120に接触させることにより、操作を行う。但し、操作体を表示部120の画面上で平行移動させるように操作を行った1本指ファットスワイプと異なり、1本指ツイストファットスワイプでは、操作体を表示部120の画面上でひねるように操作を行う。
 1本指ツイストファットスワイプモードの技術は、1本指ファットスワイプに対応した技術である1本指ファットスワイプモードの技術を応用したものである。
 また、上記の1本指ファットスワイプモード実行途中で操作体を所定値以上ひねると、ファットスワイプモード実行部114が、1本指ツイストファットスワイプモードを実行するようにしてもよい。
 図17(a)に示すように、1本指ツイストファットスワイプモードにおいても、1本指ファットスワイプモードの場合と同様に、表示制御部119は、操作体が表示部120に接触した方向に応じて、カーソルC1を表示させる。
 また、表示制御部119は、カーソルの位置を境界として分割した表示部120の画面それぞれに、画像を表示させる。また、表示制御部119は、操作体をひねることが可能な方向を示す矢印A1を表示させる。
 ユーザがツイストファットスワイプを行う、つまり表示部120に接触させた操作体をひねると、表示制御部119は、図17(b)に示すように、段階的に新たな画像(画像PIC3や画像PIC4)を表示させる。
 上記のように画像が段階的に表示されることにより、ユーザは扇を広げるような直感的な動きで、所望の機能等に対応付けられた画像を表示させることが可能になる。
 情報処理装置10は、表示した画像のうち、最後に表示した画像に対応する機能等にフォーカスを当てて、ユーザがその機能を選択するのを待機する。
 表示制御部119は、表示した画像のうち、最後に表示した画像(換言すればその画像に対応付けられた所定の機能)にフォーカスが当たっていることを示すように、例えば、図17(b)の画像PIC4のように、選択中の画像に他の画像と別の色を付けて、ユーザが確認できるようにする。
 フォーカスが当たっている画像の強調方法として、選択中の画像に他の画像と別の色を付ける他にも、選択中の画像と他の画像の透明度を異なるものにしたり、選択中の画像を太線で囲ったりしてもよい。
 ある画像にフォーカスが当たっている状態で、ユーザが操作体を表示部120から離隔させると、情報処理装置10は、ユーザがその画像に対応付けられた機能等を選択したと認識し、当該機能等の実行を行う。
 一方、ユーザが図17(b)に示すような状態で更に操作体をひねると、表示制御部119は、図17(c)に示すように、更に別の機能に対応付けられた画像PIC5を表示し、フォーカスを当てる。
 ユーザが操作体のひねりを戻してから表示部120から離隔させると、フォーカスがキャンセルされる。
 以上、図17を参照しながら、本実施形態の第3変形例について説明した。
 <6:第4変形例(1.5本指ツイストファットスワイプ;図18)>
 以下では、図18を参照しながら、1.5本指ツイストファットスワイプに係る第4変形例について説明する。図18は、本変形例に係る画面表示例を示している。
 1.5本指ツイストファットスワイプでは、2つの操作体で操作を行う。但し、2本指ファットスワイプや1.5本指ファットスワイプと異なり、一方の操作体(第1操作体)で1本指ツイストファットスワイプを行い、他方の操作体(第2操作体)で通常の操作を行う。
 1.5本指ツイストファットスワイプモードの技術は、1本指ツイストファットスワイプに対応した技術である1本指ファットスワイプモードの技術を応用したものである。
 1.5本指ツイストファットスワイプモードは、図18に示すように、第1操作体での1本指ツイストファットスワイプモード実行中に、第1操作体の操作により表示させた画像に加え、ユーザが更に第2操作体で別の画像(図18の例では、画像PIC5)を開いたり、タップして選択したりすることを可能にしたものである。
 上記のように、1本指ツイストファットスワイプと通常の操作を組み合わせた1.5本指ツイストファットスワイプにより、直感的かつ段階の少ない操作で、多くの種類の機能を選択して実行すること等が可能になる。
 以上、図18を参照しながら、本実施形態の第4変形例について説明した。
 <7:応用例>
 上記の各種ファットスワイプの技術は、様々な情報処理装置10への適用が可能である。また、ファットスワイプにより、ユーザが行うことが可能な情報処理装置10の動作も各種考えられる。以下では、応用例として、その一部について説明する。
 [7-1:アプリケーション切り替えへの応用例(図19~図22)]
 以下では、図19~図22を参照しながら、上記の基本構成及び変形例に係る技術を、アプリケーションに対応した画像の切り替えへ応用する応用例について説明する。図19~図22は、本実施形態の応用例について説明するための説明図である。
 (図19)
 図19は、ナビゲーション機能を有する装置11において、詳細地図を表示するアプリケーションに対応付けられた画像PIC1と、広域地図を表示するアプリケーションに対応付けられた画像PIC2とを切り替える例を示している。
 詳細地図を表示するアプリケーションに対応付けられた画像PIC1として、詳細地図の一部を表示する画像が、図19では示されている。
 また、同様に、広域地図を表示するアプリケーションに対応付けられた画像PIC2として、広域地図の一部を表示する画像が、図19では示されている。
 例えば、ユーザは車の運転等をしながら、運転を行なっている手と反対の手でファットスワイプを行うことにより、詳細地図と広域地図の切り替えをスムーズに行うことが可能である。
 また、ナビゲーション機能を有する装置11における地図切り替え以外にも、操作体の一方の側に表示した画像の拡大又は縮小画像を、操作体の他方の側に表示すること等も可能である。
 (図20)
 図20は、ナビゲーション機能を有する装置11において、ナビゲーションを行うアプリケーションに対応付けられた画像PIC1と、音楽再生を行うアプリケーションに対応付けられた画像PIC2とを切り替える例を示している。
 例えば、ユーザは、通常は地図を全画面表示させて、地図を見ながら車の運転等を行う。また、ナビゲーションを行うアプリケーションを実行させながら、バックで音楽再生を行うアプリケーションを実行して音楽を聞いているような状況が考えられる。
 ユーザは、音楽再生を行うアプリケーションの操作、例えば曲の選択、再生、停止等の操作を行う場合に、ファットスワイプという簡単な操作により画面切り替えを行うことが可能である。
 (図21)
 本実施形態に係る技術は、テレビ等の表示装置12の画面切り替えにも適用することが可能である。表示装置12のように、ユーザが直接装置の画面に接触して操作を行うことが困難な場合には、例えば図21に示すように、カメラCAを装置に配設し、物体認識によりユーザの操作を検出することが可能である。
 物体認識により、表示制御部119は、ユーザの腕ARM等の操作体を認識し、操作体が示している画面上の位置にカーソルC1を表示させる。例えば、表示制御部119は、画像PIC1としてあるテレビ番組を表示させ、画像PIC2として画像PIC1とは別のテレビ番組を表示させる。
 その結果、ユーザが、あるテレビ番組を視聴中に別のテレビ番組を一時的に表示させたり、表示部120に表示させるテレビ番組を切り替えたりすることが可能になる。
 (図22)
 また、テレビ等の表示装置12において、表示制御部119は、カーソルC1で分割した一方の画面にテレビ番組等の動画を表示させ、他方の画面に番組表等の情報を表示させることも可能である。
 以上、図19~図22を参照しながら、上記の基本構成及び変形例に係る技術を、アプリケーションに対応した画像の切り替えへ応用する応用例について説明した。
 [7-2:モード切り替えへの応用例(図23及び図24)]
 以下では、図23及び図24を参照しながら、上記の基本構成及び変形例に係る技術を、モード切り替えへ応用する応用例について説明する。図23及び図24は、本実施形態の応用例について説明するための説明図である。
 (図23)
 例えば、複数の撮影モードを有する撮像装置において、ファットスワイプを用いることで、少ない操作段階かつ直感的な操作で、モード切り替えを行うことが可能である。
 例えば、図23に示すように、ユーザにより、通常撮影モードMD1と夜間撮影モードMD2との切り替えが行われる。
 (図24)
 また、例えば撮像装置において、撮影モードMD1と再生モードMD2との切り替えを行うことも可能である。
 ファットスワイプに係る技術を用いることにより、撮像を行う撮影モードと、以前に撮像された画像をユーザが確認するための再生モードとを、ユーザが瞬時に切り替えることが可能になる。
 その結果、ユーザは、例えば、再生モードを実行して以前に撮像された画像を確認中にも、撮影を行いたい被写体があれば、シャッタチャンスを逃すことなく瞬時に撮影モードに切り替え、撮影を行うことが可能である。
 以上、図23及び図24を参照しながら、上記の基本構成及び変形例に係る技術を、モード切り替えへ応用する応用例について説明した。
 [7-3:パラメータ値の設定への応用例(図25~図28)]
 以下では、図25~図28を参照しながら、上記の基本構成及び変形例に係る技術を、パラメータ値の設定へ応用する応用例について説明する。
 (図25)
 撮像装置で撮影を行うユーザが、プレビュー画面上でファットスワイプを行うことにより、ズーム調整を行うようにしたものが、図25に示す例である。例えば、ユーザがファットスワイプを意図してタッチを行うと、図25(a)に示すように、表示制御部119は、撮影イメージPIC1に、操作体をユーザが移動可能な方向を示す矢印A1_UやA1_Dを重畳表示させる。
 また、例えば、表示制御部119は、一方の矢印A1_Uが示す向きに操作体を移動させた場合に対応付けられた撮像装置の動作(例えば、ズーム)を示す文字表示W_Uを行う。また、表示制御部119は、他方の矢印A1_Dが示す向きに操作体を移動させた場合に対応付けられた動作(例えば、ワイド)を示す文字表示W_Dを行う。
 図25(b)は、図25(a)において、ユーザが、矢印A1_Uが示す向きに操作体を移動させ、ズーム画像の撮影イメージPIC1が表示される場合を示している。
 また、図25(c)は、図25(a)において、ユーザが、矢印A1_Dが示す向きに操作体を移動させ、ワイド画像の撮影イメージPIC2が表示される場合を示している。
 ユーザは、プレビュー画面に表示される撮影イメージPIC1から視線を移動させることなくファットスワイプを行うことも可能であり、ズーム調整に時間がかかってしまい、シャッタチャンスを逃してしまうことも防止される。
 なお、上記のズーム調整機能は、撮像装置のプレビュー画面に適用する以外にも、様々な装置における表示制御に適用することが可能である。また、撮像装置の動作を示す文字表示の代わりに、アイコン等で表示してもよい。
 (図26)
 図26に示す例のように、表示装置12等において、音量調整を行う構成も可能である。図26(a)でユーザが表示装置12の前でかざした腕ARMを表示装置12のカメラCAが捉え、物体認識を行なっている。
 例えば、ユーザが、図26(a)に示す腕ARMの位置から、図26(b)に示す腕ARMの位置へ腕を移動させると、その動きに応じて、表示装置12は、音量を大きくする。
 (図27及び図28)
 図27に示す例のように、撮像装置において、シャッタ速度等のパラメータ値の調整を行う際に、本実施形態に係る技術を適用することも可能である。例えば、図27(a)に示すようにファットスワイプモードが開始され、その後、図27(b)に示すように、ユーザが、シャッタ速度を速くする方向に操作体を移動させる。
 なお、図27に示すように、現在設定されているパラメータの値を表示することも考えられる。図27の例では、図27(a)のようにシャッタ速度1/50であった場合に、ユーザがシャッタ速度を速くするようにファットスワイプを行うことにより、図27(b)では、シャッタ速度が1/100に調整されたことを示している。
 また、各種の情報処理装置10において、設定可能なパラメータが複数ある場合には、異なるパラメータに異なる操作体の移動方向を割り当てることが考えられる。ユーザは、表示部120に対し、調整を行いたいパラメータに対応付けられた所定の方向で操作体を接触させ、操作体を所定の方向で移動させる。
 例えば、撮像装置は、図27に示すように、表示部120の短手方向に操作体が接触されたことを検出し、表示部120の長手方向の操作体の動きを検知すると、シャッタ速度を調整する。一方、図28に示すように、表示部120の長手方向に操作体が接触されたことを検出し、表示部120の短手方向の操作体の動きを検知すると、ISO感度を調整する。
 以上、図25~図28を参照しながら、上記の基本構成及び変形例に係る技術を、パラメータ切り替えへ応用する応用例について説明した。
 [7-4:ページ移動操作への応用例(図29及び図30)]
 以下では、図29及び図30を参照しながら、上記の基本構成及び変形例に係る技術を、ページ移動操作へ応用する応用例について説明する。
 (図29)
 例えば、図29に示すように、ウェブブラウザ等の画面におけるページ移動操作に、本実施形態に係る技術を適用することも可能である。例えば、あるページに対応付けられた画像PIC2が表示されている状況で、ユーザによるファットスワイプが開始された場合に、図29(a)に示すように、表示制御部119は、操作体の短手方向の一方の向きに矢印A1_Lを表示し、他方の向きに矢印A1_Rを表示させ、ユーザに操作体の短手方向の移動が可能であることを示す。
 また、表示制御部119は、「ページを戻る」という動作に対応する文字表示W_Lを操作体の一方の側に表示させ、「ページを進む」という動作に対応する文字表示W_Rを操作体の他方の側に表示させることが考えられる。
 例えば、図29(b)に示すように、ユーザが「ページを戻る」という動作に対応付けられた文字表示W_Lが表示された向きに操作体を移動させると、表示制御部119は、現在表示させている画像PIC2とともに、ユーザがその画像PIC2を閲覧する前に閲覧していた画像PIC1を表示させる。ユーザは、これらの画像PIC1及びPIC2の切り替えをファットスワイプにより行うことが可能である。
 また、図29(c)に示すように、ユーザが「ページを進む」という動作に対応付けられた文字表示W_Rが表示された向きに操作体を移動させると、表示制御部119は、現在表示させている画像PIC2とともに、ユーザがその画像PIC2を閲覧する前に閲覧していた画像PIC3を表示させる。ユーザは、これらの画像PIC2及びPIC3の切り替えをファットスワイプにより行うことが可能である。
 (図30)
 また、ブックリーダ13等のページ切り替えに適用することも可能である。例えば、あるページに対応付けられた画像PIC1が表示されているときに、ユーザがファットスワイプを行うと、次のページに対応付けられた画像PIC2に切り替えたりするユーザインターフェースを実現することが可能である。
 上記の構成によれば、ユーザは、あるページに対応付けられた画像を確認しながら、その前後のページに対応付けられた画像に移動することができる。
 以上、図29及び図30を参照しながら、上記の基本構成及び変形例に係る技術を、ページ移動へ応用する応用例について説明した。
 [7-5:追加情報提供への応用例(図31及び図32)]
 本実施形態に係る技術を応用して、ある画像PIC1が表示されているときに、その画像PIC1に関連する情報を、画像PIC2として追加して表示することもできる。
 例えば、図31のブックリーダ13の例では、電子書籍の本文を示す画像PIC1とともに、電子書籍のタイトルや著者等についての情報を示す画像PIC2を表示させることを示している。
 また、例えば、図32の表示装置12の例では、テレビ番組の画像PIC1とともに、その付加情報を画像PIC2として表示させることを示している。例えば、図32に示すように、ユーザは、料理番組を視聴中に当該料理番組で取り上げている料理の材料等の追加情報が必要な場合に、表示装置12を腕ARMの移動により操作し、追加情報を取得することが可能である。
 [7-6:ゲームへの応用例(図33)]
 本実施形態に係る技術をゲームに応用することも可能である。例えば、図33に示すように、ファットスワイプを行うたびに段階的に画面に表示されたキャラクターの表情が変わるというようなものが考えられる。
 図33の例では、図33(a)から図33(c)になるにつれて、キャラクターが段階的に笑っている。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 <8:まとめ>
 最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。
 例えば、下記(1)のように表現される情報処理装置は、操作体の方向を考慮して、より直感的な操作を可能にする。
 操作体の長手方向は、任意の方向をとることが可能であり、ユーザが所望の方向に決定することが可能である。下記(1)のように表現される情報処理装置によれば、より具体的には、ユーザの意図が反映された操作体の方向を基準とした操作が可能になる。
 (1)
 操作体の長手方向を検出する操作体方向検出部と、
 前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定部と、
を備える情報処理装置。
 (2)
 前記操作方向決定部は、
 前記操作体の長手方向を基準とする複数の方向それぞれに、異なるコマンドを割り当てる、
 前記(1)に記載の情報処理装置。
 (3)
 前記操作体の長手方向を表す第1表示オブジェクトを表示させる表示制御部を更に備える、
 前記(1)又は(2)に記載の情報処理装置。
 (4)
 前記表示制御部は、前記操作体の長手方向を基準とする方向を表す第2表示オブジェクトを表示させる、
 前記(3)に記載の情報処理装置。
 (5)
 前記表示制御部は、前記操作体の位置を基準とし、かつ、当該操作体の長手方向に沿った境界で画面領域を分割して表示させる、
 前記(3)又は(4)に記載の情報処理装置。
 (6)
 前記表示制御部は、前記操作体の位置及び動きの一方又は両方に応じて、画面全体における各前記画面領域の割合を調節する、
 前記(5)に記載の情報処理装置。
 (7)
 前記操作体による操作領域の縦横比を算出する縦横比算出部を更に備え、
 前記操作体の長手方向は、前記領域の縦横比に基づいて算出される、
 前記(1)~(6)のいずれかに記載の情報処理装置。
 (8)
 前記操作体方向検出部は、複数の操作体それぞれの長手方向を検出し、
 前記操作方向決定部は、各前記操作体の長手方向を基準とする方向にコマンドを割り当てる、
 前記(1)~(7)のいずれかに記載の情報処理装置。
 (9)
 前記縦横比算出部は、複数の前記操作体それぞれに対応する領域の縦横比を算出し、
 前記操作体方向検出部は、前記操作体のうち、前記操作領域の前記縦横比が所定の範囲内の操作体の長手方向を検出し、
 前記操作方向決定部は、当該操作体の長手方向を基準とする方向にコマンドを割り当てる、
 前記(7)に記載の情報処理装置。
 (10)
 前記操作体が、近接又は接触した操作体の位置を検出する操作検出部を更に備える、
 前記(1)~(9)のいずれかに記載の情報処理装置。
 (11)
 操作体の長手方向を検出するステップと、
 前記操作体の長手方向を基準とする方向にコマンドを割り当てるステップと、
を含む情報処理方法。
 (12)
 コンピュータに、
 操作体の長手方向を検出する操作体方向検出機能と、
 前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定機能と、
を実現させるためのプログラム。
 (備考)
 操作体位置・形状特定部104は、操作体形状特定部の一例である。また、表示部120に表示される矢印は、第2表示物の一例である。また、表示部120に表示されるカーソルは、第1表示物の一例である。
 10   情報処理装置
 102  操作検出部
 104  操作体位置・形状特定部
 116  操作体方向検出部
 118  操作方向決定部
 119  表示制御部
 

Claims (12)

  1.  操作体の長手方向を検出する操作体方向検出部と、
     前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定部と、
    を備える情報処理装置。
  2.  前記操作方向決定部は、
     前記操作体の長手方向を基準とする複数の方向それぞれに、異なるコマンドを割り当てる、
     請求項1に記載の情報処理装置。
  3.  前記操作体の長手方向を表す第1表示オブジェクトを表示させる表示制御部を更に備える、
     請求項1に記載の情報処理装置。
  4.  前記表示制御部は、前記操作体の長手方向を基準とする方向を表す第2表示オブジェクトを表示させる、
     請求項3に記載の情報処理装置。
  5.  前記表示制御部は、前記操作体の位置を基準とし、かつ、当該操作体の長手方向に沿った境界で画面領域を分割して表示させる、
     請求項3に記載の情報処理装置。
  6.  前記表示制御部は、前記操作体の位置及び動きの一方又は両方に応じて、画面全体における各前記画面領域の割合を調節する、
     請求項5に記載の情報処理装置。
  7.  前記操作体による操作領域の縦横比を算出する縦横比算出部を更に備え、
     前記操作体の長手方向は、前記領域の縦横比に基づいて算出される、
     請求項1に記載の情報処理装置。
  8.  前記操作体方向検出部は、複数の操作体それぞれの長手方向を検出し、
     前記操作方向決定部は、各前記操作体の長手方向を基準とする方向にコマンドを割り当てる、
    請求項1に記載の情報処理装置。
  9.  前記縦横比算出部は、複数の前記操作体それぞれに対応する領域の縦横比を算出し、
     前記操作体方向検出部は、前記操作体のうち、前記操作領域の前記縦横比が所定の範囲内の操作体の長手方向を検出し、
     前記操作方向決定部は、当該操作体の長手方向を基準とする方向にコマンドを割り当てる、
     請求項7に記載の情報処理装置。
  10.  前記操作体が、近接又は接触した操作体の位置を検出する操作検出部を更に備える、
     請求項1に記載の情報処理装置。
  11.  操作体の長手方向を検出するステップと、
     前記操作体の長手方向を基準とする方向にコマンドを割り当てるステップと、
    を含む情報処理方法。
  12.  コンピュータに、
     操作体の長手方向を検出する操作体方向検出機能と、
     前記操作体の長手方向を基準とする方向にコマンドを割り当てる操作方向決定機能と、
    を実現させるためのプログラム。
     
PCT/JP2013/050419 2012-03-28 2013-01-11 情報処理装置、情報処理方法及びプログラム WO2013145804A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020147025948A KR20140148381A (ko) 2012-03-28 2013-01-11 정보 처리 장치, 정보 처리 방법 및 프로그램
BR112014023286A BR112014023286A8 (pt) 2012-03-28 2013-01-11 Aparelho e método de processamento de informação, e, programa
CN201380015134.4A CN104246681B (zh) 2012-03-28 2013-01-11 信息处理装置、信息处理方法和程序
US14/374,939 US9582096B2 (en) 2012-03-28 2013-01-11 Information processing apparatus, information processing method, and program
EP13768761.2A EP2837997A4 (en) 2012-03-28 2013-01-11 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
JP2014507458A JP6036807B2 (ja) 2012-03-28 2013-01-11 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-074213 2012-03-28
JP2012074213 2012-03-28

Publications (1)

Publication Number Publication Date
WO2013145804A1 true WO2013145804A1 (ja) 2013-10-03

Family

ID=49259090

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/050419 WO2013145804A1 (ja) 2012-03-28 2013-01-11 情報処理装置、情報処理方法及びプログラム

Country Status (7)

Country Link
US (1) US9582096B2 (ja)
EP (1) EP2837997A4 (ja)
JP (1) JP6036807B2 (ja)
KR (1) KR20140148381A (ja)
CN (1) CN104246681B (ja)
BR (1) BR112014023286A8 (ja)
WO (1) WO2013145804A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015203888A (ja) * 2014-04-10 2015-11-16 ヤフー株式会社 情報表示装置、情報表示方法および情報表示プログラム
JP2016028952A (ja) * 2015-09-16 2016-03-03 本田技研工業株式会社 アプリケーション制御のプログラム、方法、装置、及び記録媒体
JP2016052092A (ja) * 2014-09-02 2016-04-11 カシオ計算機株式会社 撮像装置、画像処理装置、表示制御装置、画像補正方法及びプログラム
JP2019153021A (ja) * 2018-03-02 2019-09-12 富士ゼロックス株式会社 情報処理装置及びプログラム
US10996844B2 (en) 2013-06-12 2021-05-04 Honda Motor Co., Ltd. Program, method, and device for controlling application, and recording medium
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
JP7432993B2 (ja) 2015-06-07 2024-02-19 アップル インコーポレイテッド ユーザインタフェース間をナビゲートするためのデバイス及び方法
US11921975B2 (en) 2015-03-08 2024-03-05 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3287884B1 (en) 2012-12-06 2021-11-10 Samsung Electronics Co., Ltd. Display device and method of controlling the same
CN103513817B (zh) * 2013-04-26 2017-02-08 展讯通信(上海)有限公司 一种触控设备及控制其配置操作模式的方法、装置
KR20140141305A (ko) * 2013-05-31 2014-12-10 삼성전기주식회사 화면분할이 가능한 이동통신단말기 및 그 제어방법
EP3859501B1 (en) 2013-08-22 2022-09-28 Samsung Electronics Co., Ltd. Application execution method by display device and display device thereof
KR102264220B1 (ko) * 2014-09-02 2021-06-14 삼성전자주식회사 전자 장치 및 전자 장치의 디스플레이 방법
KR102461584B1 (ko) * 2015-11-20 2022-11-02 삼성전자주식회사 입력 처리 방법 및 장치
US20220374009A1 (en) * 2021-05-21 2022-11-24 Ideaforge Technology Pvt. Ltd. System and method for displaying elements of an application in split-screen view

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033158A (ja) 2008-07-25 2010-02-12 Sony Corp 情報処理装置及び情報処理方法
JP2010250610A (ja) * 2009-04-16 2010-11-04 Sony Corp 情報処理装置、傾き検出方法及び傾き検出プログラム
JP2011141753A (ja) 2010-01-07 2011-07-21 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP2011221677A (ja) 2010-04-07 2011-11-04 Sony Corp 電子機器及び操作検知方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9164654B2 (en) * 2002-12-10 2015-10-20 Neonode Inc. User interface for mobile computer unit
CN100429610C (zh) * 2006-01-19 2008-10-29 宏达国际电子股份有限公司 直觉式荧幕控制器
JP4700539B2 (ja) * 2006-03-22 2011-06-15 パナソニック株式会社 表示装置
US7552402B2 (en) * 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
KR100831721B1 (ko) * 2006-12-29 2008-05-22 엘지전자 주식회사 휴대단말기의 디스플레이 장치 및 방법
JP4683110B2 (ja) * 2008-10-17 2011-05-11 ソニー株式会社 表示装置、表示方法及びプログラム
KR101531192B1 (ko) * 2008-11-14 2015-06-25 엘지전자 주식회사 이동 단말기 및 이를 이용한 맵 표시 방법
EP2196891A3 (en) 2008-11-25 2013-06-26 Samsung Electronics Co., Ltd. Device and method for providing a user interface
US8368658B2 (en) * 2008-12-02 2013-02-05 At&T Mobility Ii Llc Automatic soft key adaptation with left-right hand edge sensing
JP5267229B2 (ja) * 2009-03-09 2013-08-21 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2011014044A (ja) 2009-07-03 2011-01-20 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
JP5356272B2 (ja) 2010-02-05 2013-12-04 パナソニック株式会社 座標入力装置、座標入力方法、座標入力プログラム、及び携帯端末
US20110252376A1 (en) * 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
US20120032891A1 (en) * 2010-08-03 2012-02-09 Nima Parivar Device, Method, and Graphical User Interface with Enhanced Touch Targeting
KR101813028B1 (ko) * 2010-12-17 2017-12-28 엘지전자 주식회사 이동 단말기 및 그 디스플레이 제어 방법
KR101718893B1 (ko) * 2010-12-24 2017-04-05 삼성전자주식회사 터치 인터페이스 제공 방법 및 장치
US10042546B2 (en) * 2011-01-07 2018-08-07 Qualcomm Incorporated Systems and methods to present multiple frames on a touch screen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033158A (ja) 2008-07-25 2010-02-12 Sony Corp 情報処理装置及び情報処理方法
JP2010250610A (ja) * 2009-04-16 2010-11-04 Sony Corp 情報処理装置、傾き検出方法及び傾き検出プログラム
JP2011141753A (ja) 2010-01-07 2011-07-21 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP2011221677A (ja) 2010-04-07 2011-11-04 Sony Corp 電子機器及び操作検知方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2837997A4

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10996844B2 (en) 2013-06-12 2021-05-04 Honda Motor Co., Ltd. Program, method, and device for controlling application, and recording medium
JP2015203888A (ja) * 2014-04-10 2015-11-16 ヤフー株式会社 情報表示装置、情報表示方法および情報表示プログラム
JP2016052092A (ja) * 2014-09-02 2016-04-11 カシオ計算機株式会社 撮像装置、画像処理装置、表示制御装置、画像補正方法及びプログラム
US11921975B2 (en) 2015-03-08 2024-03-05 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
JP7432993B2 (ja) 2015-06-07 2024-02-19 アップル インコーポレイテッド ユーザインタフェース間をナビゲートするためのデバイス及び方法
JP2016028952A (ja) * 2015-09-16 2016-03-03 本田技研工業株式会社 アプリケーション制御のプログラム、方法、装置、及び記録媒体
JP2019153021A (ja) * 2018-03-02 2019-09-12 富士ゼロックス株式会社 情報処理装置及びプログラム
JP7130988B2 (ja) 2018-03-02 2022-09-06 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
EP2837997A1 (en) 2015-02-18
US20150015520A1 (en) 2015-01-15
JPWO2013145804A1 (ja) 2015-12-10
CN104246681B (zh) 2018-07-31
BR112014023286A2 (ja) 2017-06-20
KR20140148381A (ko) 2014-12-31
EP2837997A4 (en) 2016-04-20
CN104246681A (zh) 2014-12-24
BR112014023286A8 (pt) 2017-07-25
JP6036807B2 (ja) 2016-11-30
US9582096B2 (en) 2017-02-28

Similar Documents

Publication Publication Date Title
JP6036807B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5942978B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10782869B2 (en) Information processing device, information processing method, and information processing program for selectively changing a value or a change speed of the value by a user operation
US10156974B2 (en) Information processing apparatus, display control method, and display control program
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
US9110579B2 (en) Information processing apparatus, information processing method and information processing program
EP1980937B1 (en) Object search method and terminal having object search function
CN102934067B (zh) 信息处理系统、操作输入装置、信息处理装置、信息处理方法
US20160170605A1 (en) Application association processing method and apparatus
US20140362016A1 (en) Electronic book display device that performs page turning in response to user operation pressing screen, page turning method, and program
US20210064222A1 (en) Screenshot capturing method, device, electronic device and computer-readable medium
KR20130099186A (ko) 표시 장치, 유저 인터페이스 방법, 및 프로그램
KR101586559B1 (ko) 정보 처리 장치 및 정보 처리 방법
US20130127731A1 (en) Remote controller, and system and method using the same
KR20150134674A (ko) 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템
US20130201128A1 (en) Display control apparatus and control method of display control apparatus
US10983686B2 (en) Display control apparatus equipped with touch panel, control method therefor, and storage medium storing control program therefor
US10719190B2 (en) Controlling content transparency and stroke background transmittance
JP6777697B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7337520B2 (ja) 情報処理装置、情報処理装置の制御方法、プログラム、および記憶媒体
JP7358712B2 (ja) 情報処理装置、情報処理方法およびプログラム
US11010045B2 (en) Control apparatus, control method, and non-transitory computer readable medium
JP6719276B2 (ja) 情報処理装置、情報処理方法およびプログラム
AU2015258317B2 (en) Apparatus and method for controlling motion-based user interface

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13768761

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14374939

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2014507458

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013768761

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20147025948

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2014138115

Country of ref document: RU

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014023286

Country of ref document: BR

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 112014023286

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20140919