WO2014175395A1 - 装置、方法、及びプログラム - Google Patents

装置、方法、及びプログラム Download PDF

Info

Publication number
WO2014175395A1
WO2014175395A1 PCT/JP2014/061606 JP2014061606W WO2014175395A1 WO 2014175395 A1 WO2014175395 A1 WO 2014175395A1 JP 2014061606 W JP2014061606 W JP 2014061606W WO 2014175395 A1 WO2014175395 A1 WO 2014175395A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch screen
displayed
smartphone
screen
controller
Prior art date
Application number
PCT/JP2014/061606
Other languages
English (en)
French (fr)
Inventor
那由 能町
長谷川 純一
英子 村上
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US14/787,252 priority Critical patent/US9875017B2/en
Priority to JP2015513835A priority patent/JP6058790B2/ja
Publication of WO2014175395A1 publication Critical patent/WO2014175395A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • This application relates to an apparatus, a method, and a program.
  • the present application relates to a device having a touch screen, a method for controlling the device, and a program for controlling the device.
  • a touch screen device equipped with a touch screen is known.
  • Touch screen devices include, for example, smartphones and tablets.
  • the touch screen device detects a finger, pen, or stylus pen gesture via the touch screen.
  • the touch screen device operates according to the detected gesture.
  • An example of the operation according to the detected gesture is described in Patent Document 1, for example.
  • the basic operation of the touch screen device is realized by an OS (Operating System) installed in the device.
  • the OS installed in the touch screen device is, for example, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, or Windows (registered trademark) Phone.
  • the apparatus detects a touch screen display and the touch screen display detects that an object has moved in a predetermined direction while being in contact with the touch screen display, a character along the trajectory of the movement is detected.
  • a controller that displays an object that can be input on the screen displayed on the touch screen display.
  • the device when a swipe is performed on the touch screen display and the touch screen display, an object capable of inputting characters is displayed on the touch screen display along a swipe trajectory. And a controller to be displayed on the screen.
  • An apparatus includes a touch screen display and a controller that, when the touch screen display is traced, displays an object on which characters can be input on the screen displayed on the touch screen display in the traced area. And comprising.
  • a method is a method of controlling an apparatus including a touch screen display, and when the touch screen display detects that an object has moved in a predetermined direction while being in contact with the touch screen display, And displaying an object on which characters can be input on the screen displayed on the touch screen display along the movement trajectory.
  • a program When a program according to one aspect detects that an object has moved in a predetermined direction while being in contact with the touch screen display by an apparatus including a touch screen display, the program follows the movement trajectory. Then, a step of displaying an object capable of inputting characters on a screen displayed on the touch screen display is executed.
  • FIG. 1 is a perspective view illustrating an appearance of a smartphone according to the embodiment.
  • FIG. 2 is a front view illustrating an appearance of the smartphone according to the embodiment.
  • FIG. 3 is a rear view illustrating an appearance of the smartphone according to the embodiment.
  • FIG. 4 is a diagram illustrating an example of the home screen.
  • FIG. 5 is a block diagram illustrating functions of the smartphone according to the embodiment.
  • FIG. 6 is a diagram illustrating a first example of control performed by the smartphone according to the embodiment.
  • FIG. 7 is a flowchart illustrating a control processing procedure performed by the smartphone according to the embodiment.
  • FIG. 8 is a diagram illustrating processing for inputting characters into the memo object.
  • FIG. 9A is a diagram illustrating a second example of control performed by the smartphone according to the embodiment.
  • FIG. 9A is a diagram illustrating a second example of control performed by the smartphone according to the embodiment.
  • FIG. 9B is a diagram illustrating a second example of control performed by the smartphone according to the embodiment.
  • FIG. 10 is a diagram illustrating a third example of control performed by the smartphone according to the embodiment.
  • FIG. 11A is a diagram illustrating a fourth example of control performed by the smartphone according to the embodiment.
  • FIG. 11B is a diagram illustrating a fourth example of control performed by the smartphone according to the embodiment.
  • FIG. 12 is a diagram illustrating a fifth example of control performed by the smartphone according to the embodiment.
  • FIG. 13 is a diagram illustrating a sixth example of control performed by the smartphone according to the embodiment.
  • the smartphone 1 has a housing 20.
  • the housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4.
  • the front face 1 ⁇ / b> A is the front of the housing 20.
  • the back face 1 ⁇ / b> B is the back surface of the housing 20.
  • the side faces 1C1 to 1C4 are side faces that connect the front face 1A and the back face 1B.
  • the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.
  • the smartphone 1 has a touch screen display 2, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A.
  • the smartphone 1 has a speaker 11 and a camera 13 on the back face 1B.
  • the smartphone 1 has buttons 3D to 3F and a connector 14 on the side face 1C.
  • the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.
  • the touch screen display 2 has a display 2A and a touch screen 2B.
  • the display 2A includes a display device such as a liquid crystal display (Liquid Crystal Display), an organic EL panel (Organic Electro-Luminescence panel), or an inorganic EL panel (Inorganic Electro-Luminescence panel).
  • the display 2A displays characters, images, symbols, graphics, and the like.
  • the touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with the touch screen 2B.
  • the touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen, or the like is in contact with the touch screen 2B.
  • the detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.
  • a finger, pen, stylus pen, or the like that the touch screen 2B detects contact may be simply referred to as a “finger”.
  • the smartphone 1 determines the type of gesture based on at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected.
  • the gesture is an operation performed on the touch screen 2B.
  • the gesture discriminated by the smartphone 1 includes touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, pinch out, and the like.
  • “Touch” is a gesture in which a finger touches the touch screen 2B.
  • the smartphone 1 determines a gesture in which a finger contacts the touch screen 2B as a touch.
  • the smartphone 1 determines a gesture in which a single finger contacts the touch screen 2B as a single touch.
  • the smartphone 1 determines a gesture in which a plurality of fingers come into contact with the touch screen 2B as multi-touch. In the case of multi-touch, the smartphone 1 detects the number of fingers whose contact has been detected.
  • “Long touch” is a gesture in which a finger touches the touch screen 2B for a predetermined time or more.
  • the smartphone 1 determines a gesture in which a finger is in contact with the touch screen 2B for a predetermined time or more as a long touch.
  • “Release” is a gesture in which a finger leaves the touch screen 2B.
  • the smartphone 1 determines that a gesture in which a finger leaves the touch screen 2B is a release.
  • “Swipe” is a gesture in which a finger moves while touching the touch screen 2B.
  • the smartphone 1 determines a gesture that moves while the finger is in contact with the touch screen 2B as a swipe.
  • “Tap” is a gesture for releasing following a touch.
  • the smartphone 1 determines a gesture that is released following a touch as a tap.
  • the “double tap” is a gesture in which a gesture for releasing following a touch is continued twice.
  • the smartphone 1 determines a gesture in which a gesture for releasing following a touch is continued twice as a double tap.
  • “Long tap” is a gesture to release following a long touch.
  • the smartphone 1 determines a gesture for releasing following a long touch as a long tap.
  • “Drag” is a gesture for performing a swipe starting from an area where a movable object is displayed.
  • the smartphone 1 determines, as a drag, a gesture for performing a swipe starting from an area where a movable object is displayed.
  • “Flick” is a gesture that is released while the finger moves in one direction following the touch.
  • the smartphone 1 determines, as a flick, a gesture that is released while the finger moves in one direction following the touch.
  • the movement speed of the flick is higher than the movement speed of the swipe and the drag.
  • Flick is "upper flick” where the finger moves upward on the screen, “lower flick” where the finger moves downward on the screen, “right flick” where the finger moves rightward on the screen, finger is left on the screen “Left flick” that moves in the direction, “Slant upper left flick” that moves the finger diagonally in the upper left direction of the screen, “Slant lower left flick” that moves the finger in the lower left direction of the screen, and the finger moves in the upper right direction of the screen “Oblique right upper flick”, “oblique right flick” in which the finger moves diagonally lower right on the screen, and the like.
  • “Pinch-in” is a gesture that swipes in the direction in which multiple fingers approach.
  • the smartphone 1 determines, as a pinch-in, a gesture that swipes in a direction in which a plurality of fingers approach.
  • “Pinch out” is a gesture of swiping in a direction in which a plurality of fingers move away.
  • the smartphone 1 determines a gesture of swiping in a direction in which a plurality of fingers move away as a pinch out.
  • the smartphone 1 operates according to these gestures determined via the touch screen 2B. Therefore, an operability that is intuitive and easy to use for the user is realized.
  • the operation performed by the smartphone 1 according to the determined gesture differs depending on the screen displayed on the display 2A.
  • the touch screen 2B detects contact and the smartphone 1 determines that the gesture type is X based on the detected contact”
  • the controller detects X”.
  • FIG. 4 shows an example of the home screen.
  • the home screen may be called a desktop or a standby screen.
  • the home screen is displayed on the display 2A.
  • the home screen is a screen that allows the user to select which application to execute from among the applications installed in the smartphone 1.
  • the smartphone 1 executes the application selected on the home screen in the foreground.
  • the screen of the application executed in the foreground is displayed on the display 2A.
  • Smartphone 1 can place an icon on the home screen.
  • a plurality of icons 50 are arranged on the home screen 40 shown in FIG.
  • Each icon 50 is associated with an application installed in the smartphone 1 in advance.
  • the smartphone 1 detects a gesture for the icon 50, the smartphone 1 executes an application associated with the icon 50.
  • the smartphone 1 executes the mail application when a tap on the icon 50 associated with the mail application is detected.
  • the icon 50 includes an image and a character string.
  • the icon 50 may include a symbol or a graphic instead of the image.
  • the icon 50 may not include either an image or a character string.
  • the icons 50 are arranged based on the arrangement pattern.
  • a wallpaper 41 is displayed behind the icon 50.
  • the wallpaper is sometimes called a photo screen or a back screen.
  • the smartphone 1 can use any image as the wallpaper 41.
  • An arbitrary image may be determined as the wallpaper 41 according to the setting of the user.
  • the smartphone 1 can increase or decrease the number of home screens 40. For example, the smartphone 1 determines the number of home screens 40 according to the setting by the user. The smartphone 1 displays the selected one on the display 2 ⁇ / b> A even if there are a plurality of home screens 40.
  • the smartphone 1 displays a locator 51 including one or more symbols on the home screen 40.
  • the number of symbols matches the number of home screens 40.
  • the locator 51 indicates which home screen 40 is currently displayed. In the locator 51, the symbol corresponding to the currently displayed home screen 40 is displayed in a manner different from other symbols.
  • a locator 51 including three symbols is displayed. This indicates that the number of home screens 40 is three. Each of the three symbols is circular.
  • the leftmost symbol is displayed in a manner different from other symbols. That is, symbols other than the leftmost symbol are displayed as a circular frame, but the leftmost symbol is displayed in a state where the inside of the circular frame is filled. This indicates that the leftmost home screen 40 is currently displayed on the display 2A.
  • the smartphone 1 When the smartphone 1 detects a gesture in the horizontal direction while displaying the home screen 40, the smartphone 1 switches the home screen 40 displayed on the display 2A according to the gesture. For example, when detecting a right flick, the smartphone 1 switches the home screen 40 displayed on the display 2 ⁇ / b> A to the left home screen 40. For example, when detecting a left flick, the smartphone 1 switches the home screen 40 displayed on the display 2A to the home screen 40 on the right.
  • the process in which the smartphone 1 switches the home screen 40 in the horizontal direction according to the left / right flick gesture will be described in detail later.
  • the smartphone 1 switches the home screen 40 in the horizontal direction, the display of the locator 51 is updated according to the position of the home screen 40 after switching.
  • a region 42 is provided at the upper end of the display 2A.
  • a remaining amount mark 43 indicating the remaining amount of the rechargeable battery and a radio wave level mark 44 indicating the electric field strength of the communication radio wave are displayed.
  • the smartphone 1 may display the time, weather, running application, communication system type, telephone status, device mode, event occurring in the device, and the like in the area 42.
  • the area 42 is used for various notifications to the user.
  • the area 42 may be provided on a screen other than the home screen 40. The position where the region 42 is provided is not limited to the upper end of the display 2A.
  • the vertical direction of the home screen 40 is a direction based on the vertical direction of characters or images displayed on the display 2A. Therefore, in the home screen 40, the side closer to the region 42 in the longitudinal direction of the touch screen display 2 is the upper side of the home screen 40, and the side far from the region 42 is the lower side of the home screen 40.
  • the side where the radio wave level mark 44 is displayed in the area 42 is the right side of the home screen 40, and the side where the remaining amount mark 43 is displayed in the area 42 is the left side of the home screen 40.
  • the smartphone 1 determines, for example, the upper left direction, the lower right direction, the left direction, and the right direction of the home screen 40 based on the vertical direction of the characters or images displayed on the home screen 40.
  • the home screen 40 shown in FIG. 4 is an example, and the forms of various elements, the arrangement of various elements, the number of home screens 40, how to perform various operations on the home screen 40, and the like are as described above. It does not have to be.
  • FIG. 5 is a block diagram showing the configuration of the smartphone 1.
  • the smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, a speaker 11, and a camera. 12 and 13, a connector 14, an acceleration sensor 15, an orientation sensor 16, and a gyroscope 17.
  • the touch screen display 2 has the display 2A and the touch screen 2B as described above.
  • the display 2A displays characters, images, symbols, graphics, or the like.
  • the touch screen 2B detects contact.
  • the controller 10 detects a gesture for the smartphone 1.
  • the controller 10 detects an operation (gesture) on the touch screen 2B (touch screen display 2) by cooperating with the touch screen 2B.
  • the button 3 is operated by the user.
  • the button 3 has buttons 3A to 3F.
  • the controller 10 detects an operation on the button 3 by cooperating with the button 3.
  • the operations on the button 3 are, for example, click, double click, triple click, push, and multi-push.
  • the buttons 3A to 3C are, for example, a home button, a back button, or a menu button.
  • the button 3D is, for example, a power on / off button of the smartphone 1.
  • the button 3D may also serve as a sleep / sleep release button.
  • the buttons 3E and 3F are volume buttons, for example.
  • the illuminance sensor 4 detects illuminance. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects that the touch screen display 2 is brought close to the face, for example.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor.
  • the communication unit 6 communicates wirelessly.
  • the communication method performed by the communication unit 6 is a wireless communication standard.
  • wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (Regular Trademark) (GloSmMobleSport). (Personal Handy-phone System).
  • Examples of wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearFild, etc.).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the receiver 7 and the speaker 11 output the sound signal transmitted from the controller 10 as sound.
  • the receiver 7 is used, for example, to output the other party's voice during a call.
  • the speaker 11 is used for outputting a ring tone and music, for example.
  • One of the receiver 7 and the speaker 11 may also function as the other.
  • the microphone 8 converts the voice of the user or the like into a voice signal and transmits it to the controller 10.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include any non-transitory storage device such as a semiconductor storage device and a magnetic storage device.
  • the storage 9 may include a plurality of types of storage devices.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • the application displays a screen on the display 2A, and causes the controller 10 to execute processing according to a gesture detected via the touch screen 2B.
  • the control program is, for example, an OS.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, a mail application 9B, a browser application 9C, and setting data 9Z.
  • the mail application 9B provides an electronic mail function.
  • the e-mail function enables, for example, creation, transmission, reception, and display of an e-mail.
  • the browser application 9C provides a WEB browsing function.
  • the WEB browsing function enables, for example, display of a WEB page and editing of a bookmark.
  • the setting data 9Z provides various setting functions related to the operation of the smartphone 1.
  • the control program 9A provides functions related to various controls for operating the smartphone 1.
  • the control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example.
  • the function provided by the control program 9A includes a function of changing the home screen 40 to be displayed according to the gesture.
  • the function provided by the control program 9A may be used in combination with a function provided by another program such as the mail application 9B.
  • the controller 10 is an arithmetic circuit.
  • the arithmetic circuit is, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), or an FPGA (Field-Programmable Gate Array).
  • the controller 10 controls various operations of the smartphone 1 to realize various functions.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. Then, the controller 10 controls the functional units such as the display 2A and the communication unit 6 in accordance with data and commands, thereby realizing various functions.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • the functional unit includes the display 2A, the communication unit 6, the microphone 8, and the speaker 11, but is not limited thereto.
  • the detection unit includes, but is not limited to, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the receiver 7, the camera 12, the camera 13, the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17.
  • the controller 10 changes the home screen 40 displayed according to the gesture, for example, by executing the control program 9A.
  • the camera 12 is an in-camera that captures an object facing the front face 1A.
  • the camera 13 is an out camera that captures an object facing the back face 1B.
  • the connector 14 is a terminal to which other devices are connected.
  • the connector 14 may be a general-purpose terminal such as a USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), Light Peak (Thunderbolt (registered trademark)), or an earphone microphone connector.
  • the connector 14 may be a dedicated terminal such as a dock connector.
  • Devices connected to the connector 14 are, for example, an external storage, a speaker, and a communication device.
  • the acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1.
  • the direction sensor 16 detects the direction of geomagnetism.
  • the gyroscope 17 detects the angle and angular velocity of the smartphone 1. The detection results of the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17 are used in combination in order to detect changes in the position and orientation of the smartphone 1.
  • a part or all of the program stored in the storage 9 may be downloaded from another device by wireless communication by the communication unit 6.
  • 5 may be stored in a non-transitory storage medium that can be read by a reading device included in the storage 9.
  • 5 may be stored in a non-transitory storage medium that can be read by the reading device connected to the connector 14.
  • the non-transitory storage medium is, for example, an optical disc such as a CD (registered trademark), a DVD (registered trademark), or a Blu-ray (registered trademark), a magneto-optical disk, or a memory card.
  • the configuration of the smartphone 1 shown in FIG. 5 is an example, and may be changed as appropriate without departing from the gist of the present application.
  • the number and type of buttons 3 are not limited to the example of FIG.
  • the smartphone 1 may include buttons such as a numeric keypad layout or a QWERTY layout instead of the buttons 3A to 3C as buttons for operations related to the screen.
  • the smartphone 1 may include only one button or may not include a button for operations related to the screen.
  • the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera.
  • the smartphone 1 includes three types of sensors in order to detect the position and orientation, but the smartphone 1 may not include some of these sensors.
  • the smartphone 1 may include another type of sensor for detecting at least one of a position and a posture.
  • FIG. 6 is a diagram illustrating a first example of control performed by the smartphone according to the embodiment.
  • the user moves the finger in the right direction with the finger in contact with a predetermined area near the left end of the home screen 40.
  • the user is tracing the surface of the touch screen display 2.
  • the controller 10 of the smartphone 1 detects a swipe. Specifically, the controller 10 detects a right swipe starting from a predetermined area near the left end of the home screen 40.
  • the controller 10 displays the memo object 55 on the home screen 40 along the movement trajectory.
  • the memo object 55 is an object imitating the shape of a sticky note.
  • the memo object 55 is displayed such that the part located on the left end side of the home screen 40 that is the start point of the swipe is glued to the home screen 40.
  • the memo object 55 is displayed corresponding to the area traced by the user.
  • the predetermined area near the left end of the home screen 40 is, for example, between the left end of the home screen 40 and a position separated from the left end of the home screen 40 by a length that is 1/20 of the length in the short direction of the home screen 40. It is an area. Note that the position of the predetermined region and the size of the region can be set as appropriate. For example, the predetermined area may be an area near the right end, the lower end, or the upper end of the home screen 40.
  • the controller 10 displays the memo object 55 on the home screen 40
  • the memo object 55 follows the user's finger while the swipe is being performed so that the memo object 55 gradually becomes longer (grows gradually). May be displayed. While the swipe is being performed, the controller 10 does not display the memo object 55.
  • the controller 10 first displays the memo object 55 at that time. It may be displayed. The controller 10 may make the length of the memo object 55 the same as the length of the swipe trajectory, or may be shorter or longer than the length of the swipe trajectory.
  • FIG. 7 is a flowchart illustrating a processing procedure of a first example of control performed by the smartphone according to the embodiment.
  • step S ⁇ b> 2 the controller 10 determines whether the detected swipe start point is within the end region of the home screen 40.
  • the end area of the home screen 40 is separated from the left end of the home screen 40 by a length that is 1/20 of the length in the short direction of the home screen 40 from the left end of the home screen 40. The area between the positions. If the controller 10 determines that the start point of the detected swipe is within the end region of the home screen 40 (Yes in step S2), the controller 10 proceeds to step S3. If the controller 10 determines that the start point of the detected swipe is not within the end area of the home screen 40 (No in step S2), the controller 10 proceeds to step S4.
  • the controller 10 displays the memo object 55 along the swipe trajectory on the home screen 40 as step S3.
  • the controller 10 changes the home screen 40 to another home screen as step S4.
  • FIG. 8 is a diagram illustrating processing for inputting characters into the memo object.
  • the controller 10 of the smartphone 1 displays the memo object 55 by the process shown in FIG. 6, the controller 10 of the smartphone 1 displays the character input screen shown in step S ⁇ b> 11 of FIG.
  • the character input screen includes a character input area 60 and a keyboard 61.
  • Step S11 in FIG. 8 shows a state in which a character string “14:00 Shibuya” is input to the character input area 60 by the user.
  • the controller 10 When the controller 10 detects the tap on the memo object 55 after displaying the memo object 55, the controller 10 may transition to the character input screen. When the swipe is completed, that is, when it is detected that the user's finger has left the touch screen 2B, the controller 10 may display the memo object 55 and automatically shift to the character input screen.
  • the importance level of the memo object 55 can be set as shown in step S12 of FIG. Of course, it is not necessary to change to the screen for setting the importance.
  • the controller 10 displays the memo object 55 on the home screen 40 as shown in step S13 of FIG. .
  • the memo object 55 the character input in the character input area 60 in step S11 of FIG. 8 is displayed.
  • the memo object 55 is displayed so as to overlap some of the plurality of icons 50 displayed on the home screen 40.
  • FIGS. 9A and 9B are diagrams illustrating a second example of control performed by the smartphone according to the embodiment.
  • the home screen 40 displays an icon 50 corresponding to the memo application.
  • the user moves the finger in the right direction with the finger in contact with the icon 50.
  • the controller 10 of the smartphone 1 detects a right swipe starting from the icon 50.
  • the controller 10 displays a memo object 55 that is long in the horizontal direction on the home screen 40 along the movement locus.
  • the memo object 55 is displayed as drawn from the icon 50.
  • FIG. 9A shows an example in which the user performs a right swipe from the icon 50 corresponding to the memo application, but the swipe direction is not limited to this.
  • FIG. 9B the user is performing a swipe downward from the icon 50.
  • the controller 10 detects a downward swipe starting from the icon 50, the controller 10 causes the home screen 40 to display a memo object 55 that is long in the vertical direction along the swipe trajectory.
  • the controller 10 may determine whether characters can be input vertically or horizontally with respect to the memo object 55 according to the swipe direction. That is, when displaying a horizontally long memo object 55 as shown in FIG. 9A, characters can be input horizontally in the character input area 60 of step S11 of FIG. 8, and a vertically long memo object 55 is displayed as shown in FIG. 9B. In this case, characters may be input vertically in the character input area 60.
  • FIG. 10 is a diagram illustrating a third example of control performed by the smartphone according to the embodiment.
  • the user performs a left swipe on the home screen 40a on which the memo object 55a is displayed.
  • the start point of the swipe is not in the predetermined area at the end of the home screen 40a described above, but near the center of the home screen 40a.
  • the controller 10 determines that the detected swipe start point is not within the end region of the home screen 40a as shown in the flowchart of FIG. 7, and the home screen 40a is displayed on the home screen 40a as shown in step S22 of FIG. It changes to the home screen 40b which is a home screen on the right side of the screen 40a.
  • the controller 10 displays a memo object 55b different from the memo object 55a originally displayed on the home screen 40b.
  • the controller 10 associates the memo object 55a with the home screen 40a, and when a gesture for changing (switching) the home screen 40a is performed, the memo object associated with the home screen 40b displayed on the display 2A. 55b is displayed. For example, when a gesture for changing (switching) the home screen 40a is performed in a state where a tap on the memo object 55a is detected, the controller 10 may display the memo object 55a on the home screen 40b. That is, the controller 10 may change the home screen while displaying the memo object 55a.
  • FIG. 11A and FIG. 11B are diagrams illustrating a fourth example of control performed by the smartphone according to the embodiment.
  • the user swipes the area 42 downward.
  • the controller 10 detects a swipe for the area 42, the controller 10 follows the swipe and displays the drawer 420.
  • the drawer 420 is an area where various information such as the presence of unread mail and the update of an application are displayed.
  • the controller 10 covers the memo object 55 by the drawer 420 pulled out from the area 42 in response to the user's swipe, and then the user moves toward the area 42 with respect to the drawer 420 (drawn out).
  • the swipe in the direction of returning the drawer 420 to the area 42 is performed, the memo object 55 is not displayed. Thereby, the visibility of the home screen 40 is ensured.
  • FIG. 12 is a diagram illustrating a fifth example of control performed by the smartphone according to the embodiment.
  • the user flicks the memo object 55 displayed on the home screen 40 in the left direction.
  • the controller 10 detects a flick in the left direction with respect to the memo object 55
  • the memo object 55 is set to the home so that a part of the memo object 55 extends from the end of the home screen 40, as shown in step S32 of FIG. It is displayed on the screen 40.
  • step S31 of FIG. 12 when “14:00 Shibuya” is input to the memo object 55, for example, as in step S13 of FIG. 8, the home screen 40 is displayed in the state shown in step S32 of FIG.
  • “Shibu 14” may be displayed on a part of the memo object 55 located at the end. That is, when the controller 10 puts the memo object 55 to which a predetermined character string has been input into a state where only a part of the memo object 55 is displayed, You may display. Thereby, while ensuring the visibility of the home screen 40, the user can also recognize the presence of the memo object, which improves usability.
  • FIG. 13 is a diagram illustrating a sixth example of control performed by the smartphone according to the embodiment.
  • the lock screen 45 is displayed on the display 2A.
  • the lock screen 45 is a screen provided to prevent unauthorized use of the smartphone 1.
  • the user is swiping the lock screen 45.
  • the controller 10 detects the swipe, the memo object 55 is displayed on the lock screen 45 along the swipe trajectory.
  • the controller 10 performs a swipe for switching the home screen 40 and a memo object. It is distinguished from the swipe for displaying 55.
  • the lock screen 45 does not have a screen to be switched by swipe, as shown in FIG. 13, when the lock screen 45 is displayed, the swipe starts from the center of the lock screen. Even if it exists, the memo object 55 may be displayed. That is, the swipe does not have to start from the end area of the screen.
  • the controller 10 When the controller 10 detects a tap on the memo object 55 in a state where the memo object 55 is displayed on the lock screen 45 and detects that an operation for releasing the lock has been performed, the controller 10 displays the lock screen 45 on the lock screen 45.
  • the memo object 55 that has been stored may be displayed on the home screen 40.
  • the smartphone 1 according to the present embodiment when the smartphone 1 according to the present embodiment is swiped with respect to the home screen 40 or the lock screen 45, the memo object 55 on which characters can be input is displayed along the swipe trajectory.
  • a memo object that can display information without starting a specific application can be displayed on the home screen by an intuitive operation, and usability is improved.
  • Control of the smartphone 1 according to the present embodiment shown in FIG. 6 is compared with a technique of starting a memo application by tapping an icon arranged on the home screen and then arranging a memo object on the home screen by a predetermined operation. Since the number of steps for arranging the memo object on the home screen is small, user convenience is improved.
  • a memo object can be generated starting from the memo application icon arranged on the home screen 40, so that the user can easily arrange the memo object on the screen by an intuitive operation. be able to.
  • the smartphone 1 is not limited to the above-described control example, and various embodiments can be considered.
  • the controller 10 of the smartphone 1 may automatically hide the memo object 55 to which the time is input when the input time has passed.
  • the memo object 55 is displayed in a manner in which the memo object 55 is peeling off from the screen, in a manner in which the color is dull, in a manner in which the scratch is attached, or in a manner in which the memo object 55 is folded. You can.
  • the scheduled time has passed to the user by changing the display mode of the memo object 55 whose scheduled time has passed as described above. Can be notified.
  • the user who has received the notification can delete the memo object 55 whose time has passed, for example.
  • the controller 10 compares the information input to the plurality of memo objects 55, and if the same or similar information is input, displays the plurality of memo objects 55 so that at least a part of both overlaps. You can do it. Thereby, the visibility of the home screen can be ensured.
  • the controller 10 may display the memo object 55 when detecting taps at two different points on the home screen 40 or the lock screen 45 at the same time.
  • the length of the memo object 55 may be the same as the distance between the two points where the tap is detected.
  • controller 10 may delete the memo object 55 when the memo object 55 is swipe in the reverse direction to the swipe when the memo object 55 is generated as shown in FIG.

Abstract

 スマートフォン(1)は、タッチスクリーンディスプレイ(2)と、タッチスクリーンにより物体がタッチスクリーンディスプレイ(2)に接触したまま所定の方向に移動したことが検出されると、当該移動の軌跡に沿って、文字の入力が可能なメモオブジェクト(55)をタッチスクリーンディスプレイ(2)に表示された画面上に表示させるコントローラと、を備える。これにより、スマートフォン(1)は、使い勝手を向上させることができる。

Description

装置、方法、及びプログラム
 本出願は、装置、方法、及びプログラムに関する。特に、本出願は、タッチスクリーンを有する装置、その装置を制御する方法、及びその装置を制御するためのプログラムに関する。
 タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスには、例えば、スマートフォン及びタブレットが含まれる。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
 タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、Windows(登録商標) Phoneである。
国際公開第2008/086302号
 タッチスクリーンデバイスを備えた装置、方法、及びプログラムにおいては、使い勝手の向上が求められている。
 1つの態様に係る装置は、タッチスクリーンディスプレイと、前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことが検出されると、当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、を備える。
 1つの態様に係る装置は、タッチスクリーンディスプレイと、前記タッチスクリーンディスプレイに対してスワイプが行われると、当該スワイプの軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、を備える。
 1つの態様に係る装置は、タッチスクリーンディスプレイと、前記タッチスクリーンディスプレイがなぞられると、なぞられた領域に、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、を備える。
 1つの態様に係る方法は、タッチスクリーンディスプレイを備える装置を制御する方法であって、前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことが検出されると、当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるステップを含む。
 1つの態様に係るプログラムは、タッチスクリーンディスプレイを備える装置に、前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことが検出されると、当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるステップを実行させる。
 本発明によれば、使い勝手が向上された装置、方法、及びプログラムを提供することができる。
図1は、実施形態に係るスマートフォンの外観を示す斜視図である。 図2は、実施形態に係るスマートフォンの外観を示す正面図である。 図3は、実施形態に係るスマートフォンの外観を示す背面図である。 図4は、ホーム画面の一例を示す図である。 図5は、実施形態に係るスマートフォンの機能を示すブロック図である。 図6は、実施形態に係るスマートフォンが行う制御の第1の例を示す図である。 図7は、実施形態に係るスマートフォンが行う制御の処理手順を示すフローチャートである。 図8は、メモオブジェクトに文字を入力する処理を示す図である。 図9Aは、実施形態に係るスマートフォンが行う制御の第2の例を示す図である。 図9Bは、実施形態に係るスマートフォンが行う制御の第2の例を示す図である。 図10は、実施形態に係るスマートフォンが行う制御の第3の例を示す図である。 図11Aは、実施形態に係るスマートフォンが行う制御の第4の例を示す図である。 図11Bは、実施形態に係るスマートフォンが行う制御の第4の例を示す図である。 図12は、実施形態に係るスマートフォンが行う制御の第5の例を示す図である。 図13は、実施形態に係るスマートフォンが行う制御の第6の例を示す図である。
 図面を参照しつつ実施形態を詳細に説明する。以下では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明する。
(実施形態)
 図1から図3を参照しながら、本実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1~1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1~1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1~1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
 スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A~3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D~3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A~3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
 タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro-Luminescence panel)、又は無機ELパネル(Inorganic Electro-Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号又は図形等を表示する。
 タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。
 タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下では、説明を簡単にするため、タッチスクリーン2Bが接触を検出する指、ペン、又はスタイラスペン等は単に「指」ということがある。
 スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャには、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチアウト等が含まれる。
 「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。スマートフォン1は、タッチスクリーン2Bに単数の指が接触するジェスチャをシングルタッチとして判別する。スマートフォン1は、タッチスクリーン2Bに複数の指が接触するジェスチャをマルチタッチとして判別する。スマートフォン1は、マルチタッチの場合、接触が検出された指の本数を検出する。「ロングタッチ」とは、タッチスクリーン2Bに指が一定時間以上触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間以上接触するジェスチャをロングタッチとして判別する。
 「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。
 「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1 は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
 「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。
 「フリック」は、タッチに続いて指が一方方向へ移動しながらリリースするジェスチャである。スマートフォン1は、タッチに続いて指が一方方向へ移動しながらリリースするジェスチャをフリックとして判別する。フリックの移動速度は、スワイプおよびドラッグの移動速度と比較して高速である。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」、指が画面の斜め左上方向へ移動する「斜め左上フリック」、指が画面の斜め左下方向へ移動する「斜め左下フリック」、指が画面の斜め右上方向へ移動する「斜め右上フリック」、指が画面の斜め右下方向へ移動する「斜め右下フリック」等を含む。
 「ピンチイン」は、複数の指が近付く方向にスワイプするジェスチャである。スマートフォン1は、複数の指が近付く方向にスワイプするジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、複数の指が遠ざかる方向にスワイプするジェスチャをピンチアウトとして判別する。
 スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なる。以下では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいてジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォン1がXを検出する」、又は「コントローラがXを検出する」と記載することがある。
 図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の一例を示している。ホーム画面は、デスクトップ、又は待受画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。
 スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、そのアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップが検出されると、メールアプリケーションを実行する。
 アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、配置パターンに基づいて配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン又はバックスクリーンと呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。利用者の設定に従って任意の画像が壁紙41として決定されてもよい。
 スマートフォン1は、ホーム画面40の数を増減することができる。スマートフォン1は、例えば、ホーム画面40の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面40の数が複数であっても、選択された1つをディスプレイ2Aに表示する。
 スマートフォン1は、ホーム画面40上に、1つ又は複数のシンボルを含むロケータ51を表示する。シンボルの数は、ホーム画面40の数と一致する。ロケータ51は、どのホーム画面40が現在表示されているかを示す。ロケータ51において、現在表示されているホーム画面40に対応するシンボルは、他のシンボルと異なる態様で表示される。
 図4に示す例では、3つのシンボルを含むロケータ51が表示されている。これは、ホーム画面40の数が3つであることを示す。3つのシンボル各々は、円形である。図4に示す例では、左端のシンボルが他のシンボルと異なる態様で表示されている。すなわち、左端のシンボルを除くシンボルは円形の枠として表示されているが、左端のシンボルは円形の枠の内部が塗りつぶされた状態で表示されている。これは、左端のホーム画面40が現在ディスプレイ2Aに表示されていることを示している。
 スマートフォン1は、ホーム画面40を表示中に横方向のジェスチャを検出すると、当該ジェスチャに応じてディスプレイ2Aに表示するホーム画面40を切り替える。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面40を1つ左のホーム画面40に切り替える。例えば、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面40を1つ右のホーム画面40に切り替える。スマートフォン1が左右方向のフリックジェスチャに応じてホーム画面40を横方向に切り替える処理については、後で詳細に説明する。スマートフォン1は、ホーム画面40を横方向に切り替えると、ロケータ51の表示を、切り替え後のホーム画面40の位置に合わせて更新する。
 ディスプレイ2Aの上端には、領域42が設けられている。領域42には、充電池の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、時刻、天気、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40以外の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限定されない。
 ホーム画面40の上下方向は、ディスプレイ2Aに表示される文字または画像の上下方向を基準とした方向である。よって、ホーム画面40は、タッチスクリーンディスプレイ2の長手方向において領域42に近い側がホーム画面40の上側となり、領域42から遠い側がホーム画面40の下側となる。領域42において電波レベルマーク44が表示されている側がホーム画面40の右側であり、領域42において残量マーク43が表示されている側がホーム画面40の左側である。スマートフォン1は、ホーム画面40に表示される文字または画像の上下方向に基づいて、例えば、ホーム画面40の斜め左上方向、斜め右下方向、左方向、および、右方向を決定する。
 図4に示したホーム画面40は、一例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。
 図5は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。
 タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。
 ボタン3は、利用者によって操作される。ボタン3は、ボタン3A~ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュである。
 ボタン3A~3Cは、例えば、ホームボタン、バックボタン、又はメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。
 照度センサ4は、照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。
 通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。無線通信規格として、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 レシーバ7及びスピーカ11は、コントローラ10から送信される音声信号を音声として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の非一過的(non-transitory)な記憶デバイスを含んでよい。ストレージ9は、複数の種類の記憶デバイスを含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C及び設定データ9Zを記憶する。メールアプリケーション9Bは、電子メール機能を提供する。電子メール機能は、例えば、電子メールの作成、送信、受信、及び表示等を可能にする。ブラウザアプリケーション9Cは、WEBブラウジング機能を提供する。WEBブラウジング機能は、例えば、WEBページの表示、及びブックマークの編集等を可能にする。設定データ9Zは、スマートフォン1の動作に関する各種の設定機能を提供する。
 制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、ジェスチャに応じて表示させるホーム画面40を変更する機能が含まれる。制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
 コントローラ10は、演算回路である。演算回路は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、又はFPGA(Field-Programmable Gate Array)である。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じてディスプレイ2A及び通信ユニット6等の機能部を制御し、それによって各種機能を実現する。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。機能部は、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。検出部は、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、レシーバ7、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むがこれらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aを実行することにより、ジェスチャに応じて表示させるホーム画面40を変更する。
 カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
 コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置である。
 加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
 図5においてストレージ9が記憶するプログラムの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラムの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図5においてストレージ9が記憶するプログラムの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、又はメモリカードである。
 図5に示したスマートフォン1の構成は一例であり、本出願の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図5の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A~3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてよいし、ボタンを備えなくてもよい。図5に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図5に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも一つを検出するための他の種類のセンサを備えてもよい。
 以下、図6~図13を参照しながら、スマートフォン1が、利用者のタッチスクリーンディスプレイ2に対するジェスチャに応じて行う処理について説明する。
 図6は、実施形態に係るスマートフォンが行う制御の第1の例を示す図である。図6では、ユーザが、指をホーム画面40の左端近傍の所定領域に接触させた状態で、指を右方向へ移動させている。又は、ユーザが、タッチスクリーンディスプレイ2の表面をなぞっている。このとき、スマートフォン1のコントローラ10は、スワイプを検出する。具体的には、コントローラ10は、ホーム画面40の左端近傍の所定領域内を始点とする右方向へのスワイプを検出する。そして、ユーザが指を右方向へ移動させると、コントローラ10は、当該移動の軌跡に沿って、メモオブジェクト55をホーム画面40に表示する。メモオブジェクト55は、付箋の形状を模したオブジェクトである。メモオブジェクト55は、スワイプの始点であるホーム画面40の左端側に位置する部分がホーム画面40に糊づけされているように表示される。メモオブジェクト55は、ユーザによってなぞられた領域に対応して表示される。
 ホーム画面40の左端近傍の所定領域は、例えば、ホーム画面40の左端と、ホーム画面40の左端からホーム画面40の短手方向の長さの20分の1の長さだけ離れた位置の間の領域である。尚、所定領域の位置及び領域の広さは、適宜設定され得る。例えば、所定領域は、ホーム画面40の右端、下端又は上端のいずれかの近傍の領域であってもよい。
 コントローラ10は、メモオブジェクト55をホーム画面40に表示する場合、スワイプが行われている最中に、メモオブジェクト55がユーザの指に追随して徐々に長くなる(徐々に伸びていく)ように表示してよい。コントローラ10は、スワイプが行われている最中はメモオブジェクト55を表示せず、スワイプが終了すると、すなわちユーザの指がタッチスクリーン2Bから離れたことを検出すると、その時点で初めてメモオブジェクト55を表示してもよい。コントローラ10は、メモオブジェクト55の長さを、スワイプの軌跡の長さと同じ長さとしてよいし、スワイプの軌跡の長さより短く或いは長くしてもよい。
 図7は、実施形態に係るスマートフォンが行う制御の第1の例の処理手順を示すフローチャートである。
 スマートフォン1のコントローラ10は、ステップS1で、スワイプを検出する。そして、ステップS2に進む。コントローラ10は、ステップS2として、検出したスワイプの始点がホーム画面40の端部領域内にあるか否かを判定する。ホーム画面40の端部領域は、図6に示す例では、ホーム画面40の左端と、ホーム画面40の左端からホーム画面40の短手方向の長さの20分の1の長さだけ離れた位置の間の領域である。コントローラ10は、検出したスワイプの始点がホーム画面40の端部領域内にあると判定した場合(ステップS2でYes)、ステップS3に進む。コントローラ10は、検出したスワイプの始点がホーム画面40の端部領域内にないと判定した場合(ステップS2でNo)、ステップS4に進む。
 コントローラ10は、ステップS3として、ホーム画面40上に、スワイプの軌跡に沿ってメモオブジェクト55を表示する。コントローラ10は、ステップS4として、ホーム画面40を別のホーム画面に変更する。
 次に、図8を用いて、メモオブジェクト55に文字を入力する処理について説明する。図8は、メモオブジェクトに文字を入力する処理を示す図である。スマートフォン1のコントローラ10は、図6に示す処理によってメモオブジェクト55を表示させると、図8のステップS11に示す文字入力画面を表示させ、メモオブジェクト55に対する文字の入力を可能とする。文字入力画面は、文字入力領域60とキーボード61とを含む。図8のステップS11は、ユーザにより、文字入力領域60に、「14:00 渋谷」という文字列が入力された様子を示している。
 コントローラ10は、メモオブジェクト55を表示させた後、メモオブジェクト55に対するタップを検出すると、文字入力画面に遷移してよい。コントローラ10は、スワイプが終了すると、すなわちユーザの指がタッチスクリーン2Bから離れたことを検出すると、メモオブジェクト55を表示させるとともに自動的に文字入力画面に遷移してもよい。
 文字の入力が確定すると、図8のステップS12に示すように、メモオブジェクト55の重要度を設定することもできる。もちろん、重要度を設定する画面に遷移しなくともよい。
 そして、ユーザの操作に基づいて文字の入力が確定しメモオブジェクト55の重要度が設定されると、コントローラ10は、図8のステップS13に示すように、メモオブジェクト55をホーム画面40に表示させる。メモオブジェクト55には、図8のステップS11で文字入力領域60に入力された文字が表示されている。図8のステップS13では、メモオブジェクト55が、ホーム画面40に表示される複数のアイコン50のうち一部のアイコンに重ねて表示されている。
 図9A及び図9Bは、実施形態に係るスマートフォンが行う制御の第2の例を示す図である。図9Aに示すように、ホーム画面40には、メモアプリケーションに対応するアイコン50が表示されている。そして、ユーザが、指をアイコン50に接触させた状態で、指を右方向へ移動させている。このとき、スマートフォン1のコントローラ10は、アイコン50を始点とする右方向へのスワイプを検出する。そして、ユーザが指を右方向へ移動させると、コントローラ10は、当該移動の軌跡に沿って、横方向に長いメモオブジェクト55をホーム画面40に表示する。図9Aでは、メモオブジェクト55は、アイコン50から引き出されたように表示される。
 図9Aでは、ユーザがメモアプリケーションに対応するアイコン50から右方向へのスワイプを行う例を示したが、スワイプの方向はこれに限られない。図9Bでは、ユーザが、アイコン50から下方向へのスワイプを行っている。コントローラ10は、アイコン50を始点とする下方向へのスワイプを検出すると、スワイプの軌跡に沿って、縦方向に長いメモオブジェクト55をホーム画面40に表示させる。
 コントローラ10は、スワイプの方向に応じて、メモオブジェクト55に対して文字を縦書きで入力可能とするか或いは横書きで入力可能とするかを決定してよい。すなわち、図9Aのように横長のメモオブジェクト55を表示する場合には、図8のステップS11の文字入力領域60において文字を横書きで入力可能とし、図9Bのように縦長のメモオブジェクト55を表示する場合には、文字入力領域60において文字を縦書きで入力可能としてよい。
 図10は、実施形態に係るスマートフォンが行う制御の第3の例を示す図である。図10のステップS21では、メモオブジェクト55aが表示されたホーム画面40aに対して、ユーザが左方向へのスワイプを行っている。このスワイプの始点は、上述したホーム画面40aの端部の所定領域内ではなく、ホーム画面40aの中央近傍である。コントローラ10は、図7のフローチャートに示すように、検出したスワイプの始点がホーム画面40aの端部領域内にないと判定し、図10のステップS22に示すように、ホーム画面40aを、当該ホーム画面40aの右隣のホーム画面であるホーム画面40bに変更する。このとき、コントローラ10は、ホーム画面40bに元々表示されていた、メモオブジェクト55aとは別のメモオブジェクト55bを表示する。
 このように、コントローラ10は、メモオブジェクト55aをホーム画面40aに対応付け、ホーム画面40aを変更する(切り替える)ジェスチャが行われると、ディスプレイ2Aに表示されるホーム画面40bに対応付けられたメモオブジェクト55bを表示する。コントローラ10は、例えば、メモオブジェクト55aに対するタップが検出された状態でホーム画面40aを変更する(切り替える)ジェスチャが行われると、ホーム画面40b上にメモオブジェクト55aを表示させてもよい。すなわち、コントローラ10は、メモオブジェクト55aを表示させたまま、ホーム画面を変更してもよい。
 図11A及び図11Bは、実施形態に係るスマートフォンが行う制御の第4の例を示す図である。図11Aでは、ホーム画面40にメモオブジェクト55が表示されているときに、ユーザが領域42に対して下方向にスワイプを行っている。コントローラ10は、領域42に対するスワイプを検出すると、スワイプに追随して、ドロワー420を表示させる。ドロワー420は、未読メールがあること、アプリケーションが更新されたこと等の種々の情報が表示される領域である。図11Aに示すように、コントローラ10は、ユーザのスワイプに応じて領域42から引き出されたドロワー420によってメモオブジェクト55が覆われ、その後ユーザがドロワー420に対して領域42に向かう方向(引き出されたドロワー420を領域42へ戻す方向)のスワイプを行うと、メモオブジェクト55を非表示とする。これにより、ホーム画面40の視認性が確保される。
 そして、メモオブジェクト55が非表示となった後、図11Bに示すように、ユーザが再度ドロワー420を表示させさらにドロワー420を戻すジェスチャを行うと、メモオブジェクト55がホーム画面40に再度表示される。
 図12は、実施形態に係るスマートフォンが行う制御の第5の例を示す図である。図12のステップS31では、ホーム画面40に表示されたメモオブジェクト55に対して、ユーザが左方向へのフリックを行っている。コントローラ10は、メモオブジェクト55に対する左方向のフリックを検出すると、図12のステップS32に示すように、メモオブジェクト55を、該メモオブジェクト55の一部がホーム画面40の端部から延びるようにホーム画面40に表示させる。ここで、図12のステップS31において、メモオブジェクト55に例えば図8のステップS13のように「14:00 渋谷」と入力されていた場合、図12のステップS32に示す状態において、ホーム画面40の端部に位置するメモオブジェクト55の一部に、「渋 14」と表示してよい。すなわち、コントローラ10は、所定の文字列が入力されたメモオブジェクト55を、その一部だけが表示される状態にした場合に、メモオブジェクトの一部に、入力されていた文字列の一部を表示させてよい。これにより、ホーム画面40の視認性を確保しつつ、ユーザがメモオブジェクトの存在も認識することができ、使い勝手が向上する。
 図13は、実施形態に係るスマートフォンが行う制御の第6の例を示す図である。図13では、ディスプレイ2Aにロック画面45が表示されている。ロック画面45は、スマートフォン1の不正使用を防止するために設けられる画面である。図13に示すように、ユーザが、ロック画面45に対してスワイプを行っている。コントローラ10は、スワイプを検出すると、当該スワイプの軌跡に沿って、メモオブジェクト55をロック画面45に表示する。
 図10を用いて説明したように、スマートフォン1は、複数のホーム画面40を切り替えて表示させることができるため、図7に示すフローチャートに従って、コントローラ10は、ホーム画面40を切り替えるスワイプと、メモオブジェクト55を表示させるスワイプとを区別している。しかし、ロック画面45は、スワイプにより切り替える対象の画面を有さないため、図13に示すように、ロック画面45が表示されている状態では、スワイプがロック画面の中央部を始点とするものであっても、メモオブジェクト55を表示してよい。すなわち、スワイプは、画面の端部領域を始点とするものでなくともよい。
 そして、コントローラ10は、ロック画面45にメモオブジェクト55が表示された状態において、メモオブジェクト55に対するタップを検出し、かつロックを解除する操作が行われたことを検出すると、ロック画面45に表示されていたメモオブジェクト55を、ホーム画面40に表示してもよい。
 以上説明したように、本実施形態に係るスマートフォン1は、ホーム画面40或いはロック画面45に対するスワイプが行われると、当該スワイプの軌跡に沿って、文字を入力可能なメモオブジェクト55を表示する。これにより、特定のアプリケーションを起動せずとも情報を表示可能なメモオブジェクトを、直観的な操作でホーム画面上に表示させることができ、使い勝手が向上する。図6に示した本実施形態に係るスマートフォン1の制御は、ホーム画面に配置されたアイコンをタップしてメモアプリケーションを起動し、その後所定の操作によりメモオブジェクトをホーム画面に配置する技術と比較すると、メモオブジェクトをホーム画面に配置するための工程数が少ないため、ユーザの使い勝手が向上する。
 また、図9に示す制御によれば、ホーム画面40に配置されたメモアプリケーションアイコンを起点としてメモオブジェクトを生成することができるため、ユーザが直観的な操作で容易にメモオブジェクトを画面に配置することができる。
 また、本実施形態に係るスマートフォン1は、上述の制御の例に限られず、種々の実施態様が考えられる。例えば、上記の制御例では、メモオブジェクト55に「14:00 渋谷」という時刻に関する情報が入力される例を示した。スマートフォン1のコントローラ10は、このように、時刻が入力されたメモオブジェクト55について、当該入力された時刻が過ぎると自動的に非表示としてよい。或いは、入力された時刻が過ぎると、メモオブジェクト55を、画面から剥がれかけているような態様、色がくすんだような態様、傷が付いたような態様又は折り畳まれたような態様で表示してよい。これにより、ユーザが自分の予定をメモオブジェクト55に入力していた場合に、予定の時刻が過ぎたメモオブジェクト55の表示態様を上記のように変更することで、ユーザに予定の時刻が過ぎたことを通知することができる。結果、通知を受けたユーザは、例えば時刻の過ぎたメモオブジェクト55を削除することができる。
 また、コントローラ10は、複数のメモオブジェクト55に入力された情報を比較し、同一或いは類似の情報が入力されていれば、該複数のメモオブジェクト55を、少なくとも両者の一部が重なるように表示してよい。これにより、ホーム画面の視認性を確保することができる。
 また、コントローラ10は、ホーム画面40或いはロック画面45において異なる2点でのタップを同時に検出すると、メモオブジェクト55を表示してよい。このとき、メモオブジェクト55の長さを、タップが検出された2点間の距離と同じとしてよい。
 また、コントローラ10は、図12に示すような、メモオブジェクト55を生成したときのスワイプと逆方向のスワイプがメモオブジェクト55に対して行われると、当該メモオブジェクト55を削除しても良い。
 1  スマートフォン
 2  タッチスクリーンディスプレイ
 2A ディスプレイ
 2B タッチスクリーン
 3  ボタン
 4  照度センサ
 5  近接センサ
 6  通信ユニット
 7  レシーバ
 8  マイク
 9  ストレージ
 9A 制御プログラム
 9B メールアプリケーション
 9C ブラウザアプリケーション
 9Z 設定データ
 10  コントローラ
 11  スピーカ
 12、13 カメラ
 14  コネクタ
 15  加速度センサ
 16  方位センサ
 17  ジャイロスコープ
 20  ハウジング
 40 ホーム画面
 45 ロック画面
 50 アイコン
 55 メモオブジェクト

Claims (8)

  1.  タッチスクリーンディスプレイと、
     前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことが検出されると、当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、
     を備える装置。
  2.  前記コントローラは、ホーム画面を前記タッチスクリーンディスプレイに表示しているときに、前記ホーム画面の端部領域内を始点とする前記移動が検出されると前記オブジェクトを前記ホーム画面上に表示し、前記ホーム画面の端部領域外を始点とする前記移動が検出されると、表示されているホーム画面を別のホーム画面に変更する
     請求項1に記載の装置。
  3.  前記コントローラは、所定のアイコンが表示されるホーム画面を前記タッチスクリーンディスプレイに表示し、前記物体の前記所定のアイコンに対する接触が検出された後前記物体が接触したまま所定の方向に移動したことが検出されると、前記アイコンを始点とし前記移動の軌跡に沿った前記オブジェクトを前記ホーム画面上に表示させる
     請求項1に記載の装置。
  4.  前記コントローラは、前記移動の方向に応じて、前記オブジェクトに対して文字を縦書きで入力可能とするか或いは横書きで入力可能とするかを決定する
     請求項1から請求項3のいずれか一項に記載の装置。
  5.  タッチスクリーンディスプレイと、
     前記タッチスクリーンディスプレイに対してスワイプが行われると、当該スワイプの軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、
     を備える装置。
  6.  タッチスクリーンディスプレイと、
     前記タッチスクリーンディスプレイがなぞられると、なぞられた領域に、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるコントローラと、
     を備える装置。
  7.  タッチスクリーンディスプレイを備える装置を制御する方法であって、
     前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことを検出するステップと、
     検出された当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるステップと
     を含む方法。
  8.  タッチスクリーンディスプレイを備える装置に、
     前記タッチスクリーンディスプレイにより物体が当該タッチスクリーンディスプレイに接触したまま所定の方向に移動したことを検出するステップと、
     検出された当該移動の軌跡に沿って、文字の入力が可能なオブジェクトを前記タッチスクリーンディスプレイに表示された画面上に表示させるステップと
     を実行させるプログラム。
PCT/JP2014/061606 2013-04-26 2014-04-24 装置、方法、及びプログラム WO2014175395A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/787,252 US9875017B2 (en) 2013-04-26 2014-04-24 Device, method, and program
JP2015513835A JP6058790B2 (ja) 2013-04-26 2014-04-24 装置、方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-093778 2013-04-26
JP2013093778 2013-04-26

Publications (1)

Publication Number Publication Date
WO2014175395A1 true WO2014175395A1 (ja) 2014-10-30

Family

ID=51791961

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/061606 WO2014175395A1 (ja) 2013-04-26 2014-04-24 装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US9875017B2 (ja)
JP (1) JP6058790B2 (ja)
WO (1) WO2014175395A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018511867A (ja) * 2015-03-23 2018-04-26 ネイバー コーポレーションNAVER Corporation モバイル機器のアプリケーション実行装置およびその方法
KR20180098681A (ko) * 2016-02-08 2018-09-04 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
WO2020196561A1 (ja) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 操作装置
KR20210073591A (ko) * 2018-12-07 2021-06-18 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102148809B1 (ko) * 2013-04-22 2020-08-27 삼성전자주식회사 단축 아이콘 윈도우 표시 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
JP6676913B2 (ja) * 2015-09-30 2020-04-08 ブラザー工業株式会社 情報処理装置、および制御プログラム
US20170195736A1 (en) 2015-12-31 2017-07-06 Opentv, Inc. Systems and methods for enabling transitions between items of content
RU2658803C2 (ru) * 2016-10-28 2018-06-22 Общество с ограниченной ответственностью "ПИРФ" (ООО "ПИРФ") Способ и система вызова интерфейса пользователя на экране электронного устройства
JP6951940B2 (ja) 2017-10-26 2021-10-20 東芝テック株式会社 コンテンツ表示制御装置及びその情報処理プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130024805A1 (en) * 2011-07-19 2013-01-24 Seunghee In Mobile terminal and control method of mobile terminal
JP2013041512A (ja) * 2011-08-18 2013-02-28 Kyocera Corp 携帯電子機器、制御方法、および、制御プログラム
WO2013039023A1 (ja) * 2011-09-15 2013-03-21 Necカシオモバイルコミュニケーションズ株式会社 電子付箋の書込情報処理装置及び方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200805131A (en) * 2006-05-24 2008-01-16 Lg Electronics Inc Touch screen device and method of selecting files thereon
US7864163B2 (en) * 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
JP5549588B2 (ja) * 2008-07-25 2014-07-16 日本電気株式会社 電子付箋システム
US9285980B2 (en) * 2012-03-19 2016-03-15 Htc Corporation Method, apparatus and computer program product for operating items with multiple fingers

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130024805A1 (en) * 2011-07-19 2013-01-24 Seunghee In Mobile terminal and control method of mobile terminal
JP2013041512A (ja) * 2011-08-18 2013-02-28 Kyocera Corp 携帯電子機器、制御方法、および、制御プログラム
WO2013039023A1 (ja) * 2011-09-15 2013-03-21 Necカシオモバイルコミュニケーションズ株式会社 電子付箋の書込情報処理装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SANZUI: "Sticky! (Fusen Memo), d-Market Appli & Review", 21 April 2013 (2013-04-21), Retrieved from the Internet <URL:http://app.dcm-gate.com/appreview/001f7sc> [retrieved on 20140703] *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10425521B2 (en) 2015-03-23 2019-09-24 Naver Corporation Apparatus and method for executing application for mobile device
JP2018511867A (ja) * 2015-03-23 2018-04-26 ネイバー コーポレーションNAVER Corporation モバイル機器のアプリケーション実行装置およびその方法
KR102174565B1 (ko) 2016-02-08 2020-11-05 미쓰비시덴키 가부시키가이샤 표시 제어 장치, 입력 표시 시스템, 표시 제어 방법 및 프로그램
KR101981439B1 (ko) * 2016-02-08 2019-05-22 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
KR20190055273A (ko) * 2016-02-08 2019-05-22 미쓰비시덴키 가부시키가이샤 표시 제어 장치, 입력 표시 시스템, 표시 제어 방법 및 프로그램
KR20180098681A (ko) * 2016-02-08 2018-09-04 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
US10884612B2 (en) 2016-02-08 2021-01-05 Mitsubishi Electric Corporation Input display control device, input display control method, and input display system
KR20210073591A (ko) * 2018-12-07 2021-06-18 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
KR20220031770A (ko) * 2018-12-07 2022-03-11 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
KR102413747B1 (ko) * 2018-12-07 2022-06-27 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
US11393230B2 (en) 2018-12-07 2022-07-19 Mitsubishi Electric Corporation Input display control device, input display control method, and input display system
KR102603900B1 (ko) * 2018-12-07 2023-11-17 미쓰비시덴키 가부시키가이샤 입력 표시 제어 장치, 입력 표시 제어 방법 및 입력 표시 시스템
WO2020196561A1 (ja) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 操作装置

Also Published As

Publication number Publication date
US9875017B2 (en) 2018-01-23
US20160077702A1 (en) 2016-03-17
JP6058790B2 (ja) 2017-01-11
JPWO2014175395A1 (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
JP5775445B2 (ja) 装置、方法、及びプログラム
JP5715042B2 (ja) 装置、方法、及びプログラム
JP6017891B2 (ja) 装置、方法、及びプログラム
JP6002012B2 (ja) 装置、方法、及びプログラム
JP5891083B2 (ja) 装置、方法、及びプログラム
JP5809963B2 (ja) 装置、方法、及びプログラム
JP6110654B2 (ja) 装置、方法、及びプログラム
JP6058790B2 (ja) 装置、方法、及びプログラム
JP2013131185A (ja) 装置、方法、及びプログラム
JP2013200681A (ja) 装置、方法、及びプログラム
JP2013134694A (ja) 装置、方法、及びプログラム
WO2014054801A1 (ja) 電子機器、制御方法及び制御プログラム
JP2013200680A (ja) 装置、方法、及びプログラム
JP5859932B2 (ja) 装置、方法、及びプログラム
JP5775432B2 (ja) 装置、方法、及びプログラム
JP5762885B2 (ja) 装置、方法、及びプログラム
JP2013065290A (ja) 装置、方法、及びプログラム
JP2013092891A (ja) 装置、方法、及びプログラム
JP5959372B2 (ja) 装置、方法、及びプログラム
JP6080355B2 (ja) 装置、方法及びプログラム
JP5848971B2 (ja) 装置、方法、及びプログラム
JP2013131186A (ja) 装置、方法、及びプログラム
JP2013182596A (ja) 装置、方法、及びプログラム
JP2013092974A (ja) 装置、方法及びプログラム
JP5740366B2 (ja) 装置、方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14787815

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015513835

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14787252

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 14787815

Country of ref document: EP

Kind code of ref document: A1