WO2014054801A1 - 電子機器、制御方法及び制御プログラム - Google Patents

電子機器、制御方法及び制御プログラム Download PDF

Info

Publication number
WO2014054801A1
WO2014054801A1 PCT/JP2013/077157 JP2013077157W WO2014054801A1 WO 2014054801 A1 WO2014054801 A1 WO 2014054801A1 JP 2013077157 W JP2013077157 W JP 2013077157W WO 2014054801 A1 WO2014054801 A1 WO 2014054801A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
icon
smartphone
display
selection
Prior art date
Application number
PCT/JP2013/077157
Other languages
English (en)
French (fr)
Inventor
紗綾 三浦
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US14/433,496 priority Critical patent/US10146401B2/en
Publication of WO2014054801A1 publication Critical patent/WO2014054801A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • H04M1/72472User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons wherein the items are sorted according to specific criteria, e.g. frequency of use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • This application relates to an electronic device, a control method, and a control program.
  • a touch screen device equipped with a touch screen is known.
  • Touch screen devices include, but are not limited to, for example, smartphones and tablets.
  • the touch screen device detects a finger, pen, or stylus pen gesture via the touch screen.
  • the touch screen device operates according to the detected gesture.
  • An example of the operation according to the detected gesture is described in Patent Document 1, for example.
  • the basic operation of the touch screen device is realized by an OS (Operating System) installed in the device.
  • OS Operating System
  • Examples of the OS installed in the touch screen device include, but are not limited to, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, and Windows (registered trademark) Phone.
  • Some touch screen devices display an icon corresponding to an application on the screen and execute an application corresponding to the icon when an operation on the icon is detected.
  • the touch screen is configured in this way, the number of icons increases as the number of applications that can be used increases, and icon management may become troublesome. For these reasons, there is a need for electronic devices, control methods, and control programs that can improve the convenience of icon management.
  • An electronic device adds a display that displays a first screen including an icon corresponding to an application, and a new screen when the icon is in a selected state in response to a selection operation on the first screen. And a controller that creates a second screen including the icon in a selected state when a screen addition operation for detecting the screen addition operation is detected.
  • a control method is a method of controlling an electronic device including a display, the step of displaying a first screen including an icon corresponding to an application, and the icon according to a selection operation on the first screen. And a step of creating a second screen including the icon in the selected state when a screen addition operation for adding a new screen is detected.
  • the control program which concerns on one aspect displays the 1st screen containing the icon corresponding to an application on the electronic device provided with the display, and makes the said icon a selection state according to selection operation with respect to the said 1st screen
  • a step of creating a second screen including the icon in the selected state is executed.
  • FIG. 1 is a perspective view of the smartphone according to the embodiment.
  • FIG. 2 is a front view of the smartphone.
  • FIG. 3 is a rear view of the smartphone.
  • FIG. 4 is a diagram illustrating an example of the home screen.
  • FIG. 5 is a diagram for explaining addition of a home screen.
  • FIG. 6 is a block diagram of the smartphone.
  • FIG. 7 is a diagram illustrating an example of a launcher screen.
  • FIG. 8 is a diagram illustrating an example of a title list screen.
  • FIG. 9 is a diagram for explaining an example of adding a launcher screen.
  • FIG. 10 is a diagram for explaining another example of adding a launcher screen.
  • FIG. 11 is a flowchart showing a processing procedure when the smartphone controller creates a new screen.
  • the smartphone 1 has a housing 20.
  • the housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4.
  • the front face 1 ⁇ / b> A is the front of the housing 20.
  • the back face 1 ⁇ / b> B is the back surface of the housing 20.
  • the side faces 1C1 to 1C4 are side faces that connect the front face 1A and the back face 1B.
  • the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.
  • the smartphone 1 has a touch screen display 2, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A.
  • the smartphone 1 has a speaker 11 and a camera 13 on the back face 1B.
  • the smartphone 1 has buttons 3D to 3F and a connector 14 on the side face 1C.
  • the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.
  • the touch screen display 2 has a display 2A and a touch screen 2B.
  • the display 2A and the touch screen 2B are substantially rectangular, but the shapes of the display 2A and the touch screen 2B are not limited to this.
  • Each of the display 2A and the touch screen 2B can take any shape such as a square or a circle.
  • the display 2 ⁇ / b> A and the touch screen 2 ⁇ / b> B are overlapped, but the arrangement of the display 2 ⁇ / b> A and the touch screen 2 ⁇ / b> B is not limited to this.
  • the display 2A and the touch screen 2B may be arranged side by side or may be arranged apart from each other. In the example of FIG.
  • the long side of the display 2A is along the long side of the touch screen 2B
  • the short side of the display 2A is along the short side of the touch screen 2B
  • the display 2A and the touch screen 2B are overlapped. Is not limited to this.
  • the display 2A and the touch screen 2B are arranged so as to overlap each other, for example, one or more sides of the display 2A may not be along any side of the touch screen 2B.
  • the display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display device).
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • IELD Inorganic Electro-Luminescence Display device
  • the touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with the touch screen 2B.
  • the touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen, or the like is in contact with the touch screen 2B.
  • a finger, pen, stylus pen, or the like that contacts the touch screen 2B may be referred to as a “contact object” or “contact object”.
  • the detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.
  • a capacitance method a resistive film method
  • a surface acoustic wave method or an ultrasonic method
  • an infrared method an electromagnetic induction method
  • an electromagnetic induction method an electromagnetic induction method
  • the smartphone 1 is based on at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. Determine the type of gesture.
  • the gesture is an operation performed on the touch screen 2B.
  • Gestures identified by the smartphone 1 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out, for example.
  • “Touch” is a gesture in which a finger touches the touch screen 2B.
  • the smartphone 1 determines a gesture in which a finger contacts the touch screen 2B as a touch.
  • “Long touch” is a gesture in which a finger touches the touch screen 2B for a longer period of time.
  • the smartphone 1 determines a gesture in which a finger contacts the touch screen 2B for longer than a certain time as a long touch.
  • “Release” is a gesture in which a finger leaves the touch screen 2B.
  • the smartphone 1 determines that a gesture in which a finger leaves the touch screen 2B is a release.
  • “Swipe” is a gesture in which a finger moves while touching the touch screen 2B.
  • the smartphone 1 determines a gesture that moves while the finger is in contact with the touch screen 2B as a swipe.
  • “Tap” is a gesture for releasing following a touch.
  • the smartphone 1 determines a gesture for releasing following a touch as a tap.
  • the “double tap” is a gesture in which a gesture for releasing following a touch is continued twice.
  • the smartphone 1 determines a gesture in which a gesture for releasing following a touch is continued twice as a double tap.
  • “Long tap” is a gesture to release following a long touch.
  • the smartphone 1 determines a gesture for releasing following a long touch as a long tap.
  • “Drag” is a gesture for performing a swipe starting from an area where a movable object is displayed.
  • the smartphone 1 determines, as a drag, a gesture for performing a swipe starting from an area where a movable object is displayed.
  • “Flick” is a gesture in which a finger leaves the touch screen 2B while moving after touching the touch screen 2B.
  • “flick” is a gesture in which a release is performed while a finger moves following a touch.
  • the smartphone 1 determines, as a flick, a gesture in which the finger leaves the touch screen 2B while moving after touching the touch screen 2B.
  • the flick is often performed while the finger moves in one direction.
  • Flick is "upper flick” where the finger moves upward on the screen, “lower flick” where the finger moves downward on the screen, “right flick” where the finger moves rightward on the screen, finger is left on the screen Including “left flick” moving in the direction.
  • the movement of a finger in a flick is often quicker than the movement of a finger in a swipe.
  • “Pinch-in” is a gesture that swipes in a direction in which multiple fingers approach each other.
  • the smartphone 1 determines, as a pinch-in, a gesture in which the distance between the position of a finger detected by the touch screen 2B and the position of another finger is shortened.
  • “Pinch out” is a gesture of swiping a plurality of fingers away from each other.
  • the smartphone 1 determines, as a pinch-out, a gesture that increases the distance between the position of one finger and the position of another finger detected by the touch screen 2B.
  • a gesture performed with one finger may be referred to as a “single touch gesture”, and a gesture performed with two or more fingers may be referred to as a “multi-touch gesture”.
  • Multi-touch gestures include, for example, pinch-in and pinch-out. Taps, flicks, swipes, and the like are single-touch gestures when performed with one finger, and multi-touch gestures when performed with two or more fingers.
  • the smartphone 1 operates according to these gestures determined via the touch screen 2B. Therefore, an operability that is intuitive and easy to use for the user is realized.
  • the operation performed by the smartphone 1 according to the determined gesture may differ depending on the screen displayed on the display 2A.
  • the touch screen 2B detects contact and the smartphone 1 determines the gesture type as X based on the detected contact”
  • the smartphone determines X May be described as “detect” or “the controller detects X”.
  • FIG. 4 shows an example of the home screen.
  • the home screen is sometimes called a desktop, a standby screen, an idle screen, or a standard screen.
  • the home screen is displayed on the display 2A.
  • the home screen is a screen that allows the user to select which application to execute from among the applications installed in the smartphone 1.
  • the smartphone 1 executes the application selected on the home screen in the foreground.
  • the screen of the application executed in the foreground is displayed on the display 2A.
  • Smartphone 1 can place an icon on the home screen.
  • a plurality of icons 50 are arranged on the home screen 40 shown in FIG.
  • Each icon 50 is associated with an application installed in the smartphone 1 in advance.
  • the smartphone 1 detects a gesture for the icon 50, the smartphone 1 executes an application associated with the icon 50 from which the gesture is detected.
  • the smartphone 1 executes the mail application when a tap on the icon 50 associated with the mail application is detected.
  • the icon 50 includes an image and a character string.
  • the icon 50 may include a symbol or a graphic instead of the image.
  • the icon 50 may not include either an image or a character string.
  • the icons 50 are arranged based on the arrangement pattern.
  • a wallpaper 41 is displayed behind the icon 50.
  • the wallpaper is sometimes called a photo screen, a back screen, an idle image or a background image.
  • the smartphone 1 can use any image as the wallpaper 41.
  • the smartphone 1 may be configured so that the user can select an image to be displayed as the wallpaper 41.
  • the smartphone 1 may have a plurality of home screens. For example, the smartphone 1 determines the number of home screens according to the setting by the user. The smartphone 1 displays the selected one on the display 2A even if there are a plurality of home screens.
  • the smartphone 1 displays an indicator (locator) 45 on the home screen 40.
  • Indicator 45 includes one or more symbols 46.
  • the number of symbols 46 matches the number of home screens 40.
  • the indicator 45 indicates the position of the currently displayed home screen 40.
  • the symbol 46 corresponding to the currently displayed home screen 40 is displayed in a different manner from the symbols 46 corresponding to the other home screens 40.
  • five symbols 46 of the indicator 45 are displayed. This indicates that the number of home screens 40 is five.
  • the five symbols 46 are arranged in a row from the left side to the right side of the screen.
  • the second symbol 46 from the left end is displayed in a manner different from the other symbols 46. This indicates that the second home screen 40 from the left end is currently displayed.
  • the smartphone 1 can change the home screen displayed on the display 2A.
  • a gesture screen switching operation
  • the smartphone 1 changes the home screen displayed on the display 2A to another home screen. For example, when detecting a right flick, the smartphone 1 changes the home screen displayed on the display 2A to the left home screen.
  • the smartphone 1 detects a left flick
  • the smartphone 1 changes the home screen displayed on the display 2A to the right home screen.
  • the smartphone 1 gradually reduces the area of the first home screen displayed on the display 2A, and the second displayed on the display 2A.
  • the home screen displayed on the display 2A is changed from the first home screen to the second home screen so that the area of the home screen gradually increases.
  • the smartphone 1 may switch the home screen so that the first home screen is immediately replaced with the second home screen.
  • a region 42 is provided at the upper end of the display 2A.
  • a remaining amount mark 43 indicating the remaining amount of the power source and a radio wave level mark 44 indicating the electric field strength of the communication radio wave are displayed.
  • the smartphone 1 may display the time, weather, running application, communication system type, telephone status, device mode, event occurring in the device, and the like in the area 42.
  • the area 42 is used for various notifications to the user.
  • the area 42 may be provided on a screen other than the home screen 40. The position where the region 42 is provided is not limited to the upper end of the display 2A.
  • the smartphone 1 is configured to add a home screen 40 in accordance with a user operation.
  • FIG. 5 is a diagram for explaining the addition of the home screen 40.
  • the smartphone 1 displays the home screen 40 illustrated in FIG. 4 on the touch screen display 2.
  • the user's finger F ⁇ b> 1 long touches the “Mail” icon 50.
  • the smartphone 1 When the smartphone 1 detects a long touch on the “Mail” icon 50, the smartphone 1 puts the “Mail” icon 50 into a selected state.
  • the smartphone 1 displays the icon 50 in the selected state in a different form from the icon 50 not in the selected state. For example, as shown in step S2, the smartphone 1 adds a frame 51 to the icon 50 in the selected state.
  • the smartphone 1 may display the icon 50 in the selected state in a different manner from the icon 50 not in the selected state by other methods such as a change in color or brightness.
  • the smartphone 1 shifts the home screen 40 to the icon selection mode when there is at least one icon 50 in the selected state.
  • the smartphone 1 displays the add button 47 as shown in step S2.
  • the smartphone 1 detects a tap (screen addition operation) on the add button 47, the smartphone 1 creates a new home screen 40.
  • the smartphone 1 In the icon selection mode, when the smartphone 1 detects a tap (selection operation) on the icon 50, the smartphone 1 switches the state of the icon 50 between the selected state and the non-selected state without executing the application corresponding to the icon 50. .
  • step S ⁇ b> 3 the user's finger F ⁇ b> 1 taps the “SMS” icon 50. Since the “SMS” icon 50 in the non-selected state is tapped in the icon selection mode, the smartphone 1 selects the “SMS” icon 50 in Step S4. At this time, the “Mail” icon 50 already in the selected state remains in the selected state. That is, the smartphone 1 is configured to select a plurality of icons 50.
  • step S4 the user's finger F1 flicks left on the home screen 40.
  • the smartphone 1 detects a left flick (screen switching operation) on the home screen 40, the smartphone 1 switches the screen to be displayed to the home screen 40 on the right side.
  • step S5 the screen to be displayed is switched to the home screen 40 on the right side. Therefore, an icon 50 different from steps S1 to S4 is arranged on the home screen 40.
  • the indicator 45 the third symbol 46 from the left end is displayed in a different manner from the other symbols 46.
  • the smartphone 1 switches the home screen 40 to be displayed when detecting the screen switching operation. Even when the home screen 40 to be displayed is switched, the smartphone 1 keeps the selected icon 50 in the selected state. Therefore, in step S5, the “Mail” icon 50 and the “SMS” icon 50 that are not displayed on the touch screen display 2 but are selected before the home screen 40 is switched remain in the selected state. is there.
  • step S6 the user's finger F1 taps the “SNS” icon 50 on the home screen 40 after switching. Since the “SNS” icon 50 in the non-selected state is tapped in the icon selection mode, the smartphone 1 sets the “SNS” icon 50 in the selected state in step S7.
  • step S7 the user's finger F1 taps the add button 47.
  • the smartphone 1 creates a new home screen 40 and places the icon 50 in a selected state on the created home screen 40. Then, the smartphone 1 displays the created home screen 40 and cancels the icon selection mode.
  • step S8 a new home screen 40 is displayed on the touch screen display 2. For this reason, the number of symbols 46 included in the indicator 45 is increased to six, and the rightmost symbol 46 is displayed in a different manner from the other symbols 46.
  • the “Mail” icon 50 selected in Step S2, the “SMS” icon 50 selected in Step S4, and the “SNS” icon 50 selected in Step S7 are the new home screen 40. Is arranged.
  • the smartphone 1 may delete the icon 50 in the selected state from the original home screen 40 or leave it on the original home screen 40 when creating the new home screen 40. Whether or not to delete the icon 50 in the selected state from the original home screen 40 may be determined based on a preset setting or may be determined based on a user operation.
  • the 1st selection state which deletes the icon 50 in a selection state from the original home screen 40, and the 2nd selection which does not delete the icon 50 in a selection state from the original home screen 40 A state may be provided.
  • the icon 50 is tapped once, the icon is selected according to the number of operations, such as when the icon 50 is tapped once, when the icon 50 is tapped once again, when the icon 50 is tapped again, when the icon 50 is tapped once. You may change 50 states.
  • the state of the icon 50 may be changed according to the type of operation, such as when the icon 50 is tapped, the first selected state is set, and when the icon 50 is long tapped, the second selected state is set.
  • the user displays a home screen including an icon to be moved or transcribed, selects an icon, and executes a screen addition operation.
  • a screen can be created and desired icons can be placed there. That is, this embodiment can improve the convenience regarding the management of icons.
  • the home screen 40 shown in FIGS. 4 and 5 is an example, and the forms of various elements, the arrangement of various elements, the number of home screens 40, how to perform various operations on the home screen 40, and the like are described above. It does not have to be street.
  • FIG. 6 is a block diagram of the smartphone 1.
  • the smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, a speaker 11, and a camera. 12 and 13, a connector 14, an acceleration sensor 15, an orientation sensor 16, and a gyroscope 17.
  • the touch screen display 2 has the display 2A and the touch screen 2B as described above.
  • the display 2A displays characters, images, symbols, graphics, or the like.
  • the touch screen 2B detects contact.
  • the controller 10 detects a gesture for the smartphone 1. Specifically, the controller 10 detects an operation (gesture) on the touch screen 2B (touch screen display 2) by cooperating with the touch screen 2B.
  • the button 3 is operated by the user.
  • the button 3 has buttons 3A to 3F.
  • the controller 10 detects an operation on the button 3 by cooperating with the button 3.
  • the operation on the button 3 includes, for example, click, double click, triple click, push, and multi-push, but is not limited thereto.
  • the buttons 3A to 3C are, for example, a home button, a back button, or a menu button.
  • the button 3D is, for example, a power on / off button of the smartphone 1.
  • the button 3D may also serve as a sleep / sleep release button.
  • the buttons 3E and 3F are volume buttons, for example.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. The proximity sensor 5 detects that the touch screen display 2 is brought close to the face, for example.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.
  • the communication unit 6 communicates wirelessly.
  • the communication method supported by the communication unit 6 is a wireless communication standard.
  • wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (Regular Trademark) (GloSmMobleSport). (Personal Handy-phone System).
  • wireless communication standards for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearFarm, etc.).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the receiver 7 and the speaker 11 are sound output units.
  • the receiver 7 and the speaker 11 output the sound signal transmitted from the controller 10 as sound.
  • the receiver 7 is used, for example, to output the other party's voice during a call.
  • the speaker 11 is used for outputting a ring tone and music, for example.
  • One of the receiver 7 and the speaker 11 may also function as the other.
  • the microphone 8 is a sound input unit. The microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • the application displays a screen on the display 2A, and causes the controller 10 to execute processing according to a gesture detected via the touch screen 2B.
  • the control program is, for example, an OS.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, a mail application 9B, a browser application 9C, a screen management table 9T, and setting data 9Z.
  • the mail application 9B provides an electronic mail function for creating, transmitting, receiving, and displaying an electronic mail.
  • the browser application 9C provides a WEB browsing function for displaying a WEB page.
  • the screen management table 9T is data for managing displayed screens and objects such as icons arranged on the respective screens.
  • the setting data 9Z includes information related to various settings related to the operation of the smartphone 1.
  • the control program 9A provides functions related to various controls for operating the smartphone 1.
  • the control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example.
  • Functions provided by the control program 9A include creating a new screen according to a gesture detected via the touch screen 2B, and placing an object such as an icon placed on another screen on the new screen.
  • a function to perform various controls is included.
  • the function provided by the control program 9A may be used in combination with a function provided by another program such as the mail application 9B.
  • the controller 10 is an arithmetic processing unit.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto.
  • the controller 10 controls various operations of the smartphone 1 to realize various functions.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement
  • the functional unit includes, for example, the display 2A, the communication unit 6, the receiver 7, and the speaker 11, but is not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit. Examples of the detection unit include, but are not limited to, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the camera 13, the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17. .
  • the controller 10 executes various controls such as changing the information displayed on the display 2A according to the gesture detected via the touch screen 2B by executing the control program 9A, for example.
  • the camera 12 is an in-camera that captures an object facing the front face 1A.
  • the camera 13 is an out camera that captures an object facing the back face 1B.
  • the connector 14 is a terminal to which other devices are connected.
  • the connector 14 may be a general-purpose terminal such as a USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), Light Peak (Thunderbolt (registered trademark)), or an earphone microphone connector.
  • the connector 14 may be a dedicated terminal such as a dock connector.
  • Devices connected to the connector 14 include, but are not limited to, external storage, speakers, and communication devices, for example.
  • the acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1.
  • the direction sensor 16 detects the direction of geomagnetism.
  • the gyroscope 17 detects the angle and angular velocity of the smartphone 1. The detection results of the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17 are used in combination in order to detect changes in the position and orientation of the smartphone 1.
  • Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.
  • the configuration of the smartphone 1 shown in FIG. 6 is an example, and may be appropriately changed within a range not impairing the gist of the present invention.
  • the number and type of buttons 3 are not limited to the example of FIG.
  • the smartphone 1 may include buttons such as a numeric keypad layout or a QWERTY layout instead of the buttons 3A to 3C as buttons for operations related to the screen.
  • the smartphone 1 may include only one button or may not include a button for operations related to the screen.
  • the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera.
  • the smartphone 1 includes three types of sensors in order to detect the position and orientation, but the smartphone 1 may not include some of these sensors.
  • the smartphone 1 may include another type of sensor for detecting at least one of a position and a posture.
  • the smartphone 1 displays a launcher screen on the touch screen display 2 according to a predetermined operation.
  • the launcher screen is a screen specialized for application execution. For this reason, unlike the home screen 40, the launcher screen may not have a function unrelated to execution of an application such as a function of displaying wallpaper on the background.
  • FIG. 7 is a diagram showing an example of a launcher screen.
  • a plurality of icons 50 are arranged on the launcher screen 60 shown in FIG.
  • the icon 50 is the same as the icon 50 arranged on the home screen 40. That is, the icon 50 is associated with a specific application installed on the smartphone 1.
  • the launcher screen 60 has a title area 71 at the top.
  • the title area 71 is an area for displaying a title assigned to the launcher screen 60.
  • the smartphone 1 is configured to include a plurality of launcher screens 60 that are switched and displayed according to a screen switching operation.
  • the smartphone 1 is configured such that a user can assign an arbitrary title to the launcher screen 60 in order to identify each launcher screen 60.
  • the title assigned to the displayed launcher screen 60 is displayed.
  • the first screen switching operation for switching the launcher screen 60 is, for example, a flick operation.
  • a flick operation For example, when the smartphone 1 detects a left flick with respect to the launcher screen 60, the smartphone 1 displays the next launcher screen 60 according to a predetermined order.
  • the smartphone 1 detects a right flick with respect to the launcher screen 60, the smartphone 1 displays the previous launcher screen 60. .
  • the second screen switching operation is an operation for displaying the title list screen 70 on the touch screen display 2 and selecting a title corresponding to the desired launcher screen 60 from the titles displayed in the list. For example, when the smartphone 1 detects a long tap on the title area 71 of the launcher screen 60, the smartphone 1 displays the title list screen 70.
  • FIG. 8 is a diagram showing an example of the title list screen 70.
  • the title list screen 70 shown in FIG. 8 includes four title areas 71 in which titles “basic function”, “communication”, “camera”, and “hobby / education” are set. This indicates that the smartphone 1 includes four launcher screens 60. When any one of the title areas 71 is tapped, the smartphone 1 displays the launcher screen 60 corresponding to the tapped title area 71 on the touch screen display 2. The second screen switching operation allows the user to display the desired launcher screen 60 on the touch screen display 2 without going through another launcher screen 60.
  • the title areas 71 are arranged according to the order in which the launcher screen 60 is switched by the first screen switching operation.
  • the smartphone 1 receives an operation for changing the order in which the title areas 71 are arranged on the title list screen 70. For example, when the smartphone 1 detects a long tap on the title area 71, the smartphone 1 enables the long-tapped title area 71 to move. When the smartphone 1 detects dragging of the movable title area 71, the smartphone 1 changes the order in which the title areas 71 are arranged according to the position where the dragged title area 71 is released. As a result, the order in which the launcher screen 60 is switched by the first screen switching operation is also changed according to the arrangement order.
  • an additional area 72 is also provided.
  • the smartphone 1 detects a tap on the additional region 72, the smartphone 1 starts a process for adding the launcher screen 60.
  • FIG. 9 is a diagram for explaining an additional example of the launcher screen 60.
  • the smartphone 1 displays the home screen 40 ⁇ / b> A on the touch screen display 2.
  • An icon 50A for displaying the launcher screen 60 on the touch screen display 2 is arranged on the home screen 40A.
  • the user's finger F1 taps the icon 50A.
  • step S12 the smartphone 1 displays the launcher screen 60 on the display 2A (touch screen display 2).
  • the smartphone 1 displays the launcher screen 60 whose title is “basic function” on the display 2 ⁇ / b> A.
  • a plurality of icons 50 are arranged on the launcher screen 60 corresponding to the title “basic function”.
  • the user's finger F1 taps the title area 71.
  • the smartphone 1 When the smartphone 1 detects a tap gesture for the title area 71, the smartphone 1 displays a title list screen 70 on the display 2A as shown in step S13. In step S13, the user's finger F1 taps the additional area 72.
  • the smartphone 1 When the smartphone 1 detects a tap on the additional area 72, the smartphone 1 displays a selection screen 80 on the display 2A as shown in step S14.
  • the selection screen 80 is a screen for allowing the user to select an icon 50 to be included in the launcher screen 60 to be added among the plurality of icons 50.
  • the selection screen 80 is prepared in association with the existing launcher screen 60. In this example, as shown in FIG. 8, since there are four existing launcher screens 60, four selection screens 80 are prepared.
  • the smartphone 1 detects a tap on the additional area 72, the selection screen 80 corresponding to the launcher screen 60 displayed before displaying the title list screen 70 among these selection screens 80 is displayed on the display 2 ⁇ / b> A.
  • the selection screen 80 includes an icon area 81, a completion area 82, a selection status area 83, and a title area 84.
  • the icon area 81 is an area that includes the icons 50 included in the corresponding launcher screen 60 in the same arrangement as the arrangement on the corresponding launcher screen 60.
  • the completion area 82 is an area for the user to instruct that the selection of the icon 50 has been completed, that is, to create a new launcher screen 60 including the icon 50 in the selected state.
  • the screen addition operation in this example is an operation of tapping the completion area 82.
  • the selection status area 83 is an area for displaying the number of icons 50 in the selected state.
  • the title area 84 is an area for displaying a title assigned to the corresponding launcher screen 60.
  • the smartphone 1 switches the selection screen 80 to be displayed according to the screen switching operation.
  • the screen switching operation for switching the selection screen 80 to be displayed is the same operation as the first screen switching operation for switching the launcher screen 60, for example, a flick operation.
  • the smartphone 1 detects a left flick with respect to the selection screen 80
  • the smartphone 1 displays the next selection screen 80 according to a predetermined order.
  • the smartphone 1 detects a right flick with respect to the selection screen 80
  • the smartphone 1 displays the previous selection screen 80.
  • the predetermined order is the same as the order in which the corresponding launcher screens 60 are switched according to the first screen switching operation.
  • the selection screen 80 includes the same icons 50 as the launcher screen 60 displayed immediately before in the same arrangement.
  • the selection screen 80 to be displayed is switched by the same operation as that of the launcher screen 60, and each selection screen 80 includes the same icons 50 as the corresponding launcher screen 60 in the same arrangement. Therefore, the user can easily select the icons 50 to be included in the new launcher screen 60 based on the storage related to the arrangement of the icons 50 on the launcher screen 60 that is normally used.
  • step S14 of FIG. 9 the user's finger F1 taps the “Camera” icon 50.
  • the smartphone 1 reflects the selection result on the selection screen 80 as shown in step S15. Specifically, the smartphone 1 changes the “Camera” icon 50 selected by the user to a selected state, and increments the number of selections in the selection status area 83.
  • step S15 the user's finger F1 taps the “Navigate” icon 50.
  • the smartphone 1 detects a tap on the “Navigate” icon 50, the selection result is reflected on the selection screen 80 as shown in step S16. Specifically, the smartphone 1 changes the “Navigate” icon 50 selected by the user to a selected state, and increments the number of selections in the selection status area 83.
  • step S16 the user's finger F1 taps the completion area 82.
  • the smartphone 1 detects a tap (screen addition operation) on the completion area 82, the smartphone 1 creates a new launcher screen 60 including the icon 50 in the selected state.
  • the smartphone 1 displays an input screen 90 for inputting a title on the display 2A.
  • the smartphone 1 creates a launcher screen 60 to which the input title is assigned, and arranges the selected icon 50 on the created launcher screen 60.
  • step S18 shown in FIG. 9 a new launcher screen 60 to which “travel app” input in step S17 is assigned as a title is displayed on the display 2A.
  • a “Camera” icon 50 selected in step S15 and a “Navigate” icon 50 selected in step S16 are arranged.
  • FIG. 10 is a diagram for explaining another example of addition of the launcher screen 60.
  • the smartphone 1 is the same as step S16 in FIG. That is, the smartphone 1 displays the selection screen 80 on the display 2 ⁇ / b> A (touch screen display 2), and selects the “Camera” icon 50 and the “Navigate” icon 50.
  • step S21 the user's finger F1 flicks left on the selection screen 80.
  • the smartphone 1 detects a left flick (screen switching operation) on the selection screen 80, the smartphone 1 switches the screen to be displayed to the next selection screen 80 as shown in step S22.
  • step S22 the smartphone 1 displays a selection screen 80 corresponding to the launcher screen 60 to which the title “communication” is assigned.
  • three icons 50, an “SMS” icon 50, a “Weather” icon 50, and an “Address” icon 50 are arranged.
  • the smartphone 1 keeps the selected icon 50 in the selected state even when the selection screen 80 to be displayed is switched. Therefore, in step S22, the “Camera” icon 50 and the “Navigate” icon 50 that are not displayed on the touch screen display 2 but are selected before the selection screen 80 is switched remain in the selected state. is there.
  • step S22 the user's finger F1 taps the “Weather” icon 50.
  • the smartphone 1 reflects the selection result on the selection screen 80 as shown in step S23. Specifically, the smartphone 1 changes the “Weather” icon 50 selected by the user to a selected state, and increments the number of selections.
  • step S23 the user's finger F1 taps the completion area 82.
  • the smartphone 1 detects a tap (screen addition operation) on the completion area 82, the smartphone 1 creates a new launcher screen 60 including the icon 50 in the selected state.
  • the smartphone 1 displays an input screen 90 for inputting a title on the display 2A.
  • the smartphone 1 creates a launcher screen 60 to which the input title is assigned, and arranges the selected icon 50 on the created launcher screen 60.
  • step S25 shown in FIG. 10 a new launcher screen 60 to which “travel app” input in step S24 is assigned as a title is displayed on the display 2A.
  • the “Camera” icon 50 and the “Navigate” icon 50 that were selected in step S21 and the “Weather” icon 50 that was selected in step S23 are arranged. Yes.
  • the method of adding a screen in the present embodiment can also be applied to the case where a screen other than the home screen 40 is added.
  • the screen arranged on the new screen may be selected on a screen different from the new screen.
  • the user inputs a title to be assigned to the launcher screen 60 when creating a new launcher screen 60, but the title input by the user may be omitted.
  • a default value such as “new screen 1” is assigned to the new launcher screen 60, and the user changes the title as necessary after the new launcher screen 60 is created.
  • the launcher screen 60 and the selection screen 80 shown in FIG. 7 to FIG. 10 are examples, and the forms of various elements, the arrangement of various elements, the number of screens, various operation methods on the screen, and the like are as described above. It does not have to be as described.
  • FIG. 11 is a flowchart showing a processing procedure when the controller 10 of the smartphone 1 creates a new screen.
  • the processing procedure shown in FIG. 11 is executed by the controller 10 executing the control program 9A.
  • the controller 10 displays a screen for selecting an icon as step S101.
  • the screen displayed here is, for example, the home screen 40 transitioned to the icon selection mode shown in step S2 of FIG. 5 or the selection screen 80 shown in step S14 of FIG.
  • Controller 10 determines whether or not a selection operation has been detected in step S102.
  • the selection operation is an operation for selecting an icon.
  • the selection operation is, for example, a tap on an icon.
  • the controller 10 proceeds to step S103.
  • step S103 the controller 10 determines an icon for which a selection operation has been performed.
  • step S104 the controller 10 updates the selection state of the icon on which the selection operation has been performed, and in step S105, the controller 10 updates the screen according to the updated selection state.
  • step S109 the controller 10 determines whether a series of processing has been completed. For example, the controller 10 determines that the series of processes has been completed when the user detects an operation for canceling the addition of the screen. When the series of processing is completed (step S109, Yes), the controller 10 ends the processing procedure illustrated in FIG. When the series of processing is not completed (No at Step S109), the controller 10 returns to Step S102.
  • Step S106 determines whether or not a screen switching operation is detected as Step S106.
  • the screen switching operation is an operation for changing the displayed screen to another screen of the same type.
  • the screen switching operation is, for example, a flick to the screen.
  • step S106 Yes
  • step S107 the controller 10 executes switching of a screen to be displayed. Thereafter, the controller 10 proceeds to step S109.
  • Step S108 determines whether or not a screen addition operation has been detected as Step S108.
  • the screen addition operation is an operation for instructing execution of creation of a new screen.
  • the screen addition operation is, for example, a tap on a predetermined button.
  • step S109 the controller 10 proceeds to step S109.
  • step S110 the controller 10 proceeds to step S110.
  • step S110 the controller 10 creates a new screen including the selected icon. Then, the controller 10 displays the created screen on the touch screen display 2 as step S111. After creating a new screen in this way, the controller 10 ends the processing procedure shown in FIG.
  • each program shown in FIG. 6 may be divided into a plurality of modules or may be combined with other programs.
  • a smartphone has been described as an example of a device including a touch screen, but the device according to the appended claims is not limited to a smartphone.
  • the device according to the appended claims may be a portable electronic device other than a smartphone. Examples of portable electronic devices include, but are not limited to, mobile phones, tablets, portable personal computers, digital cameras, media players, electronic book readers, navigators, and game machines.
  • the device according to the appended claims may be a stationary electronic device.
  • the stationary electronic device includes, for example, a desktop personal computer, an automatic depositing and paying machine (ATM), and a television receiver, but is not limited thereto.
  • ATM automatic depositing and paying machine
  • the electronic device may be configured not to include the touch screen 2B.
  • the electronic device may be configured to detect a user's operation via various input devices such as a mouse and a touch pad, for example.
  • the electronic device may be configured to include a touch screen 2B and various input devices such as a mouse and a touch pad.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

 1つの態様において、電子機器(例えばスマートフォン)(1)は、ディスプレイ(例えばタッチスクリーンディスプレイ)(2A)と、コントローラ(10)とを備える。ディスプレイ(2A)は、アプリケーションに対応するアイコンを含む第1画面を表示する。コントローラ(10)は、第1画面に対する選択操作に応じてアイコンを選択状態にしているときに新しい画面を追加するための画面追加操作を検出すると、選択状態にあるアイコンを含む第2画面を作成する。

Description

電子機器、制御方法及び制御プログラム
 本出願は、電子機器、制御方法及び制御プログラムに関する。
 タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、スマートフォン及びタブレットを含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
 タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。
国際公開第2008/086302号
 タッチスクリーンデバイスには、アプリケーションに対応するアイコンを画面に表示し、アイコンに対する操作が検出された場合にそのアイコンに対応するアプリケーションを実行するものがある。タッチスクリーンがこのように構成されている場合、利用可能なアプリケーションが増えるに従ってアイコンの数が増えてしまい、アイコンの管理が面倒になる場合がある。このような理由から、アイコンの管理に関する利便性を向上させることができる電子機器、制御方法及び制御プログラムに対するニーズがある。
 1つの態様に係る電子機器は、アプリケーションに対応するアイコンを含む第1画面を表示するディスプレイと、前記第1画面に対する選択操作に応じて前記アイコンを選択状態にしているときに新しい画面を追加するための画面追加操作を検出すると、選択状態にある前記アイコンを含む第2画面を作成するコントローラとを備える。
 1つの態様に係る制御方法は、ディスプレイを備えた電子機器の制御方法であって、アプリケーションに対応するアイコンを含む第1画面を表示するステップと、前記第1画面に対する選択操作に応じて前記アイコンを選択状態にするステップと、新しい画面を追加するための画面追加操作を検出すると、選択状態にある前記アイコンを含む第2画面を作成するステップとを含む。
 1つの態様に係る制御プログラムは、ディスプレイを備えた電子機器に、アプリケーションに対応するアイコンを含む第1画面を表示するステップと、前記第1画面に対する選択操作に応じて前記アイコンを選択状態にするステップと、新しい画面を追加するための画面追加操作を検出すると、選択状態にある前記アイコンを含む第2画面を作成するステップとを実行させる。
図1は、実施形態に係るスマートフォンの斜視図である。 図2は、スマートフォンの正面図である。 図3は、スマートフォンの背面図である。 図4は、ホーム画面の例を示す図である。 図5は、ホーム画面の追加について説明するための図である。 図6は、スマートフォンのブロック図である。 図7は、ランチャ画面の例を示す図である。 図8は、タイトル一覧画面の例を示す図である。 図9は、ランチャ画面の追加の例について説明するための図である。 図10は、ランチャ画面の追加の他の例について説明するための図である。 図11は、スマートフォンのコントローラが新しい画面を作成する場合の処理手順を示すフローチャートである。
 本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、電子機器の例として、スマートフォンについて説明する。
(実施形態)
 図1から図3を参照しながら、実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1~1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1~1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1~1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
 スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A~3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D~3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A~3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
 タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。図1の例では、ディスプレイ2A及びタッチスクリーン2Bはそれぞれ略長方形状であるが、ディスプレイ2A及びタッチスクリーン2Bの形状はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、それぞれが正方形又は円形等のどのような形状もとりうる。図1の例では、ディスプレイ2A及びタッチスクリーン2Bは重ねて配置されているが、ディスプレイ2A及びタッチスクリーン2Bの配置はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、例えば、並べて配置されてもよいし、離して配置されてもよい。図1の例では、ディスプレイ2Aの長辺はタッチスクリーン2Bの長辺に沿っており、ディスプレイ2Aの短辺はタッチスクリーン2Bの短辺に沿っているが、ディスプレイ2A及びタッチスクリーン2Bの重ね方はこれに限定されない。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。
 ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。
 タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。以下の説明では、タッチスクリーン2Bに対して接触する指、ペン、又はスタイラスペン等を、「接触オブジェクト」又は「接触物」と呼ぶことがある。
 タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
 スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。
 「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。「ロングタッチ」は、タッチスクリーン2Bに指が一定時間より長く触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間より長く接触するジェスチャをロングタッチとして判別する。
 「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。
 「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
 「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。
 「フリック」は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャである。すなわち、「フリック」は、タッチに続いて指が移動しながらリリースが行われるジェスチャである。スマートフォン1は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャをフリックとして判別する。フリックは、指が一方方向へ移動しながら行われることが多い。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。フリックにおける指の移動は、スワイプにおける指の移動よりも素早いことが多い。
 「ピンチイン」は、複数の指が互いに近付く方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が短くなるジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が長くなるジェスチャをピンチアウトとして判別する。
 以下の説明では、1本の指により行われるジェスチャを「シングルタッチジェスチャ」と呼び、2本以上の指により行われるジェスチャを「マルチタッチジェスチャ」と呼ぶことがある。マルチタッチジェスチャは、例えば、ピンチインおよびピンチアウトを含む。タップ、フリックおよびスワイプ等は、1本の指で行われればシングルタッチジェスチャであり、2本以上の指で行われればマルチタッチジェスチャである。
 スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なることがある。以下の説明では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいてジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォンがXを検出する」、又は「コントローラがXを検出する」と記載することがある。
 図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の例を示している。ホーム画面は、デスクトップ、待受画面、アイドル画面又は標準画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。
 スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、ジェスチャが検出されたアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップが検出されると、メールアプリケーションを実行する。
 アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、配置パターンに基づいて配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン、バックスクリーン、アイドル画像又は背景画像と呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。スマートフォン1は、壁紙41として表示する画像を利用者が選択できるように構成されてもよい。
 スマートフォン1は、複数のホーム画面を有していてよい。スマートフォン1は、例えば、ホーム画面の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面の数が複数であっても、選択された1つをディスプレイ2Aに表示する。
 スマートフォン1は、ホーム画面40上に、インジケータ(ロケータ)45を表示する。インジケータ45は、1つ又は複数のシンボル46を含む。シンボル46の数は、ホーム画面40の数と一致する。インジケータ45は、現在表示されているホーム画面40の位置を示す。現在表示されているホーム画面40に対応するシンボル46は、他のホーム画面40に対応するシンボル46と異なる態様で表示される。
 図4に示す例では、インジケータ45のシンボル46が5つ表示されている。これは、ホーム画面40の数が5つであることを示す。5つのシンボル46は、画面左側から右側に向けて列状に配置されている。図4に示す例では、左端から2番目のシンボル46が他のシンボル46と異なる態様で表示されている。これは、左端から2番目のホーム画面40が現在表示されていることを示している。
 スマートフォン1は、ディスプレイ2Aに表示するホーム画面を変更することができる。スマートフォン1は、ホーム画面の1つを表示中にジェスチャ(画面切替操作)が検出されると、ディスプレイ2Aに表示するホーム画面を別のホーム画面に変更する。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ左のホーム画面に変更する。例えば、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ右のホーム画面に変更する。スマートフォン1は、第1のホーム画面をディスプレイ2Aに表示中にジェスチャが検出されると、ディスプレイ2Aに表示される第1のホーム画面の面積が徐々に狭くなり、ディスプレイ2Aに表示される第2のホーム画面の面積が徐々に広くなるようにディスプレイ2Aに表示するホーム画面を第1のホーム画面から第2のホーム画面へ変更する。スマートフォン1は、第1のホーム画面が第2のホーム画面に即座に置き換わるようにホーム画面を切り替えてもよい。
 ディスプレイ2Aの上端には、領域42が設けられている。領域42には、電源の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、時刻、天気、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40以外の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限定されない。
 スマートフォン1は、利用者の操作に応じて、ホーム画面40を追加するように構成されている。図5は、ホーム画面40の追加について説明するための図である。ステップS1では、スマートフォン1は、図4に示したホーム画面40をタッチスクリーンディスプレイ2に表示している。ステップS1では、利用者の指F1が、「Mail」アイコン50をロングタッチしている。
 スマートフォン1は、「Mail」アイコン50に対するロングタッチを検出すると、「Mail」アイコン50を選択状態にする。スマートフォン1は、選択状態にあるアイコン50を、選択状態にないアイコン50とは異なる態様で表示する。例えば、スマートフォン1は、ステップS2に示すように、選択状態にあるアイコン50に枠51を付加する。スマートフォン1は、選択状態にあるアイコン50を、色又は明度の変更等の他のやり方で、選択状態にないアイコン50とは異なる態様で表示してもよい。
 スマートフォン1は、選択状態にあるアイコン50が1つでもある場合には、ホーム画面40をアイコン選択モードへ遷移させる。アイコン選択モードにおいては、スマートフォン1は、ステップS2に示すように、追加ボタン47を表示する。スマートフォン1は、追加ボタン47に対するタップ(画面追加操作)を検出すると、新しいホーム画面40を作成する。
 アイコン選択モードにおいては、スマートフォン1は、アイコン50に対するタップ(選択操作)を検出すると、アイコン50に対応するアプリケーションを実行せずに、アイコン50の状態を選択状態と非選択状態との間で切り替える。ステップS3では、利用者の指F1が、「SMS」アイコン50をタップしている。スマートフォン1は、アイコン選択モードにおいて、非選択状態にある「SMS」アイコン50がタップされたため、ステップS4では、「SMS」アイコン50を選択状態にしている。このとき、既に選択状態にある「Mail」アイコン50は、選択状態のままである。すなわち、スマートフォン1は、複数のアイコン50を選択状態にするように構成される。
 ステップS4では、利用者の指F1が、ホーム画面40上で左フリックしている。スマートフォン1は、ホーム画面40上での左フリック(画面切替操作)を検出すると、表示する画面を右隣のホーム画面40へ切り替える。ステップS5では、表示する画面が右隣のホーム画面40へ切り替えられている。このため、ホーム画面40上には、ステップS1~S4とは異なるアイコン50が配置されている。インジケータ45においては、左端から3番目のシンボル46が他のシンボル46と異なる態様で表示されている。
 このようにアイコン選択モードであっても、スマートフォン1は、画面切替操作を検出すると、表示するホーム画面40を切り替える。スマートフォン1は、表示するホーム画面40を切り替えた場合でも、選択状態にあるアイコン50を選択状態のままとする。したがって、ステップS5では、タッチスクリーンディスプレイ2には表示されていないものの、ホーム画面40が切り替えられる前に選択状態となっていた「Mail」アイコン50及び「SMS」アイコン50は、選択状態のままである。
 ステップS6では、切り替え後のホーム画面40上で、利用者の指F1が、「SNS」アイコン50をタップしている。スマートフォン1は、アイコン選択モードにおいて、非選択状態にある「SNS」アイコン50がタップされたため、ステップS7では、「SNS」アイコン50を選択状態にしている。
 ステップS7では、利用者の指F1が、追加ボタン47をタップしている。スマートフォン1は、追加ボタン47のタップ(画面追加操作)を検出すると、新しいホーム画面40を作成し、作成したホーム画面40に選択状態にあるアイコン50を配置する。そして、スマートフォン1は、作成したホーム画面40を表示し、アイコン選択モードを解除する。
 ステップS8では、新しいホーム画面40がタッチスクリーンディスプレイ2に表示されている。このため、インジケータ45に含まれるシンボル46が6個に増え、右端のシンボル46が他のシンボル46と異なる態様で表示されている。ステップS2で選択状態になった「Mail」アイコン50と、ステップS4で選択状態になった「SMS」アイコン50と、ステップS7で選択状態になった「SNS」アイコン50とが、新しいホーム画面40に配置されている。
 スマートフォン1は、新しいホーム画面40を作成するときに、選択状態にあるアイコン50を元のホーム画面40から削除してもよいし、元のホーム画面40に残してもよい。選択状態にあるアイコン50を元のホーム画面40から削除するか否かは、予め行われた設定に基づいて決定してもよいし、利用者の操作に基づいて決定してもよい。
 利用者の操作に基づいて決定する場合、選択状態にあるアイコン50を元のホーム画面40から削除する第1選択状態と、選択状態にあるアイコン50を元のホーム画面40から削除しない第2選択状態とを設けてもよい。この場合、アイコン50が1回タップされたら第1選択状態とし、さらに1回タップされたら第2選択状態とし、さらに1回タップされたら非選択状態とするというように操作の回数に応じてアイコン50の状態を変化させてもよい。あるいは、アイコン50がタップされたら第1選択状態とし、ロングタップされたら第2選択状態とするというように操作の種類に応じてアイコン50の状態を変化させてもよい。
 新しいホーム画面を作成し、そこにアイコンを配置する場合、まず、アイコンが何も配置されていないホーム画面を作成し、既存のホーム画面に配置されているアイコンを1つずつ移動又は転記するという手順でも目標を達成することができる。しかしながら、この手順では、ホーム画面を切り替えたり、ホーム画面をまたがってアイコンを移動又は転記させたりする操作を何度も行わなければならず、煩わしいことがある。
 図5に示した本実施形態に係る方式では、利用者は、移動又は転記したいアイコンを含むホーム画面を表示してアイコンを選択し、画面追加操作を実行することにより、少ない操作で、新しいホーム画面を作成し、そこに所望のアイコンを配置することができる。すなわち、本実施形態は、アイコンの管理に関する利便性を向上させことができる。
 図4及び5に示したホーム画面40は、例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。
 図6は、スマートフォン1のブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。
 タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。具体的には、コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。
 ボタン3は、利用者によって操作される。ボタン3は、ボタン3A~ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。
 ボタン3A~3Cは、例えば、ホームボタン、バックボタンまたはメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。
 照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化または超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 レシーバ7及びスピーカ11は、音出力部である。レシーバ7及びスピーカ11は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、画面管理テーブル9T、及び設定データ9Zを記憶する。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。画面管理テーブル9Tは、表示される画面と、それぞれの画面に配置されるアイコン等のオブジェクトとを管理するためのデータである。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。
 制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されたジェスチャに応じて、新しい画面を作成し、他の画面に配置されているアイコン等のオブジェクトを新しい画面に配置する等の各種制御を行う機能が含まれる。制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むが、これらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行する。
 カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
 コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。
 加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
 図6においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図6においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図6においてストレージ9が記憶するプログラム及びデータの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
 図6に示したスマートフォン1の構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図6の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A~3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図6に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図6に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。
 次に、図7から図10を参照しながら、スマートフォン1が新しい画面を作成し、他の画面に配置されているアイコンを新しい画面に含める他の例について説明する。スマートフォン1は、所定の操作に応じて、ランチャ画面をタッチスクリーンディスプレイ2に表示する。ランチャ画面は、アプリケーションの実行に特化した画面である。このため、ランチャ画面は、ホーム画面40とは異なり、背景に壁紙を表示する機能等のアプリケーションの実行とは関係のない機能を持たないことがある。
 図7は、ランチャ画面の例を示す図である。図7に示すランチャ画面60には、複数のアイコン50が配置されている。アイコン50は、ホーム画面40に配置されたアイコン50と同様のものである。つまり、アイコン50は、スマートフォン1にインストールされている特定のアプリケーションと対応付けられている。
 ランチャ画面60は、上部に、タイトル領域71を有する。タイトル領域71は、ランチャ画面60に割り当てられたタイトルを表示する領域である。スマートフォン1は、画面切替操作に応じて切り替えて表示される複数のランチャ画面60を含むことができるように構成される。スマートフォン1は、それぞれのランチャ画面60を識別するために利用者がランチャ画面60に対して任意のタイトルを割り当てることができるように構成される。タイトル領域71には、表示されているランチャ画面60に割り当てられたタイトルが表示される。
 ランチャ画面60を切り替える第1の画面切替操作は、例えば、フリック操作である。例えば、スマートフォン1は、ランチャ画面60に対する左フリックを検出すると、予め決められた順序に従って、次のランチャ画面60を表示し、ランチャ画面60に対する右フリックを検出すると、前のランチャ画面60を表示する。
 第2の画面切替操作は、タイトル一覧画面70をタッチスクリーンディスプレイ2に表示させ、一覧に表示されるタイトルの中から所望のランチャ画面60に対応するタイトルを選択する操作である。スマートフォン1は、例えば、ランチャ画面60のタイトル領域71に対するロングタップを検出したときに、タイトル一覧画面70を表示する。
 図8は、タイトル一覧画面70の例を示す図である。図8に示すタイトル一覧画面70は、それぞれ、「基本機能」、「コミュニケーション」、「カメラ」、「趣味/教養」というタイトルが設定された4つのタイトル領域71を含んでいる。このことは、スマートフォン1が、4個のランチャ画面60を含んでいることを示している。スマートフォン1は、タイトル領域71のいずれかがタップされると、タップされたタイトル領域71に対応するランチャ画面60をタッチスクリーンディスプレイ2に表示する。第2の画面切替操作は、利用者が、他のランチャ画面60を経由することなく、所望のランチャ画面60をタッチスクリーンディスプレイ2に表示させることを可能にする。
 タイトル一覧画面70において、タイトル領域71は、第1の画面切替操作によってランチャ画面60が切り替えられる順序に従って配列される。スマートフォン1は、タイトル一覧画面70において、タイトル領域71が配列される順序を変更する操作を受け付ける。例えば、スマートフォン1は、タイトル領域71に対するロングタップを検出すると、ロングタップされたタイトル領域71を移動可能にする。そして、スマートフォン1は、移動可能なタイトル領域71のドラッグを検出すると、ドラッグされたタイトル領域71がリリースされた位置に応じて、タイトル領域71が配列される順序を変更する。その結果、第1の画面切替操作によってランチャ画面60が切り替えられる順序も、配列順序に応じて変更される。
 タイトル一覧画面70には、追加領域72も設けられる。スマートフォン1は、追加領域72に対するタップを検出すると、ランチャ画面60を追加するための処理を開始する。
 図9は、ランチャ画面60の追加の例について説明するための図である。ステップS11では、スマートフォン1は、ホーム画面40Aをタッチスクリーンディスプレイ2に表示している。ホーム画面40Aには、ランチャ画面60をタッチスクリーンディスプレイ2に表示させるためのアイコン50Aが配置されている。ステップS11では、利用者の指F1が、アイコン50Aをタップしている。
 スマートフォン1は、アイコン50Aに対するタップを検出すると、ステップS12に示すように、ランチャ画面60をディスプレイ2A(タッチスクリーンディスプレイ2)に表示する。図9に示す例では、スマートフォン1は、タイトルが「基本機能」のランチャ画面60をディスプレイ2Aに表示している。タイトル「基本機能」に対応するランチャ画面60には、複数のアイコン50が配置されている。ステップS12では、利用者の指F1が、タイトル領域71をタップしている。
 スマートフォン1は、タイトル領域71に対するタップするジェスチャを検出すると、ステップS13に示すように、タイトル一覧画面70をディスプレイ2Aに表示する。ステップS13では、利用者の指F1が、追加領域72をタップしている。
 スマートフォン1は、追加領域72に対するタップを検出すると、ステップS14に示すように、選択画面80をディスプレイ2Aに表示する。選択画面80は、複数のアイコン50のうち、追加するランチャ画面60に含めるアイコン50を、利用者に選択させるための画面である。選択画面80は、既存のランチャ画面60と対応付けて用意される。この例では、図8に示したように、既存のランチャ画面60は4個であるため、4個の選択画面80が用意される。スマートフォン1は、追加領域72に対するタップを検出すると、これらの選択画面80のうち、タイトル一覧画面70を表示する前に表示されていたランチャ画面60に対応する選択画面80をディスプレイ2Aに表示する。
 選択画面80は、アイコン領域81と、完了領域82と、選択状況領域83と、タイトル領域84とを含む。アイコン領域81は、対応するランチャ画面60に含まれるアイコン50を、対応するランチャ画面60における配置と同じ配置で含む領域である。完了領域82は、アイコン50の選択を完了したこと、すなわち、選択状態にあるアイコン50を含む新しいランチャ画面60を作成すべきことを利用者が指示するための領域である。この例における画面追加操作は、完了領域82をタップする操作である。選択状況領域83は、選択状態にあるアイコン50の数を表示する領域である。タイトル領域84は、対応するランチャ画面60に割り当てられているタイトルを表示する領域である。
 スマートフォン1は、画面切替操作に応じて、表示する選択画面80を切り替える。表示する選択画面80を切り替える画面切替操作は、ランチャ画面60を切り替える第1の画面切替操作と同じ操作、例えば、フリック操作である。例えば、スマートフォン1は、選択画面80に対する左フリックを検出すると、予め決められた順序に従って、次の選択画面80を表示し、選択画面80に対する右フリックを検出すると、前の選択画面80を表示する。予め決められた順序は、対応するランチャ画面60が第1の画面切替操作に応じて切り替えられる順序と同じである。
 このように、選択画面80には、直前に表示されていたランチャ画面60と同じアイコン50が同じ配列で含まれる。表示する選択画面80は、ランチャ画面60と同じ操作によって切り替えられ、それぞれの選択画面80には、対応するランチャ画面60と同じアイコン50が同じ配列で含まれる。このため、利用者は、通常利用しているランチャ画面60におけるアイコン50の配置に関する記憶に基づいて、新しいランチャ画面60に含めるアイコン50を容易に選択することができる。
 図9のステップS14では、利用者の指F1が、「Camera」アイコン50をタップしている。スマートフォン1は、「Camera」アイコン50に対するタップを検出すると、ステップS15に示すように、選択画面80に選択結果を反映する。具体的には、スマートフォン1は、利用者によって選択された「Camera」アイコン50を選択状態に変更し、選択状況領域83の選択数をインクリメントする。
 ステップS15では、利用者の指F1が、「Navigate」アイコン50をタップしている。スマートフォン1は「Navigate」アイコン50に対するタップを検出すると、ステップS16に示すように、選択画面80に選択結果を反映する。具体的には、スマートフォン1は、利用者によって選択された「Navigate」アイコン50を選択状態に変更し、選択状況領域83の選択数をインクリメントする。
 ステップS16では、利用者の指F1が、完了領域82をタップしている。スマートフォン1は、完了領域82に対するタップ(画面追加操作)を検出すると、選択状態にあるアイコン50を含む新しいランチャ画面60を作成する。具体的には、スマートフォン1は、ステップS17に示すように、タイトルを入力するための入力画面90をディスプレイ2Aに表示する。入力画面90においてタイトルが入力されると、スマートフォン1は、入力されたタイトルが割り当てられたランチャ画面60を作成し、選択状態にあるアイコン50を作成したランチャ画面60に配置する。
 図9に示すステップS18では、ステップS17で入力された「旅行アプリ」がタイトルとして割り当てられた新しいランチャ画面60がディスプレイ2Aに表示されている。表示されているランチャ画面60には、ステップS15で選択状態になった「Camera」アイコン50と、ステップS16で選択状態になった「Navigate」アイコン50とが、配置されている。
 図10は、ランチャ画面60の追加の他の例について説明するための図である。図10に示すステップS21では、スマートフォン1は、図9のステップS16と同様にある。すなわち、スマートフォン1は、選択画面80をディスプレイ2A(タッチスクリーンディスプレイ2)に表示し、「Camera」アイコン50及び「Navigate」アイコン50を選択状態にしている。
 ステップS21では、利用者の指F1が、選択画面80上で左フリックしている。スマートフォン1は、選択画面80上での左フリック(画面切替操作)を検出すると、ステップS22に示すように、表示する画面を次の選択画面80に切り替える。ステップS22では、スマートフォン1は、「コミュニケーション」のタイトルが割り当てられたランチャ画面60に対応する選択画面80を表示している。ステップS22で表示される選択画面80には、「SMS」アイコン50、「Weather」アイコン50、及び「Address」アイコン50の3つのアイコン50が配置されている。
 スマートフォン1は、表示する選択画面80を切り替えた場合でも、選択状態にあるアイコン50を選択状態のままとする。したがって、ステップS22では、タッチスクリーンディスプレイ2には表示されていないものの、選択画面80が切り替えられる前に選択状態となっていた「Camera」アイコン50及び「Navigate」アイコン50は、選択状態のままである。
 ステップS22では、利用者の指F1が、「Weather」アイコン50をタップしている。スマートフォン1は、「Weather」アイコン50に対するタップを検出すると、ステップS23に示すように、選択画面80に選択結果を反映する。具体的には、スマートフォン1は、利用者によって選択された「Weather」アイコン50を選択状態に変更し、選択数をインクリメントする。
 ステップS23では、利用者の指F1が、完了領域82をタップしている。スマートフォン1は、完了領域82に対するタップ(画面追加操作)を検出すると、選択状態にあるアイコン50を含む新しいランチャ画面60を作成する。具体的には、スマートフォン1は、ステップS24に示すように、タイトルを入力するための入力画面90をディスプレイ2Aに表示する。入力画面90においてタイトルが入力されると、スマートフォン1は、入力されたタイトルが割り当てられたランチャ画面60を作成し、選択状態にあるアイコン50を作成したランチャ画面60に配置する。
 図10に示すステップS25では、ステップS24で入力された「旅行アプリ」がタイトルとして割り当てられた新しいランチャ画面60がディスプレイ2Aに表示されている。表示されているランチャ画面60には、ステップS21で選択状態にあった「Camera」アイコン50及び「Navigate」アイコン50と、ステップS23で選択状態になった「Weather」アイコン50とが、配置されている。
 このように、本実施形態における画面を追加する方式は、ホーム画面40以外の画面を追加する場合にも適用することができる。図9及び10に示した例のように、新しい画面に配置される画面は、新しい画面とは異なる画面上で選択されてもよい。図9及び10に示した例では、新しいランチャ画面60を作成する場合にランチャ画面60に割り当てるタイトルを利用者が入力しているが、利用者によるタイトルの入力は省略してもよい。この場合、例えば、「新規画面1」のような既定値が新しいランチャ画面60に割り当てられ、利用者は、新しいランチャ画面60が作成された後に必要に応じてタイトルを変更する。
 図7から図10に示したランチャ画面60及び選択画面80は、一例であり、各種の要素の形態、各種の要素の配置、画面の数、及び画面での各種の操作の方法等は上記の説明の通りでなくてもよい。
 次に、図11を参照して、スマートフォン1が新しい画面を作成する場合の処理手順について説明する。図11は、スマートフォン1のコントローラ10が新しい画面を作成する場合の処理手順を示すフローチャートである。図11に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実行される。
 図11に示すように、コントローラ10は、ステップS101として、アイコンを選択するための画面を表示する。ここで表示される画面は、例えば、図5のステップS2で示したアイコン選択モードへ遷移したホーム画面40、又は図9のステップS14で示した選択画面80である。
 コントローラ10は、ステップS102として、選択操作を検出したか否かを判定する。選択操作は、アイコンを選択する操作である。選択操作は、例えば、アイコンに対するタップである。選択操作を検出していた場合(ステップS102,Yes)、コントローラ10は、ステップS103へ進む。ステップS103で、コントローラ10は、選択操作が行われたアイコンを判定する。そして、コントローラ10は、ステップS104として、選択操作が行われたアイコンの選択状態を更新し、ステップS105として、更新した選択状態に合わせて画面を更新する。
 その後、コントローラ10は、ステップS109へ進む。ステップS109で、コントローラ10は、一連の処理が終了したかを判定する。例えば、コントローラ10は、利用者が画面の追加をキャンセルする操作を検出した場合に、一連の処理が終了したと判定する。一連の処理が終了した場合(ステップS109,Yes)、コントローラ10は、図11に示す処理手順を終了する。一連の処理が終了しない場合(ステップS109,No)、コントローラ10は、ステップS102へ戻る。
 選択操作を検出していない場合(ステップS102,No)、コントローラ10は、ステップS106として、画面切替操作を検出したか否かを判定する。画面切替操作は、表示される画面を同じ種類の他の画面へ変更する操作である。画面切替操作は、例えば、画面に対するフリックである。画面切替操作を検出していた場合(ステップS106,Yes)、コントローラ10は、ステップS107へ進む。ステップS107で、コントローラ10は、表示する画面の切り替えを実行する。その後、コントローラ10は、ステップS109へ進む。
 画面切替操作を検出していない場合(ステップS106,No)、コントローラ10は、ステップS108として、画面追加操作を検出したか否かを判定する。画面追加操作は、新しい画面の作成の実行を指示する操作である。画面追加操作は、例えば、所定のボタンに対するタップである。画面追加操作を検出していない場合(ステップS108,No)、コントローラ10は、ステップS109へ進む。画面追加操作を検出していた場合(ステップS108,Yes)、コントローラ10は、ステップS110へ進む。
 ステップS110で、コントローラ10は、選択状態にあるアイコンを含む新しい画面を作成する。そして、コントローラ10は、ステップS111として、作成した画面をタッチスクリーンディスプレイ2に表示する。こうして、新しい画面を作成したあと、コントローラ10は、図11に示す処理手順を終了する。
 本出願の開示する実施形態は、発明の要旨及び範囲を逸脱しない範囲で変更することができる。本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
 例えば、図6に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
 上記の実施形態では、画面上にアイコンが配置される場合について説明したが、画面上に配置されるものは、アイコンに限定されない。画面上には、ウィジェット、付箋等の各種のオブジェクトが配置されてもよい。スマートフォン1は、これらのオブジェクトが選択状態にあるときに新しい画面の作成を指示された場合に、選択状態にあるオブジェクトを含む画面を新たに作成してもよい。
 上記の実施形態では、タッチスクリーンを備える装置の例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、自動預入支払機(ATM)、及びテレビ受像器を含むが、これらに限定されない。
 上記の実施形態では、電子機器がタッチスクリーン2Bを介して、ジェスチャを検出する場合について説明したが、電子機器は、タッチスクリーン2Bを含まない構成とすることもできる。電子機器は、例えば、マウス、タッチパッド等の各種入力装置を介して利用者の操作を検出するように構成されてもよい。あるいは、電子機器は、タッチスクリーン2Bおよびマウス、タッチパッド等の各種入力装置を含むように構成されてもよい。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
 1 スマートフォン
 2 タッチスクリーンディスプレイ
 2A ディスプレイ
 2B タッチスクリーン
 3 ボタン
 4 照度センサ
 5 近接センサ
 6 通信ユニット
 7 レシーバ
 8 マイク
 9 ストレージ
 9A 制御プログラム
 9B メールアプリケーション
 9C ブラウザアプリケーション
 9T 画面管理テーブル
 9Z 設定データ
 10 コントローラ
 11 スピーカ
 12、13 カメラ
 14 コネクタ
 15 加速度センサ
 16 方位センサ
 17 ジャイロスコープ
 20 ハウジング

Claims (6)

  1.  アプリケーションに対応するアイコンを含む第1画面を表示するディスプレイと、
     前記第1画面に対する選択操作に応じて前記アイコンを選択状態にしているときに新しい画面を追加するための画面追加操作を検出すると、選択状態にある前記アイコンを含む第2画面を作成するコントローラと
     を備える電子機器。
  2.  前記第1画面は、画面切替操作に応じて切り替えて表示される複数の画面の1つであり、
     前記コントローラは、前記画面追加操作を検出すると、前記複数の画面に含まれる前記アイコンのうち選択状態にある前記アイコンを含む前記第2画面を作成する請求項1に記載の電子機器。
  3.  前記コントローラは、前記アイコンを含む第3画面に対する所定の操作を検出すると、前記第1画面を前記ディスプレイに表示させ、前記第3画面に含まれるアイコンを前記第3画面における配置と同じ配置で前記第1画面に含める請求項1に記載の電子機器。
  4.  前記コントローラは、前記選択操作の種類又は回数に応じて、当該選択操作が行われた前記アイコンを、前記第2画面を作成するときに、当該アイコンを含む画面から削除する第1選択状態、又は前記第2画面を作成するときに当該アイコンを、当該アイコンを含む画面から削除しない第2選択状態にする請求項1に記載の電子機器。
  5.  ディスプレイを備えた電子機器の制御方法であって、
     アプリケーションに対応するアイコンを含む第1画面を表示するステップと、
     前記第1画面に対する選択操作に応じて前記アイコンを選択状態にするステップと、
     新しい画面を追加するための画面追加操作を検出すると、選択状態にある前記アイコンを含む第2画面を作成するステップと
     を含む制御方法。
  6.  ディスプレイを備えた電子機器に、
     アプリケーションに対応するアイコンを含む第1画面を表示するステップと、
     前記第1画面に対する選択操作に応じて前記アイコンを選択状態にするステップと、
     新しい画面を追加するための画面追加操作を検出すると、選択状態にある前記アイコンを含む第2画面を作成するステップと
     を実行させる制御プログラム。
PCT/JP2013/077157 2012-10-05 2013-10-04 電子機器、制御方法及び制御プログラム WO2014054801A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/433,496 US10146401B2 (en) 2012-10-05 2013-10-04 Electronic device, control method, and control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012223540A JP5858896B2 (ja) 2012-10-05 2012-10-05 電子機器、制御方法及び制御プログラム
JP2012-223540 2012-10-05

Publications (1)

Publication Number Publication Date
WO2014054801A1 true WO2014054801A1 (ja) 2014-04-10

Family

ID=50435119

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/077157 WO2014054801A1 (ja) 2012-10-05 2013-10-04 電子機器、制御方法及び制御プログラム

Country Status (3)

Country Link
US (1) US10146401B2 (ja)
JP (1) JP5858896B2 (ja)
WO (1) WO2014054801A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264305B1 (ja) 2022-09-29 2023-04-25 凸版印刷株式会社 情報表示装置、制御方法、およびプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9195388B2 (en) 2013-03-15 2015-11-24 Apple Inc. Specifying applications to share in a shared access mode
CN103927054B (zh) * 2014-04-15 2017-02-01 华为终端有限公司 一种显示操作界面的方法、装置及触摸屏终端
USD776200S1 (en) * 2014-05-27 2017-01-10 Amazon Technologies, Inc. Label with a touch graphic
CN110286836B (zh) * 2014-12-31 2022-09-09 华为技术有限公司 用于移动应用接口元素的设备、方法和图形用户界面
US9785389B2 (en) * 2015-12-01 2017-10-10 Kabushiki Kaisha Toshiba Image forming system, control method for the same and recording medium
WO2018008380A1 (ja) * 2016-07-08 2018-01-11 シャープ株式会社 情報処理装置、情報処理装置の制御方法、および制御プログラム
JP6885221B2 (ja) * 2017-06-30 2021-06-09 ブラザー工業株式会社 表示制御装置、表示制御方法及び表示制御プログラム
CN113050853A (zh) * 2019-12-27 2021-06-29 中兴通讯股份有限公司 界面显示方法及装置、存储介质、电子装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012190326A (ja) * 2011-03-11 2012-10-04 Ricoh Co Ltd 編集制御システム、画像処理装置、編集制御プログラム、及び記録媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
KR101613838B1 (ko) * 2009-05-19 2016-05-02 삼성전자주식회사 휴대 단말기의 홈 스크린 지원 방법 및 이를 지원하는 휴대 단말기
KR20110073857A (ko) * 2009-12-24 2011-06-30 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9448715B2 (en) * 2010-01-04 2016-09-20 Verizon Patent And Licensing Inc. Grouping of related graphical interface panels for interaction with a computing device
US20110252349A1 (en) * 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Folders
KR20120012541A (ko) * 2010-08-02 2012-02-10 삼성전자주식회사 터치 디바이스에서 폴더 운용 방법 및 장치
EP3734404A1 (en) * 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Portable device comprising a touch-screen display, and method for controlling same
KR101891803B1 (ko) * 2011-05-23 2018-08-27 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 화면 편집 방법 및 장치
CN102681778A (zh) * 2012-04-25 2012-09-19 中兴通讯股份有限公司 一种对桌面图标进行批量管理的方法及数字移动设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012190326A (ja) * 2011-03-11 2012-10-04 Ricoh Co Ltd 編集制御システム、画像処理装置、編集制御プログラム、及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHIGERU MATSUYAMA: "Teiban Soft Jiyu Jizai 1", MAC FAN, vol. 20, no. 5, 1 May 2012 (2012-05-01), pages 158 - 165 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264305B1 (ja) 2022-09-29 2023-04-25 凸版印刷株式会社 情報表示装置、制御方法、およびプログラム
JP2024049949A (ja) * 2022-09-29 2024-04-10 Toppanホールディングス株式会社 情報表示装置、制御方法、およびプログラム

Also Published As

Publication number Publication date
JP2014075103A (ja) 2014-04-24
US10146401B2 (en) 2018-12-04
JP5858896B2 (ja) 2016-02-10
US20150277701A1 (en) 2015-10-01

Similar Documents

Publication Publication Date Title
JP5805588B2 (ja) 電子機器、制御方法及び制御プログラム
JP6159078B2 (ja) 装置、方法、及びプログラム
JP5775445B2 (ja) 装置、方法、及びプログラム
JP6368455B2 (ja) 装置、方法、及びプログラム
JP5858896B2 (ja) 電子機器、制御方法及び制御プログラム
JP5762944B2 (ja) 装置、方法、及びプログラム
JP5840045B2 (ja) 装置、方法、及びプログラム
JP2013084233A (ja) 装置、方法、及びプログラム
JP5792017B2 (ja) 装置、方法、及びプログラム
JP5827109B2 (ja) 装置、方法、及びプログラム
JP2013149245A (ja) 装置、方法、及びプログラム
JP5805685B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2014071724A (ja) 電子機器、制御方法及び制御プログラム
WO2014175395A1 (ja) 装置、方法、及びプログラム
JP2013073528A (ja) 装置、方法、及びプログラム
JP2013084237A (ja) 装置、方法、及びプログラム
JP6096100B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2013065291A (ja) 装置、方法、及びプログラム
JP5775432B2 (ja) 装置、方法、及びプログラム
JP5762885B2 (ja) 装置、方法、及びプログラム
JP6242045B2 (ja) 装置、方法、及びプログラム
JP6099537B2 (ja) 電子機器、方法、及びプログラム
JP2013080353A (ja) 装置、方法、及びプログラム
JP5848971B2 (ja) 装置、方法、及びプログラム
JP5864390B2 (ja) 通信装置、通信方法、及び通信プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13844330

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14433496

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13844330

Country of ref document: EP

Kind code of ref document: A1