WO2014050881A1 - 電子機器、制御方法、及び制御プログラム - Google Patents

電子機器、制御方法、及び制御プログラム Download PDF

Info

Publication number
WO2014050881A1
WO2014050881A1 PCT/JP2013/075897 JP2013075897W WO2014050881A1 WO 2014050881 A1 WO2014050881 A1 WO 2014050881A1 JP 2013075897 W JP2013075897 W JP 2013075897W WO 2014050881 A1 WO2014050881 A1 WO 2014050881A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
screen
area
controller
notification
Prior art date
Application number
PCT/JP2013/075897
Other languages
English (en)
French (fr)
Inventor
紗綾 三浦
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012212831A external-priority patent/JP2014068240A/ja
Priority claimed from JP2012212627A external-priority patent/JP2014067247A/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US14/431,276 priority Critical patent/US9609108B2/en
Publication of WO2014050881A1 publication Critical patent/WO2014050881A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Definitions

  • This application relates to an electronic device, a control method, and a control program.
  • Some electronic devices such as mobile phones or smartphones have a notification area for notifying the user of information at the top of the screen displayed on the display (see Patent Documents 1 and 2).
  • this notification area for example, information related to services provided by an application operating in the background is displayed using an icon or the like.
  • This notification area may also be called a status bar.
  • Some electronic devices such as a mobile phone or a smartphone can display a notification screen for displaying detailed information of information displayed on the status bar.
  • An electronic device includes a display for displaying a notification screen including a notification area for notifying information, and the notification screen displayed on the display when the operation is detected, editing the notification screen. And a controller for transitioning to an edit screen for performing.
  • a control method is a control method for controlling an electronic device having a display, the step of displaying a notification screen including a notification area for notifying information on the display, and when an operation is detected, Transitioning the notification screen displayed on the display to an editing screen for editing the notification screen.
  • the control program includes a step of displaying a notification screen including a notification area for notifying information on an electronic device having a display on the display, and the operation program being displayed on the display when an operation is detected. Causing the notification screen to transition to an editing screen for editing the notification screen.
  • FIG. 1 is a block diagram of a smartphone according to the embodiment.
  • FIG. 2 is a diagram illustrating an example of control for displaying a notification screen on the display.
  • FIG. 3 is an enlarged view of the setting button display area.
  • FIG. 4 is a diagram showing an example of an image corresponding to the telephone standby mode.
  • FIG. 5 is a diagram illustrating another example of the control for displaying the notification screen on the display.
  • FIG. 6 is a diagram illustrating an example of control on the notification screen illustrated in FIG. 5.
  • FIG. 7 is a diagram illustrating an example of control for displaying an editing screen on the display.
  • FIG. 8 is a diagram illustrating an example of control when a display item is added on the editing screen.
  • FIG. 1 is a block diagram of a smartphone according to the embodiment.
  • FIG. 2 is a diagram illustrating an example of control for displaying a notification screen on the display.
  • FIG. 3 is an enlarged view of the setting button display area.
  • FIG. 4 is
  • FIG. 9 is a diagram illustrating another example of the control when adding display items on the editing screen.
  • FIG. 10 is a diagram illustrating another example of control when adding a display item on the edit screen.
  • FIG. 11 is a diagram illustrating an example of control when deleting a display item on the editing screen.
  • FIG. 12 is a diagram illustrating an example of control when changing the display position of the display item on the editing screen.
  • FIG. 13 is a diagram illustrating an example of control when individual editing of display items on the editing screen is performed.
  • FIG. 14 is a diagram illustrating an example of control when individual editing of display items on the editing screen is performed.
  • FIG. 15 is a diagram illustrating an example of control when individual editing of display items on the editing screen is performed.
  • FIG. 10 is a diagram illustrating another example of control when adding a display item on the edit screen.
  • FIG. 11 is a diagram illustrating an example of control when deleting a display item on the editing screen.
  • FIG. 12 is a diagram illustrating an
  • FIG. 16 is a flowchart showing an overall control flow when editing the notification screen.
  • FIG. 17 is a flowchart showing the processing procedure of the display item editing process.
  • FIG. 18 is a flowchart showing the processing procedure of the display item editing process.
  • FIG. 19 is a flowchart showing the processing procedure of the display item editing process.
  • FIG. 20 is a flowchart showing the processing procedure of the individual display item editing process.
  • FIG. 21 is a flowchart showing the processing procedure of the display item individual editing processing.
  • FIG. 22 is a block diagram of a smartphone according to the second embodiment.
  • FIG. 23 is a diagram illustrating an example of control when creating text on the notification screen displayed on the display.
  • FIG. 24 is a diagram illustrating another example of control when creating text on the notification screen displayed on the display.
  • FIG. 23 is a diagram illustrating an example of control when creating text on the notification screen displayed on the display.
  • FIG. 25 is a diagram illustrating an example of control for deleting a tag displayed on the notification screen.
  • FIG. 26 is a diagram illustrating an example of control for updating the tag displayed on the notification screen.
  • FIG. 27 is a flowchart showing a processing procedure when creating text on the notification screen displayed on the display.
  • FIG. 28 is a flowchart illustrating a processing procedure when editing text displayed on the notification screen.
  • FIG. 29 is a diagram illustrating an example of control by the smartphone 1 when displaying a tag creation screen from a character input application that is being executed.
  • FIG. 30 is a flowchart showing a processing procedure when a tag creation screen is displayed from a character input application being executed.
  • FIG. 1 is a block diagram of the smartphone according to the first embodiment.
  • symbol may be attached
  • duplicate descriptions may be omitted.
  • the smartphone 1 includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, A speaker 11, a camera 12, a posture detection unit 15, a vibrator 18, and a touch screen 21 are provided.
  • the display 2 includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display device).
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • IELD Inorganic Electro-Luminescence Display device
  • buttons 3 accepts operation input from the user.
  • the number of buttons 3 may be singular or plural.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact.
  • the proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2 is brought close to the face.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor.
  • the illuminance sensor 4 may be used as a proximity sensor.
  • the communication unit 6 communicates wirelessly.
  • the wireless communication standards supported by the communication unit 6 include, for example, cellular phone communication standards such as 2G, 3G, and 4G, and short-range wireless communication standards.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide InteroperabilityCableP), WiMAX (Worldwide InteroperabilityCMIC). (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like.
  • Examples of short-range wireless communication standards include IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area Network).
  • As a communication standard of WPAN for example, there is ZigBee (registered trademark).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the communication unit 6 receives a radio signal of a predetermined frequency band from a GPS satellite, demodulates the received radio signal, and sends the processed signal to the controller 10.
  • the smartphone 1 may disperse the communication function with the GPS satellite from the communication unit 6 and provide an individual communication unit independent from the communication unit 6.
  • the receiver 7 is a sound output unit.
  • the receiver 7 outputs the sound signal transmitted from the controller 10 as sound.
  • the receiver 7 is used, for example, to output the other party's voice during a call.
  • the microphone 8 is a sound input unit.
  • the microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • an application executed in the foreground displays a screen on the display 2.
  • the control program includes an OS, for example.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, a call application 9B, a mail application 9C, a calendar application 9D, a memo pad application 9E, a camera application 9F, and setting data 9Z.
  • the control program 9A provides functions related to various controls for operating the smartphone 1.
  • the control program 9A provides a function for causing a display to display a notification screen including a notification area for notifying the user of information, for example.
  • the notification screen includes a notification display area, which is a notification area for notifying the user of detailed information of information to be notified to the status bar, and other areas other than the notification display area for applications executed in the background. It is.
  • Other areas include a setting button display area for setting various functions, an application shortcut display area in which application shortcut icons are arranged, and a simple SNS post display for posting messages to SNS (Social Network Service). Including areas.
  • control program 9A provides a function for transitioning the notification screen displayed on the display 2 to an editing screen for editing the notification screen when a user operation is detected. Further, the control program 9A provides a function for reflecting the addition of another region on the notification screen when a user operation for adding another region is detected on the editing screen. Further, the control program 9A provides a function for reflecting the deletion of another area on the notification screen when a user operation for deleting the other area is detected on the editing screen. Further, the control program 9A reflects the change of the display position on the notification screen when a user operation for changing the display position of the notification area and the display position of the other area is detected on the editing screen. Provides the functionality of Furthermore, the control program 9A provides a function for reflecting the change of the component on the notification screen when a user operation for changing the component included in another area is detected on the edit screen.
  • control program 9A controls LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (WorldwideDataPadC), etc. by controlling the communication unit 6 and the like.
  • LTE Long Term Evolution
  • W-CDMA Wideband Code Division Multiple Access
  • WiMAX WorldwidewideDataPadC
  • GSM Global System for Mobile Communications
  • PHS Personal Handy-phone System
  • the control program 9A uses IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication Network), WPAN (Wireless Personal Network), etc. by controlling the communication unit 6 and the like. A function for realizing near field communication is provided.
  • the control program 9A provides a function for realizing a call by controlling the communication unit 6 and the microphone 8, for example.
  • control program 9A may be used in combination with functions provided by other programs stored in the storage 9, such as the call application 9B or the mail application 9C, when realizing a call.
  • the function provided by the control program 9A may be divided into a plurality of program modules, or may be combined with other programs.
  • the call application 9B provides a call function for a call by wireless communication.
  • the mail application 9C provides an email function for creating, sending, receiving, and displaying an email.
  • the calendar application 9D provides a calendar function for schedule management and the like.
  • the memo pad application 9E provides a text editor function for creating and managing text data.
  • the camera application 9F provides a function for taking, editing, and managing images and moving images.
  • the application stored in the storage 9 is only an example. In addition to the one shown in FIG. 1, a browser application, a navigation application, a music player application, a moving image reproduction application, a computer application, a tag application, and the like may be stored.
  • the setting data 9Z includes information on various settings and processes related to the operation of the smartphone 1.
  • the controller 10 is an arithmetic processing unit.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto.
  • the controller 10 controls various operations of the smartphone 1 to realize various functions.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement
  • the functional unit includes, for example, the display 2, the communication unit 6, the microphone 8, and the speaker 11, but is not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • the detection unit includes, for example, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the posture detection unit 15, and the touch screen 21, but is not limited thereto.
  • the controller 10 executes the control program 9A to realize a process of displaying a notification screen including a notification area for notifying the user of information on the display 2. Specifically, for example, when the controller 10 detects a touch gesture by the user, the controller 10 displays a notification screen on the display 2. The controller 10 can call up the notification screen and display it on the display 2 regardless of what screen is displayed on the display 2. For example, when the so-called home screen is displayed on the display 2, the controller 10 can call up the notification screen and display it on the display 2 in response to detection of a touch gesture by the user.
  • the controller 10 when the controller 10 displays an application screen corresponding to, for example, a mail application, a browser application, a map, and a scheduler on the display 2, the controller 10 calls the notification screen according to the detection of the touch gesture by the user. It can be displayed on the display 2. Furthermore, the controller 10 calls the notification screen and displays the notification screen on the display 2 even when the so-called lock screen displayed on the display 2 when the smartphone 1 is in the locked state. be able to.
  • the lock state may include not only a state in which a user operation is not accepted but also a security lock state.
  • the notification screen includes a notification display area that is a notification area for notifying the user of detailed information of information that is notified to the so-called status bar and other areas other than the notification display area for applications executed in the background. Is included. Other areas include a setting button display area for setting various functions, an application shortcut display area in which application shortcut icons are arranged, and a simple SNS post display for posting messages to SNS (Social Network Service). Including areas.
  • the controller 10 executes the control program 9A to realize a process of transitioning the notification screen displayed on the display 2 to an editing screen for editing the notification screen when a user operation is detected. For example, when the controller 10 detects an operation on an edit button provided on the notification screen, the controller 10 changes the notification screen displayed on the display 2 to the edit screen.
  • the controller 10 executes the control program 9A to realize a process of reflecting the addition of the other area on the notification screen when the user operation for adding the other area is detected on the editing screen. Furthermore, by executing the control program 9A, the controller 10 realizes a process of reflecting the deletion of the other area on the notification screen when the user operation for deleting the other area is detected on the editing screen. Further, the controller 10 executes the control program 9A to change the display position when it detects a user operation for changing the display position of the notification area and the display position of other areas on the editing screen. Implement the process to be reflected on the notification screen. Furthermore, when the controller 10 detects a user operation to change a component included in another area on the editing screen by executing the control program 9A, the controller 10 performs a process of reflecting the change of the component on the notification screen. Realize.
  • the speaker 11 is a sound output unit.
  • the speaker 11 outputs the sound signal transmitted from the controller 10 as sound.
  • the speaker 11 is used for outputting a ring tone and music, for example.
  • One of the receiver 7 and the speaker 11 may also function as the other.
  • the camera 12 converts the captured image into an electrical signal.
  • the camera 12 includes, for example, an in-camera that captures an object facing the display 2 and an out-camera that captures an object facing the opposite surface of the display 2.
  • the posture detection unit 15 detects the posture of the smartphone 1.
  • the posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture.
  • the vibrator 18 vibrates a part or the whole of the smartphone 1.
  • the vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration.
  • the vibration by the vibrator 18 is used to notify the user of various events such as incoming calls.
  • the touch screen 21 detects contact with the touch screen 21.
  • the controller 10 (smart phone 1) performs various operations (gestures) performed on the touch screen 21 using a finger, stylus, pen, or the like (hereinafter simply referred to as “finger”) based on the contact detected by the touch screen 21. ) Is detected.
  • the touch screen 21 has a touch sensor.
  • the touch sensor detects the contact of the finger on the touch screen 21 together with the position on the touch screen 21 of the touched location, and notifies the controller 10 of it.
  • Various operations (gestures) detected by the controller 10 via the touch screen 21 include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. However, it is not limited to these.
  • the detection method of the touch screen 21 may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.
  • a capacitance method a resistive film method
  • a surface acoustic wave method or an ultrasonic method
  • an infrared method an electromagnetic induction method
  • an electromagnetic induction method an electromagnetic induction method
  • a load detection method As shown in FIG. 1, the display 2 and the touch screen 21 are functionally separated, but may be physically integrated as a touch screen display.
  • the functional configuration of the smartphone 1 shown in FIG. 1 is an example, and may be changed as appropriate without departing from the gist of the present invention.
  • FIGS. F1 An example of display control of the notification screen by the smartphone 1 will be described with reference to FIGS. F1, which appears in FIGS. 2, 5, and 6, indicates a user's finger.
  • FIGS. F1 An example of display control of the notification screen by the smartphone 1 will be described with reference to FIGS. F1, which appears in FIGS. 2, 5, and 6, indicates a user's finger.
  • FIGS. F1 An example of display control of the notification screen by the smartphone 1 will be described with reference to FIGS. F1, which appears in FIGS. 2, 5, and 6, indicates a user's finger.
  • FIGS. F1 An example of display control of the notification screen by the smartphone 1 will be described with reference to FIGS. F1, which appears in FIGS. 2, 5, and 6, indicates a user's finger.
  • FIGS. F1 An example of display control of the notification screen by the smartphone 1 will be described with reference to FIGS. F1, which appears in FIGS. 2, 5, and 6, indicates a user's finger.
  • FIGS. F1 An example of display
  • FIG. 2 is a diagram illustrating an example of control for displaying a notification screen on the display 2.
  • the smartphone 1 displays the lock screen 40 on the display 2 (step S11).
  • the lock screen 40 is displayed when the smartphone 1 is in a locked state.
  • the smartphone 1 does not accept user operations except for specific operations.
  • the specific operation includes, for example, an operation for releasing the lock state and an operation for causing the display 2 to display a notification screen.
  • the lock state may include not only a state in which a user operation is not accepted but also a security lock state.
  • an icon 40 a for notifying the user of mail reception is displayed on a so-called status bar provided at the top of the lock screen 40.
  • the smartphone 1 displays the notification screen 50 on the display 2. It is displayed (step S13).
  • the notification screen 50 includes an area 50a for displaying the remaining battery level as a percentage, a setting button display area 50b for setting various functions, and detailed information on information displayed on the status bar.
  • a notification display area 50c that is a notification area to be displayed, an application shortcut display area 50d in which a shortcut icon of an application is arranged, a simple SNS post display area 50e for posting a message to the SNS, and a notification screen 50 are edited.
  • An edit button 50f for changing to an edit screen is provided.
  • a message “A mail has been received from Mr. Taro Patent” is displayed in the notification display area 50c.
  • This message is detailed information corresponding to the icon 40a displayed on the so-called status bar.
  • FIG. 3 is an enlarged view of the setting button display area 50b.
  • the setting button display area 50b has an area display bar denoted as “setting button” and buttons B1 to B5.
  • the button B1 is a button for setting the WiFi function to ON or OFF.
  • the button B2 is a button for setting the Bluetooth (registered trademark) function to ON or OFF.
  • the button B3 is a button for setting the GPS function ON or OFF.
  • the button B4 is a button for switching the telephone standby mode.
  • the button B5 is a button for setting the screen rotation function ON or OFF.
  • the controller 10 detects a tap on the button B3 via the touch screen 21, if the GPS function associated with the button B3 is OFF, the GPS function is turned ON. Set. Further, as shown in FIG. 3, the controller 10 displays the character part of “GPS” displayed on the button B3 and the button so as to indicate that the GPS function associated with the button B3 is ON. The area L1 displayed in B3 is turned on. Even when the controller 10 detects a user operation on the button B1, the button B2, and the button B5, the controller 10 can perform the setting in the same manner as the button B3.
  • the controller 10 causes the button B4 to display an image corresponding to the switching of the telephone standby mode and the switched mode in accordance with a user operation. That is, for example, every time the controller 10 detects a tap on the button B4 via the touch screen 21, the image of the button B4 is switched to an image corresponding to the telephone standby mode associated with the button B4. To display.
  • FIG. 4 is an example of an image corresponding to the telephone standby mode. As shown in FIG. 4, each time the controller 10 detects a tap on the button B4, the image of the button B4 is changed to a manner mode OFF image, a manner mode (vibration) image, and a manner mode (mute) image. Switch to display.
  • buttons B1 to B5 are set various functions associated with the buttons B1 to B5 to ON or OFF by operating the buttons B1 to B5 provided in the setting button display area 50b. .
  • FIG. 5 is a diagram showing another example of the control for displaying the notification screen on the display.
  • the smartphone 1 is not limited to the example illustrated in FIG. 2, and may display a notification screen as illustrated in FIG. 5. That is, as shown in FIG. 5, the smartphone 1 displays the standby screen 40 on the display 2 (step S21). Subsequently, when the smartphone 1 detects a swipe passing through the lower end portion of the standby screen 40 from the upper end portion of the standby screen 40 on which the status bar is displayed (step S22), the notification screen 50 appears on the display 2. Is displayed (step S23).
  • the smartphone 1 collapses the setting button display area 50b, the notification display area 50c, the application shortcut display area 50d, and the simple SNS post display area 50e provided on the notification screen 50, and the area display bar corresponding to each area Display only.
  • the smart phone 1 may be made to expand and display the area
  • FIG. 6 is a diagram showing an example of control on the notification screen 50 shown in FIG.
  • the smartphone 1 displays a notification screen 50 on the display 2 (step S31).
  • the smartphone 1 detects a tap on the setting button display area 50b via the touch screen 21 (step S32)
  • the smartphone 1 expands and displays the folded setting button display area 50b (step S33).
  • the smartphone 1 detects a tap on the area display bar above the setting button display area 50b to be expanded and displayed via the touch screen 21 (step S34)
  • the smartphone 1 collapses the setting button display area 50b to be expanded and displayed.
  • only the area display bar is displayed (step S35).
  • notification screen editing control by the smartphone 1 will be described with reference to FIGS. F1 appearing in FIGS. 7 to 15 indicates the user's finger.
  • FIG. 7 is a diagram illustrating an example of control for displaying an edit screen on the display 2.
  • the smartphone 1 detects an operation on the edit button 50f provided on the notification screen 50 displayed on the display 2 via the touch screen 21 (step S41)
  • the smartphone 1 edits the notification screen 50.
  • a transition is made to the edit screen 60 (step S42).
  • the edit screen 60 includes an edit button 60a for individually editing the setting button display area 50b, an edit button 60b for individually editing the application shortcut display area 50d, and a simple SNS post.
  • An edit button 60c for individually editing the display area 50e and a display item addition button 60d are provided.
  • the editing screen 60 mainly receives editing operations such as addition of new display items, deletion of existing display items, and movement from the user.
  • the notification display area 50c can only be moved and cannot be deleted.
  • FIG. 8 is a diagram illustrating an example of control when adding a display item on the editing screen 60.
  • the smartphone 1 detects an operation on the display item addition button 60d provided on the editing screen 60 via the touch screen 21 (step S51)
  • the smartphone 1 displays a list 60e of display items that can be added. Displayed (step S52).
  • calendars and sticky notes are listed as display items that can be added.
  • the display item list 60e only a list of display items that can be added may be displayed, or all items that are being displayed and all items that can be displayed may be displayed.
  • the smartphone 1 detects selection of a calendar from the list 60e of display items that can be added via the touch screen 21 (step S53), it adds a calendar to the editing screen 60 (step S54).
  • a weekly calendar including weather information is displayed, but a monthly calendar may be used.
  • the smartphone 1 detects an operation on the area where “display item editing completed” is displayed on the editing screen 60 via the touch screen 21 (step S55)
  • the smartphone 1 displays the notification screen 50 to which the calendar has been added. It is displayed on the display 2 (step S56).
  • the operation to the area displayed as “display item editing completed” any operation such as touch, tap, swipe, double tap, etc., as long as there is no overlap with other processes, may be the detection target. In the following description, the same applies to what is simply denoted as “operation”.
  • FIG. 9 and 10 are diagrams showing another example of control when adding display items on the edit screen 60.
  • FIG. 9 and 10 are diagrams showing another example of control when adding display items on the edit screen 60.
  • step S61 when the smartphone 1 detects an operation on the display item addition button 60d provided on the editing screen 60 via the touch screen 21 (step S61), the smartphone 1 displays a list 60e of display items that can be added. It is displayed (step S62).
  • step S63 when the smartphone 1 detects selection of a calendar from the list 60e of display items that can be added via the touch screen 21 (step S63), the smartphone 1 displays the calendar on the editing screen 60 (step S64).
  • step S ⁇ b> 64 the smartphone 1 determines whether or not the total of the area including the existing area on the editing screen 60 and the added calendar area exceeds the displayable range of the display 2. As a result of the determination, if the display 2 exceeds the displayable range, the smartphone 1 collapses the setting button display area 50b, the application shortcut display area 50d, and the simple SNS post display area 50e other than the notification display area 50c, and displays the area display. Display only the bar. At this time, the smartphone 1 does not display the individual edit button on the area display bar.
  • the smartphone 1 expands and displays the folded area in response to an operation on the area display bar
  • the smartphone 1 displays the individual edit button again.
  • the smartphone 1 collapses all areas including the notification display area 50c. Thus, only the area display bar may be displayed.
  • step S ⁇ b> 64 the smartphone 1 displays the notification display area when the total of the area including the existing area on the editing screen 60 and the added calendar area does not exceed the displayable range of the display 2.
  • the setting button display area 50b, the application shortcut display area 50d, and the simple SNS post display area 50e other than 50c are also displayed without being folded.
  • Step S65 when the smartphone 1 detects an operation on the area where “display item editing completed” is displayed on the editing screen 60 via the touch screen 21 (step S65), the smartphone 1 displays the notification screen 50 to which the calendar has been added. It is displayed on the display 2 (step S66).
  • Step S66 the smartphone 1 displays the setting button display area 50b other than the notification display area 50c, the application shortcut display area 50d, and the simple SNS post display area 50e in a collapsed state and displays only the area display bar. To display.
  • step S71 when the smartphone 1 detects an operation on the display item addition button 60d provided on the editing screen 60 via the touch screen 21 (step S71), the smartphone 1 displays a list 60e of display items that can be added. It is displayed (step S72).
  • step S73 when the smartphone 1 detects selection of a calendar from the list 60e of display items that can be added via the touch screen 21 (step S73), the smartphone 1 displays the calendar on the editing screen 60 (step S74).
  • step S ⁇ b> 74 the smartphone 1 determines whether or not the total of the area including the existing area on the editing screen 60 and the added calendar area exceeds the displayable range of the display 2. If the result of determination is that the displayable range of the display 2 is exceeded, the smartphone 1 is configured to display a displayable area in addition to the notification display area 50c within the displayable range of the display 2 on the editing screen 60. The determination is made in order from the button display area 50b.
  • the smartphone 1 displays the application shortcut display area 50d other than the notification display area 50c and the setting button display area 50b and the simple SNS post.
  • the display area 50e is folded to display only the area display bar.
  • the smartphone 1 does not display the individual edit button on the area display bar.
  • the smartphone 1 expands and displays the folded area in response to an operation on the area display bar, the smartphone 1 displays the individual edit button again.
  • the smartphone 1 folds all the areas including the notification display area 50c when the area including the existing area on the editing screen 60 and the area of the calendar to be added exceeds the displayable area of the display 2, Only the area display bar may be displayed.
  • step S74 if the area where the existing area on the editing screen 60 is combined with the area of the calendar to be added does not exceed the displayable area of the display 2, the smartphone 1 is not the notification display area 50c.
  • the setting button display area 50b, the application shortcut display area 50d, and the simple SNS post display area 50e are also displayed without being folded.
  • step S75 when the smartphone 1 detects an operation on the area where “display item editing completed” is displayed on the editing screen 60 via the touch screen 21 (step S75), the smartphone 1 displays the notification screen 50 to which the calendar has been added. It is displayed on the display 2 (step S76). In step S76, the smartphone 1 displays the application shortcut display area 50d and the simple SNS post display area 50e other than the notification display area 50c and the setting button display area 50b in the collapsed state and displays only the area display bar on the notification screen 50. Display.
  • FIG. 11 is a diagram illustrating an example of control when deleting display items on the edit screen 60.
  • step S81 when the smartphone 1 detects an operation on the area display bar in the setting button display area 50b of the editing screen 60 via the touch screen 21 (step S81), the smartphone 1 can move the setting button display area 50b. Change to a new state (step S82). For example, when detecting a long touch on the area display bar, the smartphone 1 changes the state so that the setting button display area 50b is touched and dragged while being moved. When a long touch on the area display bar is detected, the user operation to change the setting button display area 50b to a movable state is not limited to the long touch.
  • the smartphone 1 may change the setting button display area 50b to a movable state, as long as the association with other processes is not duplicated. Such operations may be detected, and the same applies to the following description.
  • the present invention is not limited to an example in which the setting button display area 50b is changed to a movable state by operating the area display bar.
  • a button for changing the setting button display area 50b to a movable state may be provided.
  • step S ⁇ b> 82 the smartphone 1 changes the setting button display area 50 b to a movable state, and then deletes the setting button display area 50 b from the area where “display item editing completed” is displayed on the editing screen 60. Change the display area to “Edit Display Item Delete (see 60f)”.
  • the smartphone 1 displays, via the touch screen 21, an area where “edit display item deletion” is displayed on the editing screen 60, and a setting button display area 50b. Is detected, the setting button display area 50b is deleted (step S83).
  • the smartphone 1 can arbitrarily change the degree of overlap between the area where “display item editing / deletion” is displayed and the setting button display area 50b. For example, the smartphone 1 may delete the setting button display area 50b if it overlaps the setting button display area 50b with the area where “display item editing / deletion” is displayed. Alternatively, the smartphone 1 deletes the setting button display area 50b when the area of the setting button display area 50b overlaps more than half of the area displayed as “display item edit delete”. May be.
  • step S83 the smartphone 1 deletes the setting button display area 50b, and then returns the display of “display item editing and deletion” on the editing screen 60 to “display item editing completed”.
  • step S84 when the smartphone 1 detects an operation on the area where “display item editing completed” is displayed on the editing screen 60 via the touch screen 21 (step S84), the setting button display area 50b is deleted.
  • the notification screen 50 is displayed on the display 2 (step S85).
  • the smartphone 1 can delete display items by the same control as that shown in FIG.
  • FIG. 12 is a diagram illustrating an example of control when changing the display position of the display item on the editing screen 60.
  • the smartphone 1 when the smartphone 1 detects an operation on the area display bar in the setting button display area 50b of the editing screen 60 via the touch screen 21 (step S91), the smartphone 1 can move the setting button display area 50b. (S92). For example, when detecting a long touch on the area display bar, the smartphone 1 changes the state so that the setting button display area 50b is touched and dragged while being moved. When a long touch on the area display bar is detected, the user operation to change the setting button display area 50b to a movable state is not limited to the long touch. For example, when the smartphone 1 detects a double tap on the area display bar, the smartphone 1 may change the setting button display area 50b to a movable state.
  • the present invention is not limited to an example in which the setting button display area 50b is changed to a movable state by operating the area display bar.
  • a button for changing the setting button display area 50b to a movable state may be provided.
  • step S ⁇ b> 92 the smartphone 1 changes the setting button display area 50 b to a movable state, and then sets the area displayed as “display item editing completed” on the editing screen 60 as the display item of the setting button display area 50 b. Change to the area for deletion, and change the display to “Edit display item deletion (see 60f)”.
  • the smartphone 1 After the user starts moving the setting button display area 50b, the smartphone 1 detects an overlap between the setting button display area 50b of the editing screen 60 and the notification display area 50c of the editing screen 60 via the touch screen 21. Then, the display position of the setting button display area 50b and the display position of the notification display area 50c are switched (step S93).
  • step S93 after replacing the display position of the setting button display area 50b and the display position of the notification display area 50c, the smartphone 1 again displays the area displayed as “edit display item deletion” on the editing screen 60. “Display item editing completed” is displayed.
  • step S94 when the smartphone 1 detects an operation on the area where “display item editing completed” is displayed on the editing screen 60 via the touch screen 21 (step S94), the display position of the setting button display area 50b is displayed.
  • the notification screen 50 in which the display position of the notification display area 50c is exchanged is displayed on the display 2 (step S95).
  • the smartphone 1 can change the display position of the display item by the same control as the control shown in FIG.
  • 13 to 15 are diagrams showing examples of control when individual editing of display items on the editing screen 60 is performed.
  • the smartphone 1 detects an operation on the editing button 60a provided in the setting button display area 50b via the touch screen 21 (step S101).
  • the individual edit screen 71 of the setting button display area 50b is displayed (step S103).
  • the individual edit screen 71 is provided with an add button 71a for adding a button.
  • buttons that can be added are listed as buttons that can be added.
  • button list 71b only a list of buttons that can be added may be displayed, or all buttons that are currently displayed and buttons that can be added may be displayed.
  • Step S106 when the smartphone 1 detects selection of non-display of the incoming call partner from the list 71b of buttons that can be added via the touch screen 21 (Step S106), the individual editing screen 71 corresponds to non-display of the incoming call partner.
  • the button 71c is displayed (step S107).
  • step S108 when the smartphone 1 detects an operation on the area where “setting button editing completed” is displayed on the individual editing screen 71 via the touch screen 21 (step S108), the button corresponding to non-display of the incoming call partner is displayed.
  • the editing screen 60 to which 71c has been added is displayed on the display 2 (step S109).
  • a button 71c corresponding to non-display of the called party is added to the setting button display area 50b.
  • the notification screen 50 is displayed on the display 2.
  • the smartphone 1 detects an operation on the editing button 60b provided in the application shortcut display area 50d via the touch screen 21 (step S201).
  • the individual edit screen 72 of the application shortcut display area 50d is displayed (step S203).
  • the individual edit screen 72 is provided with an add button 72a for adding a button.
  • the smartphone 1 displays a list 72b of icons that can be added (step S205).
  • a character and a notepad are listed as buttons that can be added.
  • the icon list 72b only a list of icons that can be added may be displayed, or all icons that are being displayed and all icons that can be added may be displayed.
  • Step S206 when the smartphone 1 detects selection of the notepad from the list 72b of addable icons via the touch screen 21 (step S206), the smartphone 72 displays an icon 72c corresponding to the notepad on the individual editing screen 72. (Step S207).
  • step S208 when the smartphone 1 detects an operation on the area displayed as “App shortcut edit complete” on the editing screen 60 via the touch screen 21 (step S208), an icon 72c corresponding to the memo pad is added.
  • the edited editing screen 60 is displayed on the display 2 (step S209).
  • the smartphone 1 detects an operation on the area displayed as “display item editing completed” on the editing screen 60, the notification that the icon 72c corresponding to the notepad is added to the application shortcut display area 50d.
  • the screen 50 is displayed on the display 2.
  • the smartphone 1 can perform individual editing by the same control as the control shown in FIGS.
  • the smartphone 1 detects an operation on the editing button 60a provided in the setting button display region 50b via the touch screen 21 (step S301). S302), the individual edit screen 71 of the setting button display area 50b is displayed (step S303).
  • Step S304 when the smartphone 1 detects an operation on the button B2 for setting the Bluetooth (registered trademark) function ON or OFF via the touch screen 21 (step S304), the smartphone 1 can move the button B2. (Step S305). For example, when the smartphone 1 detects a long touch on the button B2, the smartphone 1 changes to a movable state by dragging while the button B2 is touched.
  • step S305 after changing the button B2 to a movable state, the smartphone 1 deletes the button in the setting button display area 50b from the area where “setting button editing completed” is displayed on the individual editing screen 71. Change the display to “Edit Setting Button Delete (see 71d)”.
  • the smartphone 1 After the movement of the button B2 is started by the user, the smartphone 1 detects an overlap between the button B2 and the area where “setting button editing / deletion” is displayed on the individual editing screen 71 via the touch screen 21. , Button B2 is deleted (step S306).
  • step S307 when the smartphone 1 detects an operation to the area where “setting button editing completed” is displayed on the editing screen 60 via the touch screen 21 (step S307), the editing screen 60 from which the button B2 is deleted. Is displayed on the display 2 (step S308). Thereafter, when the smartphone 1 detects an operation on the area where “display item editing completed” is displayed on the editing screen 60, the smartphone 1 displays the notification screen 50 in which the button B2 is deleted from the setting button display area 50b. To display.
  • the smartphone 1 can perform individual editing by the same control as the control shown in FIG.
  • FIG. 15 illustrates an example of deleting a button, which is a component of the setting button display area 50b, but the display position of the button can be changed as in the display item control shown in FIG. The same applies to the application shortcut display area 50d and the simple SNS post display area 50e.
  • FIGS. 16 to 20 An example of the processing procedure by the smartphone 1 will be described with reference to FIGS.
  • the processing procedure shown in FIGS. 16 to 20 is realized by the controller 10 executing the control program 9A stored in the storage 9.
  • FIG. 16 is a flowchart showing the overall control flow when editing the notification screen.
  • the controller 10 determines whether a display screen editing operation for editing the notification screen has been detected via the touch screen 21 (step S ⁇ b> 1001). For example, when the controller 10 detects an operation on the edit button 50f provided on the notification screen 50, the controller 10 determines that a display operation on the edit screen has been detected.
  • step S1001 If it is determined that the display screen editing operation for editing the notification screen has not been detected (No in step S1001), the controller 10 terminates without proceeding with the processing procedure illustrated in FIG.
  • step S1002 when the controller 10 detects the editing screen display operation for editing the notification screen as a result of the determination (step S1001, Yes), the controller 10 displays the editing screen 60 on the display 2 (step S1002).
  • the controller 10 determines whether or not a display item editing start operation has been detected (step S1003). For example, when the controller 10 detects an operation on the display item addition button 60d or an operation on the area display bar included in the setting button display area 50b, the controller 10 determines that the display item editing start operation has been detected. Alternatively, when the controller 10 detects an operation on any one of the area display bars corresponding to the setting button display area 50b, the application shortcut display area 50d, and the simple SNS post display area 50e, the editing start operation of the display item is detected. It is determined that
  • step S1003 If the result of determination is that a display item editing start operation has been detected (step S1003, Yes), the controller 10 executes display item editing processing (step S1004).
  • the controller 10 determines whether an editing end operation has been detected (step S1005). For example, when the controller 10 detects an operation on an area displayed as “display item editing completed” on the editing screen 60, the controller 10 determines that an editing end operation has been detected.
  • Controller 10 returns to the processing procedure of step S1003 when the editing end operation is not detected as a result of the determination (step S1005, No).
  • step S1005 if the editing end operation is detected as a result of the determination (step S1005, Yes), the controller 10 displays the notification screen 50 on the display 2 (step S1006), and ends the processing procedure of FIG.
  • step S1003 if the result of determination is that a display item editing start operation has not been detected (step S1003, No), the controller 10 determines whether or not a display item individual editing start operation has been detected (step S1007). .
  • the controller 10 individually edits the edit button 60a for individually editing the setting button display area 50b, the edit button 60b for individually editing the application shortcut display area 50d, or the simple SNS post display area 50e.
  • any one of the editing buttons 60c is operated, it is determined that the individual editing start operation for the display item is detected.
  • step S1007 If the result of determination is that an individual item editing start operation has been detected (Yes in step S1007), the controller 10 executes display item individual editing processing (step S1008).
  • step S1007 when the individual editing start operation for the display item is not detected as a result of the determination (step S1007, No), the controller 10 proceeds to the processing procedure of step S1005.
  • FIGS. 17 to 19 are flowcharts showing the processing procedure of the display item editing process.
  • the process flow shown in FIGS. 17 to 19 corresponds to the control shown in FIGS. 8, 11, and 12, for example.
  • the controller 10 determines whether or not the operation detected in step S1003 of FIG. 16 is a display item addition operation (step S1011). For example, when the operation detected in step S1003 in FIG. 16 is an operation on the display item addition button 60d, the controller 10 determines that the operation is an addition of a display item.
  • Controller 10 displays a list of items that can be added (step S1012) if the result of determination is that the display item is to be added (step S1011, Yes).
  • the controller 10 determines whether or not selection of an additional item has been detected from the list of items that can be added (step S1013).
  • step S1013 If the controller 10 detects selection of an additional item as a result of the determination (step S1013, Yes), the controller 10 adds a button corresponding to the selected item to the edit screen 60 (step S1014), as shown in FIG. The processing procedure ends.
  • step S1015 determines whether or not an operation for canceling the item addition process has been detected. For example, when the controller 10 detects an operation on the area where “display item editing completed” is displayed on the editing screen 60, the controller 10 determines that the cancel operation of the item addition process has been detected.
  • the operation to the area where “display item editing completed” is displayed may be any operation such as double tap and long touch.
  • step S1015 if the controller 10 detects a release operation for the item addition process (step S1015, Yes), the controller 10 deletes the list of addable items from the display 2 (step S1016), and the processing procedure shown in FIG. Exit.
  • step S1011 if the operation detected in step S1003 in FIG. 16 is not an operation for adding a display item (No in step S1011), the controller 10 determines that the operation is related to movement or deletion of a display item. Then, the process proceeds to the processing procedure shown in FIG.
  • the controller 10 changes the display item captured as the object of movement or deletion to a movable state (step S1017).
  • the controller 10 determines whether or not the captured display item is the notification display area 50c (step S1018).
  • the controller 10 sets a deletion processing area for deleting the display item captured as the object of movement or deletion.
  • the information is displayed on the edit screen 60 (step S1019).
  • the deletion process area corresponds to, for example, an area displayed as “display item edit delete” on the edit screen 60 (see FIG. 12).
  • the controller 10 determines whether or not an overlap between the display item captured as the object of movement or deletion and the deletion processing area has been detected (step S1020).
  • step S1020 when the controller 10 detects an overlap between the display item captured as the object of movement or deletion and the deletion processing area (step S1020, Yes), the display captured as the object of movement or deletion The item is deleted (step S1020), and the processing procedure shown in FIG.
  • step S1020 when the controller 10 does not detect the overlap between the display item captured as the object of movement or deletion and the deletion processing area as a result of the determination (No in step S1020), the controller 10 is captured as the object of movement or deletion. It is determined whether an overlap between the displayed item and another display item is detected (step S1022).
  • step S1022 when the controller 10 detects an overlap between the display item captured as the object of movement or deletion and another display item (step S1022, Yes), the controller 10 is captured as the object of movement or deletion.
  • the display position of the display item and the display position of another display item are switched (step S1023), and the processing procedure shown in FIG.
  • step S1022 determines whether or not an operation for canceling capture of the displayed item is detected. For example, when the controller 10 detects an operation on a region where “display item editing completed” is displayed on the editing screen 60, the controller 10 determines that a display item capture cancellation operation has been detected.
  • the operation to the area where “display item editing completed” is displayed may be any operation such as double tap and long touch.
  • the controller 10 captures the display item captured as the object of movement or deletion when an operation for canceling the capture of the display item captured as the object of movement or deletion is detected (Yes in step S1024). Is canceled (step S1025), and the processing procedure shown in FIG. 18 is terminated.
  • the controller 10 returns to the processing procedure of step S1020 when the capture release operation of the display item captured as the target of movement or deletion is not detected as a result of the determination (No in step S1024).
  • step S1018 if the captured display item is the notification display area 50c as a result of the determination (step S1018, Yes), the controller 10 determines that the operation is an operation related to changing the display position of the notification display area 50c. Then, the process proceeds to the processing procedure of FIG. In the first embodiment, the notification display area 50c cannot be deleted. For this reason, the controller 10 does not delete the notification display area 50c even if an overlap between the notification display area 50c and the deletion processing area is detected. On the other hand, in Embodiment 1, the notification display area 50c can be moved, and the display position of the notification display area 50c can be changed as described below.
  • the controller 10 determines whether or not an overlap between the notification display area 50c and other display items has been detected (step S1026).
  • step S1026 If the controller 10 detects that the notification display area 50c overlaps with other display items as a result of the determination (step S1026, Yes), the controller 10 swaps the display positions of the notification display area 50c and other display items. (Step S1027), the processing procedure shown in FIG.
  • step S1026 when the controller 10 does not detect the overlap between the notification display area 50c and other display items as a result of the determination (No in step S1026), the controller 10 determines whether or not the capture release operation of the notification display area 50c is detected. Determination is made (step S1028). For example, when the controller 10 detects an operation on the area where “display item editing completed” is displayed on the editing screen 60, the controller 10 determines that the capture release operation of the notification display area 50c has been detected.
  • the operation to the area where “display item editing completed” is displayed may be any operation such as double tap and long touch.
  • step S1028 when the capture release operation of the notification display area 50c is detected (step S1028, Yes), the controller 10 cancels the capture of the notification display area 50c (step S1029), and the processing shown in FIG. End the procedure.
  • controller 10 returns to the processing procedure of step S1026 when the result of determination is that the capture release operation of the notification display area 50c is not detected (step S1028, No).
  • FIGS. 20 and 21 are diagrams showing the flow of individual display item editing processing.
  • the process flow shown in FIGS. 20 and 21 corresponds to, for example, the control shown in FIGS.
  • the controller 10 displays the individual edit screen for the display item in which the individual edit start processing for the display item shown in step S1007 of FIG. 16 is detected (step S2011).
  • the controller 10 determines whether or not a display item component addition operation has been detected (step S2012). For example, the controller 10 determines that an operation for adding a component of a display item has been detected when there is an operation on an add button provided on the individual edit screen.
  • the component corresponds to a button in the setting button display area 50b or an icon in the application shortcut display area 50d.
  • Controller 10 displays the list of elements that can be added (step S2013) when the addition operation of the component of the display item is detected as a result of the determination (step S2012, Yes).
  • the controller 10 determines whether or not selection of an additional element is detected from the list of elements that can be added (step S2014).
  • step S2014 If the controller 10 detects selection of an additional element as a result of the determination (step S2014, Yes), the controller 10 adds the selected element to the display item to be individually edited (step S2015).
  • the controller 10 determines whether or not an operation for completing individual editing of display items has been detected (step S2016). For example, when the controller 10 detects an operation on the area where “setting button editing completed” is displayed on the individual editing screen, the controller 10 determines that the operation for completing the individual editing of the display item has been detected.
  • step S2016, Yes when the operation for completing the individual editing of the display item is detected (step S2016, Yes), the controller 10 displays the editing screen 60 on the display 2 (step S2017), and the processing shown in FIG. End the procedure.
  • step S2016 when the completion operation for individual editing of the display item is not detected (No in step S2016), the controller 10 returns to the processing procedure in step S2012.
  • step S2014 when the controller 10 does not detect selection of an additional element as a result of the determination (step S2014, No), the controller 10 determines whether a release operation of the component addition processing for the display item is detected (step S2018). ). For example, when the controller 10 detects an operation on the area where “setting button editing completed” is displayed on the individual editing screen, the controller 10 determines that the operation of canceling the display item component addition processing has been detected.
  • step S2018 determines whether the controller 10 detects a cancel operation of the display item component addition process (step S2018, Yes) or not detect the release operation of the component addition process for the display item as a result of the determination (No in step S2018), the controller 10 returns to the processing procedure in step S2014.
  • step S2012 if the result of determination is that a display item component addition operation has not been detected (No in step S2012), the controller 10 determines whether or not a display item component deletion operation has been detected (step S2012).
  • Step S2020 For example, when the controller 10 detects an operation on an element included in a display item to be individually edited, the controller 10 determines that a deletion operation of a component of the display item has been detected.
  • Controller 10 moves to the process procedure of said step S2016, when deletion operation of the component of a display item is not detected as a result of determination (step S2020, No). On the other hand, when the controller 10 deletes the display item component as a result of the determination (step S2020, Yes), the controller 10 proceeds to the processing procedure shown in FIG.
  • the controller 10 changes an element captured as a deletion target to a movable state (step S2021).
  • the controller 10 displays a deletion processing area for deleting an element captured as a deletion target on the individual editing screen (step S2022).
  • the deletion processing area corresponds to, for example, an area displayed as “setting button edit deletion” on the individual editing screen 71 (see FIG. 15).
  • the controller 10 determines whether or not an overlap between the element captured as the deletion target and the deletion processing area is detected (step S2023).
  • step S2023 when the controller 10 detects an overlap between the element captured as the deletion target and the deletion processing area (Yes in step S2023), the controller 10 deletes the element captured as the deletion target (step S2023). S2024), the process returns to step S2016 shown in FIG.
  • step S2023 the controller 10 cancels the capture of the element captured as the deletion target. It is determined whether an operation has been detected. For example, when the controller 10 detects an operation for the area displayed as “setting button edit delete” on the individual edit screen 71, the controller 10 determines that the capture release operation of the element captured as the deletion target has been detected. .
  • step S2025 when the controller 10 detects a capture release operation for an element captured as a deletion target (step S2025, Yes), the controller 10 cancels the capture of the element captured as a deletion target (step S2026). Then, the processing returns to step S2016 shown in FIG. On the other hand, if the controller 10 does not detect the capture release operation of the element captured as a deletion target as a result of the determination (No in step S2025), the controller 10 returns to the processing procedure in step S2023.
  • the smartphone 1 when the smartphone 1 detects an operation on the edit button 50f provided on the notification screen 50 displayed on the display 2, the smartphone 1 shifts to the edit screen 60 for editing the notification screen 50 ( (See FIG. 7). Therefore, according to the embodiment, the notification screen 50 can be edited, and the notification screen 50 can be effectively used.
  • the smartphone 1 adds a display item for the notification screen. Or the smart phone 1 deletes the display item of a notification screen. Or the smart phone 1 changes the display position of the display item of a notification screen. Therefore, according to the first embodiment, the user can customize the configuration of the notification screen.
  • the smartphone 1 adds display item components. Or the smart phone 1 deletes the component of a display item. Or the smart phone 1 changes the display position of the component of a display item. For this reason, according to the first embodiment, the user can customize the notification screen in units of display items.
  • each program shown in FIG. 1 may be divided into a plurality of modules.
  • each program shown in FIG. 1 may be combined with another program.
  • a smartphone has been described as an example of a device including a touch screen, but the device according to the appended claims is not limited to a smartphone.
  • the device according to the appended claims may be an electronic device other than a smartphone.
  • Electronic devices are, for example, mobile phones, tablets, portable personal computers, digital cameras, media players, electronic book readers, navigators, and game machines.
  • the device according to the appended claims may be a stationary electronic device.
  • the stationary electronic devices are, for example, a desktop personal computer and a television receiver.
  • FIG. 22 is a block diagram of the smartphone according to the first embodiment.
  • symbol may be attached
  • duplicate descriptions may be omitted.
  • the smartphone 1 includes a display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, A speaker 11, a camera 12, a posture detection unit 15, a vibrator 18, and a touch screen 21 are provided.
  • the display 2 includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display device).
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • IELD Inorganic Electro-Luminescence Display device
  • buttons 3 accepts operation input from the user.
  • the number of buttons 3 may be singular or plural.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact.
  • the proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2 is brought close to the face.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor.
  • the illuminance sensor 4 may be used as a proximity sensor.
  • the communication unit 6 communicates wirelessly.
  • the wireless communication standards supported by the communication unit 6 include, for example, cellular phone communication standards such as 2G, 3G, and 4G, and short-range wireless communication standards.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide InteroperabilityCableP), WiMAX (Worldwide InteroperabilityCMIC). (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like.
  • Examples of short-range wireless communication standards include IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area Network).
  • As a communication standard of WPAN for example, there is ZigBee (registered trademark).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the communication unit 6 receives a radio signal of a predetermined frequency band from a GPS satellite, demodulates the received radio signal, and sends the processed signal to the controller 10.
  • the smartphone 1 may disperse the communication function with the GPS satellite from the communication unit 6 and provide an individual communication unit independent from the communication unit 6.
  • the receiver 7 is a sound output unit.
  • the receiver 7 outputs the sound signal transmitted from the controller 10 as sound.
  • the receiver 7 is used, for example, to output the other party's voice during a call.
  • the microphone 8 is a sound input unit.
  • the microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • an application executed in the foreground displays a screen on the display 2.
  • the control program includes an OS, for example.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, a call application 9B, a mail application 9C, a character input application 9G, a tag application 9H, and setting data 9Z.
  • the control program 9A provides functions related to various controls for operating the smartphone 1.
  • the control program 9A provides a function for causing the display 2 to display a notification screen including a notification area for notifying information, for example.
  • the notification screen includes a notification display area that is a notification area for notifying the user of detailed information of information notified to the so-called status bar for applications executed in the background.
  • control program 9A provides a function for displaying the created text created via the operation unit on the notification screen.
  • the operation unit corresponds to the button 3 or the touch screen 21.
  • control program 9A provides a function for causing the display 2 to display a creation screen for accepting the creation text creation operation.
  • control program 9A provides a function for causing the display 2 to display an edit screen for accepting deletion or update of the created text.
  • control program 9A controls the communication unit 6 and the like, thereby enabling LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (WorldwideInterPiralityC). Provides functions for realizing communication using Cellular, GSM (registered trademark) (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like.
  • LTE Long Term Evolution
  • W-CDMA Wideband Code Division Multiple Access
  • WiMAX Worldwide InterPiralityC
  • GSM Global System for Mobile Communications
  • PHS Personal Handy-phone System
  • the control program 9A uses IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication Network), WPAN (Wireless Personal Network), etc. by controlling the communication unit 6 and the like. A function for realizing near field communication is provided.
  • the control program 9A provides a function for realizing a call by controlling the communication unit 6 and the microphone 8, for example.
  • control program 9A may be used in combination with functions provided by other programs stored in the storage 9, such as the call application 9B or the mail application 9C, when realizing a call.
  • the function provided by the control program 9A may be divided into a plurality of program modules, or may be combined with other programs.
  • the call application 9B provides a call function for a call by wireless communication.
  • the mail application 9C provides an email function for creating, sending, receiving, and displaying an email.
  • the character input application 9G provides, for example, a function for realizing a character input by simply starting a text editor from a standby state.
  • the standby state includes a state in which a lock screen and a screen on which a list of icons corresponding to applications are displayed on the display 2.
  • the tag application 9H provides a function for configuring a creation screen for accepting creation of text and an edit screen for accepting deletion or update of text.
  • the application stored in the storage 9 is only an example. In addition to those shown in FIG. 22, a browser application, a navigation application, a music player application, a moving image reproduction application, a computer application, a memo pad application, and the like may be stored.
  • the setting data 9Z includes information on various settings and processes related to the operation of the smartphone 1.
  • the controller 10 is an arithmetic processing unit.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto.
  • the controller 10 controls various operations of the smartphone 1 to realize various functions.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement
  • the functional unit includes, for example, the display 2, the communication unit 6, the microphone 8, and the speaker 11, but is not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • the detection unit includes, for example, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the posture detection unit 15, and the touch screen 21, but is not limited thereto.
  • the controller 10 executes the control program 9A to realize a process for displaying a notification screen including a notification area for notifying information on the display 2. Specifically, for example, when the controller 10 detects a touch gesture by the user, the controller 10 displays a notification screen on the display 2. The controller 10 can call up the notification screen and display it on the display 2 regardless of what screen is displayed on the display 2. For example, when the so-called home screen is displayed on the display 2, the controller 10 can call up the notification screen and display it on the display 2 in response to detection of a touch gesture by the user.
  • the controller 10 when the controller 10 displays an application screen corresponding to, for example, a mail application, a browser application, a map, and a scheduler on the display 2, the controller 10 calls the notification screen according to the detection of the touch gesture by the user. It can be displayed on the display 2. Furthermore, the controller 10 calls the notification screen and displays the notification screen on the display 2 even when the so-called lock screen displayed on the display 2 when the smartphone 1 is in the locked state. be able to.
  • the notification screen can be called and displayed on the display 2.
  • the lock state may include not only a state in which a user operation is not accepted but also a security lock state.
  • the notification screen includes a notification area which is a notification area for notifying the user of detailed information of information notified to the so-called status bar for applications executed in the background.
  • the controller 10 executes the control program 9A to realize a process for displaying the created text created through the operation unit on the notification screen.
  • the operation unit corresponds to the button 3 or the touch screen 21.
  • the smartphone 1 can display the notification screen including the created text on the display 2 even when the so-called home screen, application screen, and so-called lock screen are displayed on the display 2. become.
  • the controller 10 executes the control program 9 ⁇ / b> A to realize a process of displaying a creation screen for accepting the creation text creation operation on the display 2.
  • the controller 10 executes the control program 9A to realize a process for displaying on the display 2 an edit screen for accepting deletion or update of the created text.
  • the speaker 11 is a sound output unit.
  • the speaker 11 outputs the sound signal transmitted from the controller 10 as sound.
  • the speaker 11 is used for outputting a ring tone and music, for example.
  • One of the receiver 7 and the speaker 11 may also function as the other.
  • the camera 12 converts the captured image into an electrical signal.
  • the camera 12 includes, for example, an in-camera that captures an object facing the display 2 and an out-camera that captures an object facing the opposite surface of the display 2.
  • the posture detection unit 15 detects the posture of the smartphone 1.
  • the posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture.
  • the vibrator 18 vibrates a part or the whole of the smartphone 1.
  • the vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration.
  • the vibration by the vibrator 18 is used to notify the user of various events such as incoming calls.
  • the touch screen 21 detects contact with the touch screen 21.
  • the controller 10 (smart phone 1) performs various operations (gestures) performed on the touch screen 21 using a finger, stylus, pen, or the like (hereinafter simply referred to as “finger”) based on the contact detected by the touch screen 21. ) Is detected.
  • the touch screen 21 has a touch sensor.
  • the touch sensor detects the contact of the finger on the touch screen 21 together with the position on the touch screen 21 of the touched location, and notifies the controller 10 of it.
  • Various operations (gestures) detected by the controller 10 via the touch screen 21 include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. However, it is not limited to these.
  • the detection method of the touch screen 21 may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method.
  • a capacitance method a resistive film method
  • a surface acoustic wave method or an ultrasonic method
  • an infrared method an electromagnetic induction method
  • an electromagnetic induction method an electromagnetic induction method
  • a load detection method As shown in FIG. 1, the display 2 and the touch screen 21 are functionally separated, but may be physically integrated as a touch screen display.
  • the functional configuration of the smartphone 1 illustrated in FIG. 22 is an example, and may be changed as appropriate within a range that does not impair the gist of the present invention.
  • FIG. 23 is a diagram illustrating an example of control when creating text on the notification screen displayed on the display 2.
  • the smartphone 1 displays the lock screen 40 on the display 2 (step S401).
  • the lock screen 40 is displayed when the smartphone 1 is in a locked state.
  • the specific operation includes, for example, an operation for releasing the lock state and an operation for causing the display 2 to display a notification screen.
  • the lock state may include not only a state in which a user operation is not accepted but also a security lock state.
  • an icon 40a for notifying the user of mail reception is displayed on a so-called status bar provided at the top of the lock screen 40.
  • the notification screen 80 is displayed on the display 2. It is displayed (step S403).
  • the notification screen 80 is provided with a notification display area 80a, which is the notification area, and an operation bar 80b for displaying a tag creation screen.
  • the creation screen 90a includes a display window for displaying input characters, a software keyboard for a user to input characters by touch operation, a save button for saving the created characters, a cancel button for canceling the creation of a tag, and the like. Have.
  • the smartphone 1 After the character is input on the creation screen 90a (step S406), the smartphone 1 detects a tap on the save button via the touch screen 21 (step S407), and the character input on the creation screen 90a. Is displayed on the display 2 (step S408).
  • FIG. 24 is a diagram showing another example of control when creating text on the notification screen displayed on the display 2.
  • FIG. 24 shows an example in which another tag is created after the tag shown in FIG. 23 is created.
  • the smartphone 1 when the smartphone 1 is displaying the notification screen 80 on which the sticky note 80c is pasted, the smartphone 1 responds to the tag addition button (+ add) on the operation bar 80b via the touch screen 21.
  • the creation screen 90a is displayed on the display 2 (step S502).
  • the smartphone 1 After characters are input on the creation screen 90a (step S503), the smartphone 1 detects an operation on the save button via the touch screen 21 (step S504), and the characters input on the creation screen 90a. Is displayed on the display 2 (step S505).
  • FIG. 25 is a diagram showing an example of control for deleting the tag displayed on the notification screen.
  • FIG. 25 shows an example in which the tag created in FIG. 24 is deleted from the notification screen.
  • the smartphone 1 detects an operation on the sticky note 80d via the touch screen 21 while displaying the notification screen 80 on which the sticky note 80c and the sticky note 80d are pasted (step S601). ), The editing screen 90b is displayed on the display 2 (step S602).
  • step S603 when the smartphone 1 detects an operation on the delete button via the touch screen 21 (step S603), the smartphone 1 displays a notification screen 80 in which the tag 80d is deleted on the display 2 (step S604).
  • FIG. 26 is a diagram illustrating an example of control for updating the sticky note displayed on the notification screen.
  • FIG. 26 shows an example in which the contents of the tag created in FIG. 24 are updated.
  • the smartphone 1 detects an operation on the tag 80d via the touch screen 21 while displaying the notification screen 80 on which the tag 80c and the tag 80d are pasted (step S701). ), The editing screen 90b is displayed on the display 2 (step S702).
  • the smartphone 1 After the correction of the characters on the editing screen 90b (step S703), the smartphone 1 detects an operation on the save button via the touch screen 21 (step S704), and the tag 80e whose contents are updated, The notification screen 80 pasted with the tag 80c is displayed on the display 2 (step S705).
  • FIGS. 27 and 28 An example of a processing procedure performed by the smartphone 1 according to the second embodiment will be described with reference to FIGS.
  • the processing procedure shown in FIGS. 27 and 28 is realized by the controller 10 executing the control program 9A stored in the storage 9.
  • FIG. 27 is a flowchart showing a processing procedure when creating a text on the notification screen displayed on the display 2.
  • the controller 10 determines whether an operation on the add button (+ add) of the tag on the operation bar 80b displayed on the notification screen 80 is detected via the touch screen 21 (step S3001). ).
  • the operation on the tag addition button (+ add) may be any operation such as touch, tap, or swipe.
  • step S3001 If the controller 10 has not detected an operation on the tag addition button (+ add) as a result of the determination (No in step S3001), the controller 10 ends without proceeding with the processing procedure shown in FIG.
  • step S3001 when the controller 10 detects an operation on the tag addition button (+ add) as a result of the determination (Yes in step S3001), the controller 10 displays a tag creation screen 90a (see FIG. 23 or FIG. 24) on the display 2. It is displayed (step S3002).
  • the controller 10 determines whether or not a user operation other than character input is detected (step S3003).
  • step S3003, No If the user operation other than the character input is not detected as a result of the determination (step S3003, No), the controller 10 again returns to step S3003 in response to the arrival of the next determination timing in a predetermined polling cycle. Make a decision.
  • the controller 10 detects a user operation other than the character input as a result of the determination (step S3003, Yes)
  • the user operation is an operation on the save button provided on the tag creation screen 90a. It is determined whether or not (step S3004).
  • the operation for the save button may be an arbitrary operation such as touch, tap, or swipe, similarly to the operation for the tag addition button (+ add).
  • step S3004 If the result of determination is an operation on the save button (step S3004, Yes), the controller 10 displays a notification screen 80 with a sticky note on the display 2 (step S3005), and the processing procedure shown in FIG. Exit.
  • step S3004 determines whether or not the operation is on the cancel button.
  • step S3006 If the result of determination is that the operation is for the cancel button (step S3006, Yes), the controller 10 displays the original notification screen 80 on which no sticky note is pasted on the display 2 (step S3007), and FIG. The processing procedure shown in FIG.
  • the controller 10 displays a standby screen (lock screen 40) on the display 2 (step S3008), and the processing of FIG. End the procedure. That is, if the operation by the user is not an operation for the save button and the cancel button, the controller 10 determines that an operation unrelated to the creation of the sticky note has been performed, for example. The purpose is to return to the lock screen 40).
  • FIG. 28 is a flowchart showing a processing procedure when editing the text displayed on the notification screen.
  • the controller 10 determines whether or not an operation on the tag displayed on the notification screen 80 has been detected via the touch screen 21 (step S4001).
  • the operation on the sticky note may be any operation such as touch, tap or swipe.
  • step S4001, No If the controller 10 has not detected an operation on the sticky note as a result of the determination (step S4001, No), the controller 10 ends without proceeding with the processing procedure shown in FIG.
  • step S4002 if the controller 10 detects an operation on the tag as a result of the determination (step S4001, Yes), the controller 10 displays the tag editing screen 90b (see FIG. 25 or FIG. 26) on the display 2 (step S4002).
  • the controller 10 determines whether or not a user operation other than character input has been detected (step S4003).
  • step S4003, No If the user operation other than the character input is not detected as a result of the determination (step S4003, No), the controller 10 again returns to step S4003 in response to the arrival of the next determination timing in a predetermined polling cycle. Make a decision.
  • the controller 10 detects a user operation other than the character input as a result of the determination (step S4003, Yes)
  • the user operation is an operation on the save button provided on the tag edit screen 90b. It is determined whether or not (step S4004).
  • the operation on the save button may be any operation such as touch, tap, or swipe.
  • step S4004 If the result of determination is that the operation is for the save button (step S4004, Yes), the controller 10 displays the updated tag on the notification screen 80 (step S4005) and ends the processing procedure shown in FIG. To do.
  • step S4005 determines whether or not the operation is on the delete button.
  • step S4006 If the result of determination is that the operation is for the delete button (step S4006, Yes), the controller 10 displays a notification screen 80 on which the corresponding tag has been deleted on the display 2 (step S4007), and the processing shown in FIG. End the procedure.
  • step S4006 determines whether the operation is not an operation on the delete button (step S4006, No). If the result of determination is that the operation is not an operation on the delete button (step S4006, No), the controller 10 displays a standby screen (lock screen 40) on the display 2 (step S4008), and the processing of FIG. End the procedure. That is, if the operation by the user is not an operation for the save button and the delete button, the controller 10 determines that an operation unrelated to tag editing has been performed, for example. The purpose is to return to the lock screen 40).
  • the smartphone 1 displays the notification screen 80 on which the sticky note, which is text data, is pasted on the display 2.
  • the notification screen 80 can be effectively used as a utility tool unique to the user.
  • the smartphone 1 displays a screen for creating a tag on the display 2. For this reason, according to the second embodiment, the user can create text to be displayed on the display 2 by a simple operation via the touch screen 21.
  • the smartphone 1 displays a tag editing screen on the display 2. For this reason, according to the second embodiment, the user can edit the text displayed on the display 2 by a simple operation via the touch screen 21.
  • the smartphone 1 can display the creation screen or the editing screen on the display 2 from the locked state. For this reason, according to the second embodiment, the user can quickly create or edit text.
  • control such as displaying a tag creation screen may be executed in accordance with an operation received on the application execution screen.
  • the control program 9A provides a function for displaying a tag creation screen in response to an operation received on the application execution screen.
  • the control program 9A has a function for causing the display 2 to display a tag creation screen in a state in which characters input by the character input application 9D are taken over in response to an operation received on the execution screen of the character input application 9D. May be provided.
  • the controller 10 executes the control program 9A to realize a process for displaying a tag creation screen in accordance with an operation received on the application execution screen. For example, the controller 10 realizes a process of displaying on the display 2 a sticky note creation screen in a state in which the characters input by the character input application 9D are taken over in response to an operation received on the execution screen of the character input application 9D. .
  • FIG. 29 is a diagram illustrating an example of control by the smartphone 1 when displaying a tag creation screen from the character input application 9G being executed.
  • F1 appearing in FIG. 29 indicates a user's finger.
  • the smartphone 1 displays the lock screen 40 on the display 2 (step S801).
  • an icon 40b for starting a shortcut for the character input application 9G is displayed.
  • the smartphone 1 detects an operation on the icon 40b displayed on the lock screen 40 via the touch screen 21 (step S802), the smartphone 1 displays the execution screen 100 of the character input application 9G on the display 2 (step S802). S803).
  • the operation on the icon 40b may be any operation such as a tap, a double tap, or a long touch.
  • the execution screen 100 displays a window for displaying input characters, a software keyboard for inputting characters, an application icon that can be directly started from the character input application 9G, and the like.
  • the smartphone 1 detects an operation on the icon 100a corresponding to the tag application 9H displayed on the execution screen 100 via the touch screen 21. Then, a tag creation screen 90a in which the characters input by the character input application 9G are taken over is displayed on the display 2 (step S806).
  • the operation on the icon 100a may be any operation such as a tap, a double tap, or a long touch.
  • step S807 when the smartphone 1 detects an operation on the save button via the touch screen 21 (step S807), the notification screen 80 on which the tag 80f including the character input on the creation screen 90a is pasted is displayed on the display 2. It is displayed (step S808).
  • FIG. 30 An example of a processing procedure performed by the smartphone 1 according to the third embodiment will be described with reference to FIG.
  • the processing procedure illustrated in FIG. 30 is realized by the controller 10 executing the control program 9A stored in the storage 9.
  • FIG. 30 is a flowchart showing a processing procedure when a tag creation screen is displayed from the character input application 9G being executed.
  • step S5001 when the controller 10 detects an operation on the icon 40b displayed on the lock screen 40 via the touch screen 21, the controller 10 executes the character input application 9G (step S5001).
  • the controller 10 displays a tag creation screen 90a on the display 2 in response to detection of an operation on the icon 100a corresponding to the tag application 9H displayed on the execution screen 100 of the character input application 9G (step S5002). .
  • a character input by the character input application 9G is taken over (see FIG. 29 and the like).
  • the controller 10 determines whether or not a user operation other than character input has been detected (step S5003).
  • step S5003 If the user operation other than the character input is not detected as a result of the determination (No in step S5003), the controller 10 again performs the operation of step S5003 in response to the arrival of the next determination timing in a predetermined polling cycle. Make a decision.
  • the controller 10 detects a user operation other than the character input as a result of the determination (step S5003, Yes)
  • the user operation is an operation on the save button provided on the tag creation screen 90a. It is determined whether or not (step S5004).
  • the operation for the save button may be an arbitrary operation such as touch, tap, or swipe, similarly to the operation for the tag addition button (+ add).
  • step S5004 If the result of determination is an operation on the save button (step S5004, Yes), the controller 10 displays a notification screen 80 with a sticky note on the display 2 (step S5005), and the processing procedure shown in FIG. Exit.
  • step S5006 determines whether or not the operation is for a cancel button.
  • step S5006 If the result of determination is that the operation is for a cancel button (step S5006, Yes), the controller 10 displays a notification screen 80 on which no sticky note is pasted on the display 2 (step S5007), as shown in FIG. The processing procedure ends.
  • the controller 10 displays a standby screen (lock screen 40) on the display 2 (step S5008), and the processing of FIG. End the procedure. That is, if the operation by the user is not an operation for the save button and the cancel button, the controller 10 determines that an operation unrelated to the creation of the sticky note has been performed, for example. The purpose is to return to the lock screen 40).
  • the smartphone 1 is a sticky note in a state in which a character input by the character input application 9G is taken over in response to an operation received on the application execution screen 100 of the character input application 9G.
  • the creation screen is displayed on the display 2.
  • the text containing the character input using the character input application 9G can be directly displayed on the display 2 from the character application 9G.
  • the present invention is not limited to the example in which the tag creation screen is displayed from the character input application 9G being executed.
  • a shortcut key or an icon of the tag application 9H is provided on the lock screen 40, and a tag creation screen is displayed on the display 2 when the shortcut key of the tag application 9H is operated on the lock screen 40. May be.
  • each program shown in FIG. 22 may be divided into a plurality of modules. Or each program shown in Drawing 22 may be combined with other programs.
  • a smartphone has been described as an example of a device including a touch screen.
  • the device according to the appended claims is not limited to a smartphone.
  • the device according to the appended claims may be an electronic device other than a smartphone.
  • Electronic devices are, for example, mobile phones, tablets, portable personal computers, digital cameras, media players, electronic book readers, navigators, and game machines.
  • the device according to the appended claims may be a stationary electronic device.
  • the stationary electronic devices are, for example, a desktop personal computer and a television receiver.

Abstract

 1つの態様において、電子機器(例えば、スマートフォン1)は、ディスプレイと、コントローラとを有する。ディスプレイは、情報を通知する通知領域を含む通知画面を表示する。コントローラは、操作を検出した場合に、前記ディスプレイに表示している前記通知画面を、前記通知画面の編集を行うための編集画面に遷移させる。例えば、電子機器(例えば、スマートフォン1)は、タッチスクリーンを介して、ディスプレイに表示する通知画面に設けられている編集ボタンに対する操作を検出すると、ディスプレイに表示している通知画面を、通知画面の編集を行うための編集画面に遷移させる。

Description

電子機器、制御方法、及び制御プログラム
 本出願は、電子機器、制御方法、及び制御プログラムに関する。
 携帯電話、又はスマートフォンなどの電子機器には、ディスプレイに表示される画面の上部に、ユーザに対して情報を通知するための通知領域を有するものがある(特許文献1、2参照)。この通知領域には、例えば、バックグラウンドで動作するアプリケーションにより提供されるサービスに関する情報などが、アイコンなどを用いて表示される。この通知領域は、ステータスバーなどとも呼ばれることがある。携帯電話、又はスマートフォンなどの電子機器には、ステータスバーに表示される情報の詳細情報を表示するための通知画面を表示させることができるものもある。
特開2012-156793号公報 特開2011-175633号公報
 携帯電話又はスマートフォンなどの電子機器において、上記通知画面を有効活用したいというニーズがある。
 1つの態様に係る電子機器は、情報を通知する通知領域を含む通知画面を表示するディスプレイと、操作を検出した場合に、前記ディスプレイに表示している前記通知画面を、前記通知画面の編集を行うための編集画面に遷移させるコントローラとを有する。
 1つの態様に係る制御方法は、ディスプレイを有する電子機器を制御する制御方法であって、情報を通知する通知領域を含む通知画面を前記ディスプレイに表示するステップと、操作を検出した場合に、前記ディスプレイに表示している前記通知画面を、前記通知画面の編集を行うための編集画面に遷移させるステップとを含む。
 1つの態様に係る制御プログラムは、ディスプレイを有する電子機器に、情報を通知する通知領域を含む通知画面を前記ディスプレイに表示するステップと、操作を検出した場合に、前記ディスプレイに表示している前記通知画面を、前記通知画面の編集を行うための編集画面に遷移させるステップとを実行させる。
図1は、実施す形態に係るスマートフォンのブロック図である。 図2は、ディスプレイに通知画面を表示させる制御の一例を示す図である。 図3は、設定ボタン表示領域の拡大図である。 図4は、電話の待受モードに対応する画像の一例を示す図である。 図5は、ディスプレイに通知画面を表示させる制御の他の例を示す図である。 図6は、図5に示す通知画面に対する制御の例を示す図である。 図7は、ディスプレイに編集画面を表示させる制御の一例を示す図である。 図8は、編集画面において表示項目の追加を行う際の制御の一例を示す図である。 図9は、編集画面における表示項目の追加を行う際の制御の他の例を示す図である。 図10は、編集画面における表示項目の追加を行う際の制御の他の例を示す図である。 図11は、編集画面における表示項目の削除を行う際の制御の例を示す図である。 図12は、編集画面における表示項目の表示位置の変更を行う際の制御の例を示す図である。 図13は、編集画面における表示項目の個別編集を行う際の制御の例を示す図である。 図14は、編集画面における表示項目の個別編集を行う際の制御の例を示す図である。 図15は、編集画面における表示項目の個別編集を行う際の制御の例を示す図である。 図16は、通知画面の編集を行う際の全体的な制御の流れを示すフローチャートである。 図17は、表示項目編集処理の処理手順を示すフローチャートである。 図18は、表示項目編集処理の処理手順を示すフローチャートである。 図19は、表示項目編集処理の処理手順を示すフローチャートである。 図20は、表示項目個別編集処理の処理手順を示すフローチャートである。 図21は、表示項目個別編集処理の処理手順を示すフローチャートである。 図22は、実施形態2に係るスマートフォンのブロック図である。 図23は、ディスプレイに表示される通知画面にテキストを作成するときの制御の一例を示す図である。 図24は、ディスプレイに表示される通知画面にテキストを作成するときの制御の他の例を示す図である。 図25は、通知画面に表示されている付箋を削除する制御の一例を示す図である。 図26は、通知画面に表示されている付箋を更新する制御の一例を示す図である。 図27は、ディスプレイに表示される通知画面にテキストを作成するときの処理手順を示すフローチャートである。 図28は、通知画面に表示されるテキストを編集するときの処理手順を示すフローチャートである。 図29は、実行中の文字入力アプリケーションから付箋の作成画面を表示させるときのスマートフォン1による制御の一例を示す図である。 図30は、実行中の文字入力アプリケーションから付箋の作成画面を表示させるときの処理手順を示すフローチャートである。
 本出願に係る電子機器、制御方法、及び制御プログラムを実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、電子機器の一例として、スマートフォンを取り上げて説明する。
(実施形態1)
 図1を参照しながら、実施形態1に係るスマートフォン1の機能的な構成について説明する。図1は、実施形態1に係るスマートフォンのブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがある。さらに、重複する説明は省略することがある。
 図1に示すように、スマートフォン1は、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21とを備える。
 ディスプレイ2は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。
 ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。
 照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。
 近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 通信ユニット6は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。スマートフォン1は、GPS衛星との通信機能を通信ユニット6から分散させて、通信ユニット6から独立した個別の通信部を設けてもよい。
 レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2に画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、メールアプリケーション9C、カレンダーアプリケーション9D、メモ帳アプリケーション9E、カメラアプリケーション9F、及び設定データ9Zなどを記憶する。
 制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、ユーザに情報を通知する通知領域を含む通知画面をディスプレイに表示させるための機能を提供する。通知画面には、バックグラウンドで実行されるアプリケーションについて、いわゆるステータスバーに通知される情報の詳細情報を、ユーザに通知する通知領域であるお知らせ表示領域と、お知らせ表示領域以外の他の領域が含まれる。他の領域は、各種機能の設定を行うための設定ボタン表示領域、アプリケーションのショートカットアイコンが配置されるアプリショートカット表示領域、及びSNS(Social Network Service)へのメッセージ投稿を行うための簡単SNS投稿表示領域などを含む。
 さらに、制御プログラム9Aは、ユーザの操作が検出された場合に、ディスプレイ2に表示されている通知画面を、通知画面を編集する編集画面に遷移させるための機能を提供する。さらに、制御プログラム9Aは、編集画面において、他の領域を追加するユーザの操作が検出された場合には、他の領域の追加を通知画面に反映するための機能を提供する。さらに、制御プログラム9Aは、編集画面において、他の領域を削除するユーザの操作が検出された場合には、他の領域の削除を通知画面に反映するための機能を提供する。さらに、制御プログラム9Aは、編集画面において、通知領域の表示位置および他の領域の表示位置を相互に変更するユーザの操作が検出された場合には、表示位置の変更を通知画面に反映するための機能を提供する。さらに、制御プログラム9Aは、編集画面において、他の領域に含まれる構成要素を変更するユーザの操作が検出された場合に、構成要素の変更を通知画面に反映するための機能を提供する。
 その他、制御プログラム9Aは、通信ユニット6などを制御することによって、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)などを用いた通信を実現させるための機能を提供する。
 制御プログラム9Aは、通信ユニット6などを制御することによって、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等を用いた近距離無線通信を実現させるための機能を提供する。
 制御プログラム9Aは、例えば、通信ユニット6及びマイク8などを制御することによって、通話を実現させるための機能を提供する。
 制御プログラム9Aにより提供される機能は、通話を実現させる場合、通話アプリケーション9B又はメールアプリケーション9Cなど、ストレージ9に記憶される他のプログラムなどが提供する機能と組み合わせて利用されることがある。制御プログラム9Aにより提供される機能は、複数のプログラムモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
 通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。メールアプリケーション9Cは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。カレンダーアプリケーション9Dは、スケジュール管理等のためのカレンダー機能を提供する。メモ帳アプリケーション9Eは、テキストデータの作成及び管理するためのテキストエディタ機能を提供する。カメラアプリケーション9Fは、画像および動画像の撮影、編集および管理などを行うための機能を提供する。ストレージ9に記憶されるアプリケーションは一例に過ぎない。図1に示すもの以外に、ブラウザアプリケーション、ナビゲートアプリケーション、音楽プレイヤーアプリケーション、動画再生アプリケーション、計算機アプリケーション、付箋アプリケーションなどが記憶されていてもよい。
 設定データ9Zは、スマートフォン1の動作に関連する各種の設定及び処理に関する情報を含む。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。
 コントローラ10は、制御プログラム9Aを実行することにより、ユーザに情報を通知する通知領域を含む通知画面をディスプレイ2に表示させる処理を実現する。具体的には、コントローラ10は、例えば、ユーザによるタッチジェスチャを検出すると、通知画面をディスプレイ2に表示する。コントローラ10は、どのような画面がディスプレイ2に表示されている場合であっても、通知画面を呼び出してディスプレイ2に表示させることができる。コントローラ10は、例えば、いわゆるホーム画面をディスプレイ2に表示しているときに、ユーザによるタッチジェスチャの検出に応じて、上記通知画面を呼び出してディスプレイ2に表示させることができる。さらに、コントローラ10は、例えば、メールアプリケーション、ブラウザアプリケーション、マップ並びにスケジューラなどに対応するアプリケーション画面をディスプレイ2に表示しているときに、ユーザによるタッチジェスチャの検出に応じて、上記通知画面を呼び出してディスプレイ2に表示させることができる。さらに、コントローラ10は、スマートフォン1がロック状態にある場合にディスプレイ2に表示される、いわゆるロック画面がディスプレイ2に表示されている場合であっても、上記通知画面を呼び出してディスプレイ2に表示させることができる。ロック状態には、単に、ユーザの操作を受け付けない状態だけでなく、セキュリティロック状態を含んでもよい。通知画面には、バックグラウンドで実行されるアプリケーションについて、いわゆるステータスバーに通知される情報の詳細情報を、ユーザに通知するための通知領域であるお知らせ表示領域と、お知らせ表示領域以外の他の領域が含まれる。他の領域は、各種機能の設定を行うための設定ボタン表示領域、アプリケーションのショートカットアイコンが配置されるアプリショートカット表示領域、及びSNS(Social Network Service)へのメッセージ投稿を行うための簡単SNS投稿表示領域などを含む。
 さらに、コントローラ10は、制御プログラム9Aを実行することにより、ユーザの操作を検出した場合に、ディスプレイ2に表示されている通知画面を、通知画面を編集する編集画面に遷移させる処理を実現する。コントローラ10は、例えば、通知画面に設けられている編集ボタンに対する操作を検出した場合に、ディスプレイ2に表示されている通知画面を編集画面に遷移させる。
 さらに、コントローラ10は、制御プログラム9Aを実行することにより、編集画面において他の領域を追加するユーザの操作を検出した場合には、他の領域の追加を通知画面に反映する処理を実現する。さらに、コントローラ10は、制御プログラム9Aを実行することにより、編集画面において他の領域を削除するユーザの操作を検出した場合には、他の領域の削除を通知画面に反映する処理を実現する。さらに、コントローラ10は、制御プログラム9Aを実行することにより、編集画面において通知領域の表示位置および他の領域の表示位置を相互に変更するユーザの操作を検出した場合には、表示位置の変更を通知画面に反映する処理を実現する。さらに、コントローラ10は、制御プログラム9Aを実行することにより、編集画面において他の領域に含まれる構成要素を変更するユーザの操作を検出した場合に、構成要素の変更を通知画面に反映する処理を実現する。
 スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。
 カメラ12は、撮影した画像を電気信号へ変換する。カメラ12には、例えば、ディスプレイ2に面している物体を撮影するインカメラ、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラが含まれる。
 姿勢検出ユニット15は、スマートフォン1の姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。
 バイブレータ18は、スマートフォン1の一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。バイブレータ18による振動は、着信等の各種のイベントを利用者に報知するために用いられる。
 タッチスクリーン21は、タッチスクリーン21に対する接触を検出する。コントローラ10(スマートフォン1)は、タッチスクリーン21によって検出される接触に基づいて、指、スタイラス、ペン等(以下、単に「指」という)を用いてタッチスクリーン21に対して行われる各種操作(ジェスチャ)を検出する。例えば、タッチスクリーン21は、タッチセンサを有する。タッチセンサは、タッチスクリーン21への指の接触を、接触された場所のタッチスクリーン21上での位置とともに検出し、コントローラ10に通知する。コントローラ10が、タッチスクリーン21を介して検出する各種操作(ジェスチャ)には、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。図1に示すように、ディスプレイ2と、タッチスクリーン21とは機能的には分離したものであるが、物理的にはタッチスクリーンディスプレイとして統合されていてよい。
 図1に示したスマートフォン1の機能構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。
 図2~図6を用いて、スマートフォン1による通知画面の表示制御の一例について説明する。図2、図5及び図6に登場するF1は、ユーザの指を示す。以下では、いわゆるロック画面がディスプレイ2に表示されている場合の制御の例について説明するが、いわゆるホーム画面、あるいはアプリケーション画面がディスプレイ2に表示されている場合であっても、同様の制御を実現できる。
 図2は、ディスプレイ2に通知画面を表示させる制御の一例を示す図である。図2に示すように、スマートフォン1は、ディスプレイ2にロック画面40を表示している(ステップS11)。ロック画面40は、スマートフォン1がロック状態にある場合に表示される。スマートフォン1は、ディスプレイ2にロック画面40が表示されている場合、特定の操作を除いて、ユーザの操作を受け付けない。特定の操作には、例えば、ロック状態を解除するための操作、及び通知画面をディスプレイ2に表示させるための操作が含まれる。ロック状態には、単に、ユーザの操作を受け付けない状態だけでなく、セキュリティロック状態を含んでもよい。図2に示す例では、ロック画面40の上部に設けられている、いわゆるステータスバーに、メールの受信をユーザに通知するアイコン40aが表示されている。
 続いて、スマートフォン1は、タッチスクリーン21を介して、ステータスバーが表示されるロック画面40の上側端部から下側端部へ向うスワイプを検出すると(ステップS12)、ディスプレイ2に通知画面50を表示させる(ステップS13)。通知画面50には、上記アイコン40aの他に、電池残量をパーセンテージで表示する領域50aと、各種機能の設定を行うための設定ボタン表示領域50b、ステータスバーに表示される情報の詳細情報を表示する通知領域であるお知らせ表示領域50cと、アプリケーションのショートカットアイコンが配置されるアプリショートカット表示領域50dと、SNSへのメッセージ投稿を行うための簡単SNS投稿表示領域50eと、通知画面50を編集するための編集画面へ遷移させる編集ボタン50fとが設けられる。図2に示す例では、お知らせ表示領域50cに、「特許太朗さんからメールを受信しました。」というメッセージが表示される。このメッセージは、いわゆるステータスバーに表示されるアイコン40aに対応する詳細情報である。
 図3は、設定ボタン表示領域50bの拡大図である。図3に示すように、設定ボタン表示領域50bは、「設定ボタン」と表記される領域表示バーと、ボタンB1~ボタンB5を有する。ボタンB1は、WiFiの機能をON又はOFFに設定するためのボタンである。ボタンB2は、Bluetooth(登録商標)の機能をON又はOFFに設定するためのボタンである。ボタンB3は、GPSの機能のON又はOFFに設定するためのボタンである。ボタンB4は、電話の待受モードの切替えを行うためのボタンである。ボタンB5は、画面回転の機能のON又はOFFに設定するためのボタンである。
 コントローラ10は、タッチスクリーン21を介して、例えば、ボタンB3に対するタップを検出すると、ボタンB3に対応付けられているGPSの機能がOFFの状態である場合には、GPSの機能をONの状態に設定する。さらに、コントローラ10は、図3に示すように、ボタンB3に対応付けられているGPSの機能がONであることを示すように、ボタンB3に表示されている“GPS”の文字部分、及びボタンB3に表示されている領域L1を点灯させる。コントローラ10は、ボタンB1、ボタンB2及びボタンB5に対するユーザの操作を検出した場合にも、上記ボタンB3と同様に設定を行うことができる。
 ボタンB4については、コントローラ10は、以下に説明するように、ユーザの操作に応じて、電話の待受モードの切替え、切替えたモードに対応する画像をボタンB4に表示させる。すなわち、コントローラ10は、タッチスクリーン21を介して、例えば、ボタンB4に対するタップを検出するたびに、ボタンB4の画像を、ボタンB4に対応付けられている電話の待受モードに対応する画像に切替えて表示する。図4は、電話の待受モードに対応する画像の一例である。図4に示すように、コントローラ10は、ボタンB4に対するタップを検出するたびに、ボタンB4の画像を、マナーモードのOFFの画像、マナーモード(バイブ)の画像、マナーモード(ミュート)の画像に切替えて表示する。
 このように、ユーザは、設定ボタン表示領域50bに設けられているボタンB1~ボタンB5を操作することにより、ボタンB1~ボタンB5に対応付けられている各種機能を簡単にON又はOFFに設定できる。
 図5は、ディスプレイに通知画面を表示させる制御の他の例を示す図である。スマートフォン1は、図2に示す例に限定されず、図5に示すように、通知画面を表示させてもよい。すなわち、図5に示すように、スマートフォン1は、ディスプレイ2に待受画面40を表示している(ステップS21)。続いて、スマートフォン1は、ステータスバーが表示される待受画面40の上側端部から、待受画面40の下側端部を通過するスワイプを検出すると(ステップS22)、ディスプレイ2に通知画面50を表示させる(ステップS23)。このとき、スマートフォン1は、通知画面50に設けられる設定ボタン表示領域50b、お知らせ表示領域50c、アプリショートカット表示領域50d、及び簡単SNS投稿表示領域50eを折りたたんで、それぞれの領域に対応する領域表示バーのみを表示する。そして、スマートフォン1は、領域表示バーに対するユーザの操作に応じて、折りたたんで表示している領域を広げて表示するようにしてもよい。この制御について、以下に説明する。
 図6は、図5に示す通知画面50に対する制御の例を示す図である。図6に示すように、スマートフォン1は、ディスプレイ2に通知画面50を表示している(ステップS31)。続いて、スマートフォン1は、タッチスクリーン21を介して、設定ボタン表示領域50bに対するタップを検出すると(ステップS32)、折りたたまれていた設定ボタン表示領域50bを広げて表示する(ステップS33)。続いて、スマートフォン1は、タッチスクリーン21を介して、広げて表示する設定ボタン表示領域50bの上部の領域表示バーに対するタップを検出すると(ステップS34)、広げて表示する設定ボタン表示領域50bを折りたたんで、領域表示バーのみを表示する(ステップS35)。
 図7~図15を用いて、スマートフォン1による通知画面の編集制御の一例について説明する。図7~図15に登場するF1は、ユーザの指を示す。
 図7は、ディスプレイ2に編集画面を表示させる制御の一例を示す図である。図7に示すように、スマートフォン1は、タッチスクリーン21を介して、ディスプレイ2に表示する通知画面50に設けられている編集ボタン50fに対する操作を検出すると(ステップS41)、通知画面50を編集する編集画面60に遷移させる(ステップS42)。図7に示すように、編集画面60には、設定ボタン表示領域50bを個別に編集するための編集ボタン60aと、アプリショートカット表示領域50dを個別に編集するための編集ボタン60bと、簡単SNS投稿表示領域50eを個別に編集するための編集ボタン60cと、表示項目追加ボタン60dとが設けられる。編集画面60は、主に、新たな表示項目の追加、既存の表示項目の削除、移動などの編集操作をユーザから受け付ける。お知らせ表示領域50cについては、移動のみを可能とし、削除を不可とする。
 図8は、編集画面60において表示項目の追加を行う際の制御の一例を示す図である。図8に示すように、スマートフォン1は、タッチスクリーン21を介して、編集画面60に設けられた表示項目追加ボタン60dへの操作を検出すると(ステップS51)、追加可能な表示項目の一覧60eを表示する(ステップS52)。図8に示す例では、追加可能な表示項目として、例えば、カレンダーと、付箋とが列挙されている。表示項目の一覧60eには、追加可能な表示項目の一覧のみを表示してもよいし、表示中の項目および表示可能な項目の全てを表示してもよい。
 続いて、スマートフォン1は、タッチスクリーン21を介して、追加可能な表示項目の一覧60eから、カレンダーの選択を検出すると(ステップS53)、編集画面60にカレンダーを追加する(ステップS54)。図8に示す例では、天気の情報を含む週表示のカレンダーを表示しているが、月表示のカレンダーであってもよい。
 続いて、スマートフォン1は、タッチスクリーン21を介して、編集画面60において「表示項目編集 完了」と表示されている領域への操作を検出すると(ステップS55)、カレンダーが追加された通知画面50をディスプレイ2に表示させる(ステップS56)。「表示項目編集 完了」と表示されている領域への操作は、タッチ、タップ、スワイプ、ダブルタップなど、他の処理との対応付けが重複しない限り、どのような操作を検出対象としてもよい。以下の説明において、単に、「操作」と表記するものについても、同様である。
 図9及び図10は、編集画面60における表示項目の追加を行う際の制御の他の例を示す図である。
 図9を用いて、表示項目を追加する際に、お知らせ表示領域50c以外の領域を折りたたんで領域表示バーのみを表示させる制御について説明する。
 図9に示すように、スマートフォン1は、タッチスクリーン21を介して、編集画面60に設けられた表示項目追加ボタン60dへの操作を検出すると(ステップS61)、追加可能な表示項目の一覧60eを表示する(ステップS62)。
 続いて、スマートフォン1は、タッチスクリーン21を介して、追加可能な表示項目の一覧60eから、カレンダーの選択を検出すると(ステップS63)、編集画面60にカレンダーを表示する(ステップS64)。ステップS64において、スマートフォン1は、編集画面60に既存の領域と、追加されるカレンダーの領域とを合わせた領域の合計が、ディスプレイ2の表示可能範囲を超えるかどうかを判定する。判定の結果、ディスプレイ2の表示可能範囲を超える場合には、スマートフォン1は、お知らせ表示領域50c以外の設定ボタン表示領域50b、アプリショートカット表示領域50d、簡単SNS投稿表示領域50eを折りたたんで、領域表示バーのみを表示させる。このとき、スマートフォン1は、領域表示バーには個別編集ボタンを表示させないようにする。そして、スマートフォン1は、領域表示バーに対する操作に応じて、折りたたまれている領域を広げて表示させる際に、個別編集ボタンを再表示させる。スマートフォン1は、編集画面60に既存の領域と、追加されるカレンダーの領域とを合わせた領域の合計が、ディスプレイ2の表示可能範囲を超える場合、お知らせ表示領域50cを含めた全ての領域を折りたたんで、領域表示バーのみを表示させるようにしてもよい。
 一方、ステップS64において、スマートフォン1は、編集画面60に既存の領域と、追加されるカレンダーの領域とを合わせた領域の合計が、ディスプレイ2の表示可能範囲を超えない場合には、お知らせ表示領域50c以外の設定ボタン表示領域50b、アプリショートカット表示領域50d、簡単SNS投稿表示領域50eも折りたたまずに表示する。
 続いて、スマートフォン1は、タッチスクリーン21を介して、編集画面60において「表示項目編集 完了」と表示されている領域への操作を検出すると(ステップS65)、カレンダーが追加された通知画面50をディスプレイ2に表示させる(ステップS66)。ステップS66において、スマートフォン1は、お知らせ表示領域50c以外の設定ボタン表示領域50b、アプリショートカット表示領域50d、及び簡単SNS投稿表示領域50eについては、折りたたんだ状態のままで領域表示バーのみを通知画面50に表示させる。
 図10を用いて、表示項目を追加する際に、お知らせ表示領域50c、及び設定ボタン表示領域50b以外の領域を折りたたんで領域表示バーのみを表示させる制御について説明する。
 図10に示すように、スマートフォン1は、タッチスクリーン21を介して、編集画面60に設けられた表示項目追加ボタン60dへの操作を検出すると(ステップS71)、追加可能な表示項目の一覧60eを表示する(ステップS72)。
 続いて、スマートフォン1は、タッチスクリーン21を介して、追加可能な表示項目の一覧60eから、カレンダーの選択を検出すると(ステップS73)、編集画面60にカレンダーを表示する(ステップS74)。ステップS74において、スマートフォン1は、編集画面60に既存の領域と、追加されるカレンダーの領域とを合わせた領域の合計が、ディスプレイ2の表示可能範囲を超えるかどうかを判定する。判定の結果、ディスプレイ2の表示可能範囲を超える場合には、スマートフォン1は、ディスプレイ2の表示可能範囲内で、お知らせ表示領域50cに加えて表示可能な領域を、編集画面60に表示された設定ボタン表示領域50bから順に判定する。判定の結果、お知らせ表示領域50cに加えて設定ボタン表示領域50bまで表示可能である場合には、スマートフォン1は、お知らせ表示領域50c及び設定ボタン表示領域50b以外のアプリショートカット表示領域50d及び簡単SNS投稿表示領域50eを折りたたんで、領域表示バーのみを表示させる。このとき、スマートフォン1は、領域表示バーには個別編集ボタンを表示させないようにする。そして、スマートフォン1は、領域表示バーに対する操作に応じて、折りたたまれている領域を広げて表示させる際に、個別編集ボタンを再表示させる。スマートフォン1は、編集画面60に既存の領域と、追加されるカレンダーの領域とを合わせた領域が、ディスプレイ2の表示可能領域を超える場合、お知らせ表示領域50cを含めた全ての領域を折りたたんで、領域表示バーのみを表示させるようにしてもよい。
 一方、ステップS74において、スマートフォン1は、編集画面60に既存の領域と、追加されるカレンダーの領域とを合わせた領域が、ディスプレイ2の表示可能領域を超えない場合には、お知らせ表示領域50c以外の設定ボタン表示領域50b、アプリショートカット表示領域50d、簡単SNS投稿表示領域50eも折りたたまずに表示する。
 続いて、スマートフォン1は、タッチスクリーン21を介して、編集画面60において「表示項目編集 完了」と表示されている領域への操作を検出すると(ステップS75)、カレンダーが追加された通知画面50をディスプレイ2に表示させる(ステップS76)。ステップS76において、スマートフォン1は、お知らせ表示領域50c及び設定ボタン表示領域50b以外のアプリショートカット表示領域50d及び簡単SNS投稿表示領域50eについては、折りたたんだ状態のままで領域表示バーのみを通知画面50に表示させる。
 図11は、編集画面60における表示項目の削除を行う際の制御の例を示す図である。
 図11に示すように、スマートフォン1は、タッチスクリーン21を介して、編集画面60の設定ボタン表示領域50bにおける領域表示バーへの操作を検出すると(ステップS81)、設定ボタン表示領域50bを移動可能な状態に変更する(ステップS82)。スマートフォン1は、例えば、領域表示バーへのロングタッチを検出した場合に、設定ボタン表示領域50bをタッチしたままドラッグして移動可能な状態へと変更する。領域表示バーへのロングタッチを検出した場合に、設定ボタン表示領域50bを移動可能な状態に変更するユーザの操作は、ロングタッチに限定されない。例えば、スマートフォン1は、領域表示バーへのダブルタップを検出した場合に、設定ボタン表示領域50bを移動可能な状態に変更してもよく、他の処理との対応付けが重複しない限り、どのような操作を検出対象としてもよく、以下の説明についても同様である。領域表示バーへの操作により、設定ボタン表示領域50bを移動可能な状態に変更する例に限定されず、設定ボタン表示領域50bを移動可能な状態に変更するためのボタンなどを設けてもよい。
 ステップS82において、スマートフォン1は、設定ボタン表示領域50bを移動可能な状態に変更した後、編集画面60において「表示項目編集 完了」と表示されている領域を、設定ボタン表示領域50bの削除を行うための領域に変更し、「表示項目編集 削除(60f参照)」に表示を変更する。
 ユーザにより設定ボタン表示領域50bの移動が開始された後、スマートフォン1は、タッチスクリーン21を介して、編集画面60において「表示項目編集 削除」と表示されている領域と、設定ボタン表示領域50bとの重複を検出すると、設定ボタン表示領域50bを削除する(ステップS83)。スマートフォン1は、「表示項目編集 削除」と表示されている領域と、設定ボタン表示領域50bとの重複の度合いは、任意に変更できる。例えば、スマートフォン1は、「表示項目編集 削除」と表示されている領域と、設定ボタン表示領域50bと少しでも重複した場合には、設定ボタン表示領域50bを削除するようにしてもよい。あるいは、スマートフォン1は、「表示項目編集 削除」と表示されている領域の面積の半分以上と、設定ボタン表示領域50bの面積とが重複した場合には、設定ボタン表示領域50bを削除するようにしてもよい。
 ステップS83において、スマートフォン1は、設定ボタン表示領域50bを削除した後、編集画面60において「表示項目編集 削除」と表示されている領域を、「表示項目編集 完了」に表示を戻す。
 続いて、スマートフォン1は、タッチスクリーン21を介して、編集画面60において「表示項目編集 完了」と表示されている領域への操作を検出すると(ステップS84)、設定ボタン表示領域50bが削除された通知画面50をディスプレイ2に表示させる(ステップS85)。
 アプリショートカット表示領域50d、及び簡単SNS投稿表示領域50eについても、スマートフォン1は、図11に示す制御と同様の制御により表示項目を削除することができる。
 図12は、編集画面60における表示項目の表示位置の変更を行う際の制御の例を示す図である。
 図12に示すように、スマートフォン1は、タッチスクリーン21を介して、編集画面60の設定ボタン表示領域50bにおける領域表示バーへの操作を検出すると(ステップS91)、設定ボタン表示領域50bを移動可能な状態に変更する(ステップS92)。スマートフォン1は、例えば、領域表示バーへのロングタッチを検出した場合に、設定ボタン表示領域50bをタッチしたままドラッグして移動可能な状態へと変更する。領域表示バーへのロングタッチを検出した場合に、設定ボタン表示領域50bを移動可能な状態に変更するユーザの操作は、ロングタッチに限定されない。例えば、スマートフォン1は、領域表示バーへのダブルタップを検出した場合に、設定ボタン表示領域50bを移動可能な状態に変更してもよく、他の処理との対応付けが重複しない限り、どのような操作を検出対象としてもよく、以下の説明についても同様である。領域表示バーへの操作により、設定ボタン表示領域50bを移動可能な状態に変更する例に限定されず、設定ボタン表示領域50bを移動可能な状態に変更するためのボタンなどを設けてもよい。
 ステップS92において、スマートフォン1は、設定ボタン表示領域50bを移動可能な状態に変更した後、編集画面60において「表示項目編集 完了」と表示されている領域を、設定ボタン表示領域50bの表示項目の削除を行うための領域に変更し、「表示項目編集 削除(60f参照)」に表示を変更する。
 ユーザにより設定ボタン表示領域50bの移動が開始された後、スマートフォン1は、タッチスクリーン21を介して、編集画面60の設定ボタン表示領域50bと、編集画面60のお知らせ表示領域50cとの重複を検出すると、設定ボタン表示領域50bの表示位置と、お知らせ表示領域50cの表示位置とを入れ替える(ステップS93)。
 ステップS93において、スマートフォン1は、設定ボタン表示領域50bの表示位置と、お知らせ表示領域50cの表示位置とを入れ替え後、編集画面60において「表示項目編集 削除」と表示されている領域を、再び、「表示項目編集 完了」と表示させる。
 続いて、スマートフォン1は、タッチスクリーン21を介して、編集画面60において「表示項目編集 完了」と表示されている領域への操作を検出すると(ステップS94)、設定ボタン表示領域50bの表示位置と、お知らせ表示領域50cの表示位置とを入れ替えられた通知画面50をディスプレイ2に表示させる(ステップS95)。
 アプリショートカット表示領域50d、及び簡単SNS投稿表示領域50eについても、スマートフォン1は、図12に示す制御と同様の制御により表示項目の表示位置を変更することができる。
 図13~図15は、編集画面60における表示項目の個別編集を行う際の制御の例を示す図である。
 図13を用いて、設定ボタン表示領域50bのボタンを追加する制御について説明する。
 図13に示すように、スマートフォン1は、編集画面60を表示後(ステップS101)、タッチスクリーン21を介して、設定ボタン表示領域50bに設けられている編集ボタン60aへの操作を検出すると(ステップS102)、設定ボタン表示領域50bの個別編集画面71を表示する(ステップS103)。個別編集画面71には、ボタンを追加するための追加ボタン71aが設けられる。
 続いて、スマートフォン1は、タッチスクリーン21を介して、追加ボタン71aへの操作を検出すると(ステップS104)、追加可能なボタンの一覧71bを表示する(ステップS105)。図13に示す例では、追加可能なボタンとして、例えば、ICカードロックと、着信相手非表示とが列挙されている。ボタンの一覧71bには、追加可能なボタンの一覧のみを表示してもよいし、表示中のボタンおよび追加可能なボタンの全てを表示してもよい。
 続いて、スマートフォン1は、タッチスクリーン21を介して、追加可能なボタンの一覧71bから、着信相手非表示の選択を検出すると(ステップS106)、個別編集画面71に、着信相手非表示に対応するボタン71cを表示する(ステップS107)。
 続いて、スマートフォン1は、タッチスクリーン21を介して、個別編集画面71において「設定ボタン編集 完了」と表示されている領域への操作を検出すると(ステップS108)、着信相手非表示に対応するボタン71cが追加された編集画面60をディスプレイ2に表示させる(ステップS109)。その後、スマートフォン1は、編集画面60において「表示項目編集 完了」と表示されている領域への操作を検出した場合には、設定ボタン表示領域50bに着信相手非表示に対応するボタン71cが追加された通知画面50をディスプレイ2に表示させる。
 図14を用いて、アプリショートカット表示領域50dのボタンを追加する制御について説明する。
 図14に示すように、スマートフォン1は、編集画面60を表示後(ステップS201)、タッチスクリーン21を介して、アプリショートカット表示領域50dに設けられている編集ボタン60bへの操作を検出すると(ステップS202)、アプリショートカット表示領域50dの個別編集画面72を表示する(ステップS203)。個別編集画面72には、ボタンを追加するための追加ボタン72aが設けられる。
 続いて、スマートフォン1は、タッチスクリーン21を介して、追加ボタン72aへの操作を検出すると(ステップS204)、追加可能なアイコンの一覧72bを表示する(ステップS205)。図14に示す例では、追加可能なボタンとして、例えば、すぐ文字と、メモ帳とが列挙されている。アイコンの一覧72bには、追加可能なアイコンの一覧のみを表示してもよいし、表示中のアイコンおよび追加可能なアイコンの全てを表示してもよい。
 続いて、スマートフォン1は、タッチスクリーン21を介して、追加可能なアイコンの一覧72bから、メモ帳の選択を検出すると(ステップS206)、個別編集画面72に、メモ帳に対応するアイコン72cを表示する(ステップS207)。
 続いて、スマートフォン1は、タッチスクリーン21を介して、編集画面60において「アプリショートカット編集 完了」と表示されている領域への操作を検出すると(ステップS208)、メモ帳に対応するアイコン72cが追加された編集画面60をディスプレイ2に表示させる(ステップS209)。その後、スマートフォン1は、編集画面60において「表示項目編集 完了」と表示されている領域への操作を検出した場合には、アプリショートカット表示領域50dにメモ帳に対応するアイコン72cが追加された通知画面50をディスプレイ2に表示させる。
 簡単SNS投稿表示領域50eについても、スマートフォン1は、図13及び図14に示す制御と同様の制御により、個別編集を行うことができる。
 図15を用いて、設定ボタン表示領域50bのボタンを削除する制御について説明する。
 図15に示すように、スマートフォン1は、編集画面60を表示後(ステップS301)、タッチスクリーン21を介して、設定ボタン表示領域50bに設けられている編集ボタン60aへの操作を検出すると(ステップS302)、設定ボタン表示領域50bの個別編集画面71を表示する(ステップS303)。
 続いて、スマートフォン1は、タッチスクリーン21を介して、Bluetooth(登録商標)の機能をON又はOFFに設定するためのボタンB2への操作を検出すると(ステップS304)、ボタンB2を移動可能な状態へ変更する(ステップS305)。スマートフォン1は、例えば、ボタンB2へのロングタッチを検出した場合に、ボタンB2をタッチしたままドラッグして移動可能な状態へと変更する。
 ステップS305において、スマートフォン1は、ボタンB2を移動可能な状態へ変更した後、個別編集画面71において「設定ボタン編集 完了」と表示されている領域を、設定ボタン表示領域50bのボタンの削除を行うための領域に変更し、「設定ボタン編集 削除(71d参照)」に表示を変更する。
 ユーザによりボタンB2の移動が開始された後、スマートフォン1は、タッチスクリーン21を介して、個別編集画面71において「設定ボタン編集 削除」と表示されている領域と、ボタンB2との重複を検出すると、ボタンB2を削除する(ステップS306)。
 続いて、スマートフォン1は、タッチスクリーン21を介して、編集画面60において「設定ボタン編集 完了」と表示されている領域への操作を検出すると(ステップS307)、ボタンB2が削除された編集画面60をディスプレイ2に表示させる(ステップS308)。その後、スマートフォン1は、編集画面60において「表示項目編集 完了」と表示されている領域への操作を検出した場合には、設定ボタン表示領域50bからボタンB2が削除された通知画面50をディスプレイ2に表示させる。
 アプリショートカット表示領域50d、及び簡単SNS投稿表示領域50eについても、スマートフォン1は、図15に示す制御と同様の制御により個別編集を行うことができる。
 図15では、設定ボタン表示領域50bの構成要素であるボタンを削除する例を説明したが、図12に示す表示項目の制御と同様に、ボタンの表示位置を変更することもできる。アプリショートカット表示領域50d、及び簡単SNS投稿表示領域50eについても同様である。
 図16~図20を用いて、スマートフォン1による処理手順の一例を説明する。図16~図20に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
 図16は、通知画面の編集を行う際の全体的な制御の流れを示すフローチャートである。図16に示すように、コントローラ10は、タッチスクリーン21を介して、通知画面を編集する編集画面の表示操作を検出したかどうかを判定する(ステップS1001)。例えば、コントローラ10は、通知画面50に設けられている編集ボタン50fに対する操作を検出すると、編集画面の表示操作を検出したものと判定する。
 コントローラ10は、判定の結果、通知画面を編集する編集画面の表示操作を検出していない場合には(ステップS1001、No)、図16に示す処理手順を進めることなく、終了する。
 一方、コントローラ10は、判定の結果、通知画面を編集する編集画面の表示操作を検出した場合には(ステップS1001、Yes)、編集画面60をディスプレイ2に表示する(ステップS1002)。
 続いて、コントローラ10は、表示項目の編集開始操作が検出されたかどうかを判定する(ステップS1003)。例えば、コントローラ10は、表示項目追加ボタン60dへの操作、又は設定ボタン表示領域50bなどが有する領域表示バーへの操作を検出すると、表示項目の編集開始操作が検出されたものと判定する。あるいは、コントローラ10は、設定ボタン表示領域50b、アプリショートカット表示領域50d、及び簡単SNS投稿表示領域50eの領域に対応する領域表示バーのいずれかに対する操作を検出すると、表示項目の編集開始操作が検出されたものと判定する。
 コントローラ10は、判定の結果、表示項目の編集開始操作が検出された場合には(ステップS1003、Yes)、表示項目編集処理を実行する(ステップS1004)。
 続いて、コントローラ10は、編集終了操作が検出されたかどうかを判定する(ステップS1005)。例えば、コントローラ10は、編集画面60における「表示項目編集 完了」と表示されている領域への操作を検出すると、編集終了操作が検出されたものと判定する。
 コントローラ10は、判定の結果、編集終了操作が検出されない場合には(ステップS1005、No)、上記ステップS1003の処理手順に戻る。
 一方、コントローラ10は、判定の結果、編集終了操作が検出された場合には(ステップS1005、Yes)、通知画面50をディスプレイ2に表示し(ステップS1006)、図16の処理手順を終了する。
 ステップS1003において、コントローラ10は、判定の結果、表示項目の編集開始操作が検出されない場合には(ステップS1003、No)、表示項目の個別編集開始操作が検出されたかどうかを判定する(ステップS1007)。例えば、コントローラ10は、設定ボタン表示領域50bを個別に編集するための編集ボタン60a、アプリショートカット表示領域50dを個別に編集するための編集ボタン60b、又は簡単SNS投稿表示領域50eを個別に編集するための編集ボタン60cのいずれかが操作された場合に、表示項目の個別編集開始操作が検出されたものと判定する。
 コントローラ10は、判定の結果、表示項目の個別編集開始操作が検出された場合には(ステップS1007、Yes)、表示項目個別編集処理を実行する(ステップS1008)。
 一方、コントローラ10は、判定の結果、表示項目の個別編集開始操作が検出されない場合には(ステップS1007、No)、上記ステップS1005の処理手順に移る。
 図17~図19は、表示項目編集処理の処理手順を示すフローチャートである。図17~図19に示す処理の流れは、例えば、上記図8、図11及び図12に示す制御などに対応する。
 図17に示すように、コントローラ10は、上記図16のステップS1003で検出された操作が表示項目の追加操作であるかを判定する(ステップS1011)。コントローラ10は、例えば、上記図16のステップS1003で検出された操作が、表示項目追加ボタン60dへの操作であった場合、表示項目の追加操作であると判定する。
 コントローラ10は、判定の結果、表示項目の追加操作である場合には(ステップS1011、Yes)、追加可能項目の一覧を表示する(ステップS1012)。
 続いて、コントローラ10は、追加可能項目の一覧の中から、追加項目の選択を検出したかどうかを判定する(ステップS1013)。
 コントローラ10は、判定の結果、追加項目の選択を検出した場合には(ステップS1013、Yes)、選択された項目に対応するボタンを編集画面60に追加して(ステップS1014)、図17に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、追加項目の選択を検出しない場合には(ステップS1013、No)、項目追加処理の解除操作を検出したかどうかを判定する(ステップS1015)。コントローラ10は、例えば、編集画面60において「表示項目編集 完了」と表示されている領域への操作を検出すると、項目追加処理の解除操作を検出したものと判定する。「表示項目編集 完了」と表示されている領域への操作は、ダブルタップ、ロングタッチなど、任意の操作であってよい。
 コントローラ10は、判定の結果、項目追加処理の解除操作を検出した場合には(ステップS1015、Yes)、追加可能項目の一覧をディスプレイ2から消去して(ステップS1016)、図17に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、項目追加処理の解除操作を検出しない場合には(ステップS1015、No)、上記ステップS1013の処理手順に戻る。
 ステップS1011において、コントローラ10は、上記図16のステップS1003で検出された操作が表示項目の追加操作ではない場合(ステップS1011、No)、表示項目の移動又は削除に関する操作であったものと判定し、図18に示す処理手順に移る。
 図18に示すように、コントローラ10は、移動又は削除の対象として捕捉された表示項目を移動可能な状態へ変更する(ステップS1017)。
 続いて、コントローラ10は、捕捉された表示項目がお知らせ表示領域50cであるかどうかを判定する(ステップS1018)。
 コントローラ10は、判定の結果、捕捉された表示項目がお知らせ表示領域50cではない場合には(ステップS1018、No)、移動又は削除の対象として捕捉された表示項目を削除するための削除処理領域を編集画面60に表示する(ステップS1019)。削除処理領域は、例えば、編集画面60において「表示項目編集 削除」と表示されている領域に対応する(図12参照)。
 続いて、コントローラ10は、移動又は削除の対象として捕捉された表示項目と、削除処理領域との重複を検出したかどうかを判定する(ステップS1020)。
 コントローラ10は、判定の結果、移動又は削除の対象として捕捉された表示項目と、削除処理領域との重複を検出した場合には(ステップS1020、Yes)、移動又は削除の対象として捕捉された表示項目を削除し(ステップS1020)、図18に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、移動又は削除の対象として捕捉された表示項目と、削除処理領域との重複を検出しない場合には(ステップS1020、No)、移動又は削除の対象として捕捉された表示項目と、他の表示項目との重複を検出したかどうかを判定する(ステップS1022)。
 コントローラ10は、判定の結果、移動又は削除の対象として捕捉された表示項目と、他の表示項目との重複を検出した場合には(ステップS1022、Yes)、移動又は削除の対象として捕捉された表示項目の表示位置と、他の表示項目の表示位置とを入れ替えて(ステップS1023)、図18に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、移動又は削除の対象として捕捉された表示項目と、他の表示項目との重複を検出しない場合には(ステップS1022、No)、移動又は削除の対象として捕捉された表示項目の捕捉解除操作が検出されたかどうかを判定する(ステップS1024)。コントローラ10は、例えば、編集画面60において「表示項目編集 完了」と表示されている領域への操作を検出すると、表示項目の捕捉解除操作を検出したものと判定する。「表示項目編集 完了」と表示されている領域への操作は、ダブルタップ、ロングタッチなど、任意の操作であってよい。
 コントローラ10は、判定の結果、移動又は削除の対象として捕捉された表示項目の捕捉解除操作が検出された場合には(ステップS1024、Yes)、移動又は削除の対象として捕捉された表示項目の捕捉を解除して(ステップS1025)、図18に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、移動又は削除の対象として捕捉された表示項目の捕捉解除操作が検出されない場合には(ステップS1024、No)、上記ステップS1020の処理手順に戻る。
 ステップS1018において、コントローラ10は、判定の結果、捕捉された表示項目がお知らせ表示領域50cである場合には(ステップS1018、Yes)、お知らせ表示領域50cの表示位置の変更に関する操作であるものと判定し、図19の処理手順に移る。実施形態1において、お知らせ表示領域50cの削除を不可とする。このため、コントローラ10は、仮に、お知らせ表示領域50cと、削除処理領域との重複を検出した場合であっても、お知らせ表示領域50cの削除を行わない。一方で、実施形態1において、お知らせ表示領域50cの移動は可能であり、以下に説明するように、お知らせ表示領域50cの表示位置を変更できるものとする。
 図19に示すように、コントローラ10は、お知らせ表示領域50cと、他の表示項目との重複を検出したかどうかを判定する(ステップS1026)。
 コントローラ10は、判定の結果、お知らせ表示領域50cと、他の表示項目との重複を検出した場合には(ステップS1026、Yes)、お知らせ表示領域50cと、他の表示項目の表示位置とを入れ替えて(ステップS1027)、図19に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、お知らせ表示領域50cと、他の表示項目との重複を検出しない場合には(ステップS1026、No)、お知らせ表示領域50cの捕捉解除操作が検出されたかどうかを判定する(ステップS1028)。コントローラ10は、例えば、編集画面60において「表示項目編集 完了」と表示されている領域への操作を検出すると、お知らせ表示領域50cの捕捉解除操作を検出したものと判定する。「表示項目編集 完了」と表示されている領域への操作は、ダブルタップ、ロングタッチなど、任意の操作であってよい。
 コントローラ10は、判定の結果、お知らせ表示領域50cの捕捉解除操作が検出された場合には(ステップS1028、Yes)、お知らせ表示領域50cの捕捉を解除して(ステップS1029)、図19に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、お知らせ表示領域50cの捕捉解除操作が検出されない場合には(ステップS1028、No)、上記ステップS1026の処理手順に戻る。
 図19に示す処理手順では、お知らせ表示領域50cの表示位置を変更する例を説明したが、お知らせ表示領域50cについては、表示位置を変更できないようにしてもよい。
 図20及び図21は、表示項目個別編集処理の流れを示す図である。図20及び図21に示す処理の流れは、例えば、上記図13~図15に示す制御などに対応する。
 図20に示すように、コントローラ10は、上記図16のステップS1007に示す表示項目の個別編集開始処理が検出された表示項目の個別編集画面を表示する(ステップS2011)。
 続いて、コントローラ10は、表示項目の構成要素の追加操作が検出されたかどうかを判定する(ステップS2012)。例えば、コントローラ10は、個別編集画面に設けられた追加ボタンへの操作があった場合に、表示項目の構成要素の追加操作が検出されたものと判定する。構成要素は、設定ボタン表示領域50bのボタン、あるいはアプリショートカット表示領域50dのアイコンなどに該当する。
 コントローラ10は、判定の結果、表示項目の構成要素の追加操作が検出された場合には(ステップS2012、Yes)、追加可能要素の一覧を表示する(ステップS2013)。
 続いて、コントローラ10は、追加可能要素の一覧の中から、追加要素の選択を検出したかどうかを判定する(ステップS2014)。
 コントローラ10は、判定の結果、追加要素の選択を検出した場合には(ステップS2014、Yes)、選択された要素を個別編集対象の表示項目に追加する(ステップS2015)。
 続いて、コントローラ10は、表示項目の個別編集の完了操作が検出されたかどうかを判定する(ステップS2016)。例えば、コントローラ10は、個別編集画面において「設定ボタン編集 完了」と表示されている領域への操作を検出すると、表示項目の個別編集の完了操作を検出したものと判定する。
 コントローラ10は、判定の結果、表示項目の個別編集の完了操作が検出された場合には(ステップS2016、Yes)、編集画面60をディスプレイ2に表示して(ステップS2017)、図20に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、表示項目の個別編集の完了操作が検出されない場合には(ステップS2016、No)、上記ステップS2012の処理手順に戻る。
 ステップS2014において、コントローラ10は、判定の結果、追加要素の選択を検出しない場合には(ステップS2014、No)、表示項目の構成要素追加処理の解除操作を検出したかどうかを判定する(ステップS2018)。例えば、コントローラ10は、個別編集画面において「設定ボタン編集 完了」と表示されている領域への操作を検出すると、表示項目の構成要素追加処理の解除操作を検出したものと判定する。
 コントローラ10は、判定の結果、表示項目の構成要素追加処理の解除操作を検出した場合には(ステップS2018、Yes)、追加可能要素の一覧をディスプレイ2から消去し(ステップS2019)、上記ステップS2016の処理手順に移る。これとは反対に、コントローラ10は、判定の結果、表示項目の構成要素追加処理の解除操作を検出しない場合には(ステップS2018、No)、上記ステップS2014の処理手順に戻る。
 ステップS2012において、コントローラ10は、判定の結果、表示項目の構成要素の追加操作が検出されない場合には(ステップS2012、No)、表示項目の構成要素の削除操作が検出されたかどうかを判定する(ステップS2020)。例えば、コントローラ10は、個別編集対象の表示項目に含まれる要素に対する操作を検出すると、表示項目の構成要素の削除操作が検出されたものと判定する。
 コントローラ10は、判定の結果、表示項目の構成要素の削除操作が検出されない場合には(ステップS2020、No)、上記ステップS2016の処理手順に移る。これとは反対に、コントローラ10は、判定の結果、表示項目の構成要素の削除操作が検出された場合には(ステップS2020、Yes)、図21に示す処理手順に移る。
 図21に示すように、コントローラ10は、削除の対象として捕捉された要素を移動可能な状態へ変更する(ステップS2021)。
 続いて、コントローラ10は、削除の対象として捕捉された要素を削除するための削除処理領域を個別編集画面に表示する(ステップS2022)。削除処理領域は、例えば、個別編集画面71において「設定ボタン編集 削除」と表示されている領域に対応する(図15参照)。
 続いて、コントローラ10は、削除の対象として捕捉された要素と、削除処理領域との重複を検出したかどうかを判定する(ステップS2023)。
 コントローラ10は、判定の結果、削除の対象として捕捉された要素と、削除処理領域との重複を検出した場合には(ステップS2023、Yes)、削除の対象として捕捉された要素を削除し(ステップS2024)、上記図20に示すステップS2016の処理手順に戻る。
 一方、コントローラ10は、判定の結果、削除の対象として捕捉された要素と、削除処理領域との重複を検出しない場合には(ステップS2023、No)、削除の対象として捕捉された要素の捕捉解除操作を検出したかどうかを判定する(ステップS2025)。例えば、コントローラ10は、個別編集画面71において「設定ボタン編集 削除」と表示されている領域に対する操作を検出した場合に、削除の対象として捕捉された要素の捕捉解除操作を検出したものと判定する。
 コントローラ10は、判定の結果、削除の対象として捕捉された要素の捕捉解除操作を検出した場合には(ステップS2025、Yes)、削除の対象として捕捉された要素の捕捉を解除し(ステップS2026)、上記図20に示すステップS2016の処理手順に戻る。これとは反対に、コントローラ10は、判定の結果、削除の対象として捕捉された要素の捕捉解除操作を検出しない場合には(ステップS2025、No)、上記ステップS2023の処理手順に戻る。
 上述してきたように、実施形態1において、スマートフォン1は、ディスプレイ2に表示する通知画面50に設けられている編集ボタン50fに対する操作を検出すると、通知画面50を編集する編集画面60に遷移させる(図7参照)。このため、実施形態によれば、通知画面50の編集が可能となり、通知画面50を有効活用できる。
 上述の実施形態において、スマートフォン1は、通知画面の表示項目を追加する。あるいは、スマートフォン1は、通知画面の表示項目を削除する。あるいは、スマートフォン1は、通知画面の表示項目の表示位置を変更する。このため、実施形態1によれば、ユーザは、通知画面の構成をカスタマイズできる。
 上述の実施形態1において、スマートフォン1は、表示項目の構成要素を追加する。あるいは、スマートフォン1は、表示項目の構成要素を削除する。あるいは、スマートフォン1は、表示項目の構成要素の表示位置を変更する。このため、実施形態1によれば、ユーザは、通知画面を表示項目単位でカスタマイズできる。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態1に関し記載してきた。しかし、添付の請求項は、上記の実施形態1に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。
 例えば、図1に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図1に示した各プログラムは、他のプログラムと結合されていてもよい。
 上記の実施形態1では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の電子機器であってもよい。電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機である。あるいは、添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器である。
(実施形態2)
 図22を参照しながら、実施形態2に係るスマートフォン1の機能的な構成について説明する。図22は、実施形態1に係るスマートフォンのブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがある。さらに、重複する説明は省略することがある。
 図22に示すように、スマートフォン1は、ディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18と、タッチスクリーン21とを備える。
 ディスプレイ2は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2は、文字、画像、記号、及び図形等を表示する。
 ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。
 照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2の輝度の調整に用いられる。
 近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 通信ユニット6は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。スマートフォン1は、GPS衛星との通信機能を通信ユニット6から分散させて、通信ユニット6から独立した個別の通信部を設けてもよい。
 レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2に画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、メールアプリケーション9C、文字入力アプリケーション9G、付箋アプリケーション9H、及び設定データ9Zなどを記憶する。
 制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、情報を通知する通知領域を含む通知画面をディスプレイ2に表示させるための機能を提供する。通知画面は、バックグラウンドで実行されるアプリケーションについて、いわゆるステータスバーに通知される情報の詳細情報を、ユーザに通知する通知領域であるお知らせ表示領域が含まれる。
 さらに、制御プログラム9Aは、操作部を介して作成された作成テキストを上記通知画面に表示させる機能を提供する。操作部は、ボタン3、又はタッチスクリーン21などに該当する。さらに、制御プログラム9Aは、上記作成テキストの作成操作を受け付けるための作成画面をディスプレイ2に表示させるための機能を提供する。さらに、制御プログラム9Aは、上記作成テキストの削除または更新を受け付ける編集画面をディスプレイ2に表示させるための機能を提供する。
 その他、制御プログラム9Aは、通信ユニット6などを制御することによって、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)などを用いた通信を実現させるための機能を提供する。
 制御プログラム9Aは、通信ユニット6などを制御することによって、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等を用いた近距離無線通信を実現させるための機能を提供する。
 制御プログラム9Aは、例えば、通信ユニット6及びマイク8などを制御することによって、通話を実現させるための機能を提供する。
 制御プログラム9Aにより提供される機能は、通話を実現させる場合、通話アプリケーション9B又はメールアプリケーション9Cなど、ストレージ9に記憶される他のプログラムなどが提供する機能と組み合わせて利用されることがある。制御プログラム9Aにより提供される機能は、複数のプログラムモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
 通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。メールアプリケーション9Cは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。文字入力アプリケーション9Gは、例えば、待受状態からテキストエディタを簡易に起動して文字入力を実現するための機能を提供する。待受状態には、ロック画面およびアプリケーションに対応するアイコンの一覧が表示される画面などがディスプレイ2に表示されている状態が含まれる。付箋アプリケーション9Hは、テキストの作成を受け付けるための作成画面、及びテキストの削除または更新を受け付ける編集画面を構成するための機能を提供する。ストレージ9に記憶されるアプリケーションは一例に過ぎない。図22に示すもの以外に、ブラウザアプリケーション、ナビゲートアプリケーション、音楽プレイヤーアプリケーション、動画再生アプリケーション、計算機アプリケーション、メモ帳アプリケーションなどが記憶されていてもよい。
 設定データ9Zは、スマートフォン1の動作に関連する各種の設定及び処理に関する情報を含む。
 コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、姿勢検出ユニット15、及びタッチスクリーン21を含むが、これらに限定されない。
 コントローラ10は、制御プログラム9Aを実行することにより、情報を通知するための通知領域を含む通知画面をディスプレイ2に表示させる処理を実現する。具体的には、コントローラ10は、例えば、ユーザによるタッチジェスチャを検出すると、通知画面をディスプレイ2に表示する。コントローラ10は、どのような画面がディスプレイ2に表示されている場合であっても、通知画面を呼び出してディスプレイ2に表示させることができる。コントローラ10は、例えば、いわゆるホーム画面をディスプレイ2に表示しているときに、ユーザによるタッチジェスチャの検出に応じて、上記通知画面を呼び出してディスプレイ2に表示させることができる。さらに、コントローラ10は、例えば、メールアプリケーション、ブラウザアプリケーション、マップ並びにスケジューラなどに対応するアプリケーション画面をディスプレイ2に表示しているときに、ユーザによるタッチジェスチャの検出に応じて、上記通知画面を呼び出してディスプレイ2に表示させることができる。さらに、コントローラ10は、スマートフォン1がロック状態にある場合にディスプレイ2に表示される、いわゆるロック画面がディスプレイ2に表示されている場合であっても、上記通知画面を呼び出してディスプレイ2に表示させることができる。上記通知画面を呼び出してディスプレイ2に表示させることができる。ロック状態には、単に、ユーザの操作を受け付けない状態だけでなく、セキュリティロック状態を含んでもよい。通知画面には、バックグラウンドで実行されるアプリケーションについて、いわゆるステータスバーに通知される情報の詳細情報を、ユーザに通知するための通知領域であるお知らせ領域を含む。
 さらに、コントローラ10は、制御プログラム9Aを実行することにより、操作部を介して作成された作成テキストを上記通知画面に表示させる処理を実現する。操作部は、ボタン3、又はタッチスクリーン21などに該当する。これにより、スマートフォン1は、いわゆるホーム画面、アプリケーション画面、並びに、いわゆるロック画面がディスプレイ2に表示されている場合であっても、上記作成テキストを含む通知画面をディスプレイ2に表示させることができるようになる。さらに、コントローラ10は、制御プログラム9Aを実行することにより、上記作成テキストの作成操作を受け付けるための作成画面をディスプレイ2に表示させる処理を実現する。さらに、コントローラ10は、制御プログラム9Aを実行することにより、上記作成テキストの削除または更新を受け付ける編集画面をディスプレイ2に表示させる処理を実現する。
 スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。
 カメラ12は、撮影した画像を電気信号へ変換する。カメラ12には、例えば、ディスプレイ2に面している物体を撮影するインカメラ、ディスプレイ2の反対側の面に面している物体を撮影するアウトカメラが含まれる。
 姿勢検出ユニット15は、スマートフォン1の姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。
 バイブレータ18は、スマートフォン1の一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。バイブレータ18による振動は、着信等の各種のイベントを利用者に報知するために用いられる。
 タッチスクリーン21は、タッチスクリーン21に対する接触を検出する。コントローラ10(スマートフォン1)は、タッチスクリーン21によって検出される接触に基づいて、指、スタイラス、ペン等(以下、単に「指」という)を用いてタッチスクリーン21に対して行われる各種操作(ジェスチャ)を検出する。例えば、タッチスクリーン21は、タッチセンサを有する。タッチセンサは、タッチスクリーン21への指の接触を、接触された場所のタッチスクリーン21上での位置とともに検出し、コントローラ10に通知する。コントローラ10が、タッチスクリーン21を介して検出する各種操作(ジェスチャ)には、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるがこれらに限定されない。タッチスクリーン21の検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。図1に示すように、ディスプレイ2と、タッチスクリーン21とは機能的には分離したものであるが、物理的にはタッチスクリーンディスプレイとして統合されていてよい。
 図22に示したスマートフォン1の機能構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。
 図23~図26を用いて、通知画面にテキストを表示させるときのスマートフォン1による制御の一例について説明する。以下では、通知画面に表示させるテキストを「付箋」と表記する場合がある。図23~図26に登場するF1は、ユーザの指を示す。以下の説明において、単に、「操作」と表記するものについては、タッチ、タップ、スワイプ、ダブルタップなど、他の処理との対応付けが重複しない限り、どのような操作を検出対象としてもよい。以下では、いわゆるロック画面がディスプレイ2に表示されている場合の制御の例について説明するが、いわゆるホーム画面、あるいはアプリケーション画面がディスプレイ2に表示されている場合であっても、同様の制御を実現できる。
 図23は、ディスプレイ2に表示される通知画面にテキストを作成するときの制御の一例を示す図である。図23に示すように、スマートフォン1は、ディスプレイ2にロック画面40を表示している(ステップS401)。ロック画面40は、スマートフォン1がロック状態にある場合に表示される。スマートフォン1は、ディスプレイ2にロック画面40が表示されている場合、特定の操作を除いて、ユーザの操作を受け付けない。特定の操作には、例えば、ロック状態を解除するための操作、及び通知画面をディスプレイ2に表示させるための操作が含まれる。ロック状態には、単に、ユーザの操作を受け付けない状態だけでなく、セキュリティロック状態を含んでもよい。図23に示す例では、ロック画面40の上部に設けられている、いわゆるステータスバーに、メールの受信をユーザに通知するアイコン40aが表示されている。
 続いて、スマートフォン1は、タッチスクリーン21を介して、ステータスバーが表示されるロック画面40の上側端部から下側端部へ向う操作を検出すると(ステップS402)、ディスプレイ2に通知画面80を表示させる(ステップS403)。通知画面80には、上記通知領域であるお知らせ表示領域80aと、付箋の作成画面を表示させるための操作バー80bとが設けられる。
 続いて、スマートフォン1は、タッチスクリーン21を介して、操作バー80bの付箋の追加ボタン(+追加)に対する操作を検出すると(ステップS404)、ディスプレイ2に付箋の作成画面90aを表示させる(ステップS405)。作成画面90aには、入力された文字を表示する表示ウィンドウ、ユーザがタッチ操作で文字入力を行うためのソフトウェアキーボード、作成した文字を保存する保存ボタン、及び付箋の作成を中止するキャンセルボタンなどを有する。
 作成画面90a上で文字の入力が行われた後(ステップS406)、スマートフォン1は、タッチスクリーン21を介して、保存ボタンに対するタップを検出すると(ステップS407)、作成画面90a上で入力された文字を含む付箋80cを貼り付けた通知画面50をディスプレイ2に表示する(ステップS408)。
 図24は、ディスプレイ2に表示される通知画面にテキストを作成するときの制御の他の例を示す図である。図24は、図23に示す付箋が作成された後、さらに別の付箋が作成される例を示している。
 図24に示すように、スマートフォン1は、付箋80cが貼り付けられている通知画面80を表示しているときに、タッチスクリーン21を介して、操作バー80bの付箋の追加ボタン(+追加)に対する操作を検出すると(ステップS501)、作成画面90aをディスプレイ2に表示させる(ステップS502)。
 作成画面90a上で文字の入力が行われた後(ステップS503)、スマートフォン1は、タッチスクリーン21を介して、保存ボタンに対する操作を検出すると(ステップS504)、作成画面90a上で入力された文字を含む付箋80dを、付箋80cの下に貼り付けた通知画面80をディスプレイ2に表示する(ステップS505)。
 図25は、通知画面に表示されている付箋を削除する制御の一例を示す図である。図25は、図24で作成された付箋を通知画面から削除する例を示している。
 図25に示すように、スマートフォン1は、付箋80cおよび付箋80dが貼り付けられている通知画面80を表示しているときに、タッチスクリーン21を介して、付箋80dに対する操作を検出すると(ステップS601)、編集画面90bをディスプレイ2に表示させる(ステップS602)。
 続いて、スマートフォン1は、タッチスクリーン21を介して、削除ボタンに対する操作を検出すると(ステップS603)、付箋80dを削除した通知画面80をディスプレイ2に表示する(ステップS604)。
 図26は、通知画面に表示されている付箋を更新する制御の一例を示す図である。図26は、図24で作成された付箋の内容を更新する例を示している。
 図26に示すように、スマートフォン1は、付箋80cおよび付箋80dが貼り付けられている通知画面80を表示しているときに、タッチスクリーン21を介して、付箋80dに対する操作を検出すると(ステップS701)、編集画面90bをディスプレイ2に表示させる(ステップS702)。
 編集画面90b上で文字の訂正が行われた後(ステップS703)、スマートフォン1は、タッチスクリーン21を介して、保存ボタンに対する操作を検出すると(ステップS704)、内容が更新された付箋80eと、付箋80cとを貼り付けた通知画面80をディスプレイ2に表示する(ステップS705)。
 図27及び図28を用いて、実施形態2に係るスマートフォン1による処理手順の一例を説明する。図27及び図28に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
 図27は、ディスプレイ2に表示される通知画面にテキストを作成するときの処理手順を示すフローチャートである。
 図27に示すように、コントローラ10は、タッチスクリーン21を介して、通知画面80に表示される操作バー80bの付箋の追加ボタン(+追加)に対する操作を検出したかどうかを判定する(ステップS3001)。付箋の追加ボタン(+追加)に対する操作は、タッチ、タップあるいはスワイプなど、任意の操作であってよい。
 コントローラ10は、判定の結果、付箋の追加ボタン(+追加)に対する操作を検出していない場合には(ステップS3001、No)、図27に示す処理手順を進めることなく、終了する。
 一方、コントローラ10は、判定の結果、付箋の追加ボタン(+追加)に対する操作を検出した場合には(ステップS3001、Yes)、付箋の作成画面90a(図23又は図24参照)をディスプレイ2に表示する(ステップS3002)。
 続いて、コントローラ10は、文字入力以外のユーザの操作が検出されたかどうかを判定する(ステップS3003)。
 コントローラ10は、判定の結果、文字入力以外のユーザの操作が検出されていない場合には(ステップS3003、No)、所定のポーリング周期による次の判定タイミングの到達を契機として、再び、ステップS3003の判定を実行する。
 一方、コントローラ10は、判定の結果、文字入力以外のユーザの操作が検出された場合には(ステップS3003、Yes)、ユーザによる操作が、付箋の作成画面90aに設けられている保存ボタンに対する操作であるか否かを判定する(ステップS3004)。保存ボタンに対する操作は、付箋の追加ボタン(+追加)に対する操作と同様に、タッチ、タップあるいはスワイプなど、任意の操作であってよい。
 コントローラ10は、判定の結果、保存ボタンに対する操作である場合には(ステップS3004、Yes)、付箋を貼り付けた通知画面80をディスプレイ2に表示して(ステップS3005)、図27に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、保存ボタンに対する操作ではない場合には(ステップS3004、No)、キャンセルボタンに対する操作であるかどうかを判定する(ステップS3006)。
 コントローラ10は、判定の結果、キャンセルボタンに対する操作である場合には(ステップS3006、Yes)、付箋が貼り付けられていない元の通知画面80をディスプレイ2に表示して(ステップS3007)、図27に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、キャンセルボタンに対する操作ではない場合には(ステップS3006、No)、待受画面(ロック画面40)をディスプレイ2に表示して(ステップS3008)、図27の処理手順を終了する。つまり、コントローラ10は、ユーザによる操作が、保存ボタン及びキャンセルボタンに対する操作ではない場合には、例えば、付箋の作成に関連のない操作が行われたものと判断して、一旦、待受状態(ロック画面40)に戻る趣旨である。
 図28は、通知画面に表示されるテキストを編集するときの処理手順を示すフローチャートである。
 図28に示すように、コントローラ10は、タッチスクリーン21を介して、通知画面80に表示される付箋に対する操作を検出したかどうかを判定する(ステップS4001)。付箋に対する操作は、タッチ、タップあるいはスワイプなど、任意の操作であってよい。
 コントローラ10は、判定の結果、付箋に対する操作を検出していない場合には(ステップS4001、No)、図28に示す処理手順を進めることなく、終了する。
 一方、コントローラ10は、判定の結果、付箋に対する操作を検出した場合には(ステップS4001、Yes)、付箋の編集画面90b(図25又は図26参照)をディスプレイ2に表示する(ステップS4002)。
 続いて、コントローラ10は、文字入力以外のユーザの操作が検出されたかどうかを判定する(ステップS4003)。
 コントローラ10は、判定の結果、文字入力以外のユーザの操作が検出されていない場合には(ステップS4003、No)、所定のポーリング周期による次の判定タイミングの到達を契機として、再び、ステップS4003の判定を実行する。
 一方、コントローラ10は、判定の結果、文字入力以外のユーザの操作が検出された場合には(ステップS4003、Yes)、ユーザによる操作が、付箋の編集画面90bに設けられている保存ボタンに対する操作であるか否かを判定する(ステップS4004)。保存ボタンに対する操作は、タッチ、タップあるいはスワイプなど、任意の操作であってよい。
 コントローラ10は、判定の結果、保存ボタンに対する操作である場合には(ステップS4004、Yes)、内容を更新した付箋を通知画面80に表示して(ステップS4005)、図28に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、保存ボタンに対する操作ではない場合には(ステップS4005、No)、削除ボタンに対する操作であるかどうかを判定する(ステップS4006)。
 コントローラ10は、判定の結果、削除ボタンに対する操作である場合には(ステップS4006、Yes)、該当の付箋を削除した通知画面80をディスプレイ2に表示して(ステップS4007)、図28に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、削除ボタンに対する操作ではない場合には(ステップS4006、No)、待受画面(ロック画面40)をディスプレイ2に表示して(ステップS4008)、図28の処理手順を終了する。つまり、コントローラ10は、ユーザによる操作が、保存ボタン及び削除ボタンに対する操作ではない場合には、例えば、付箋の編集に関連のない操作が行われたものと判断して、一旦、待受状態(ロック画面40)に戻る趣旨である。
 上述してきたように、実施形態1において、スマートフォン1は、テキストデータである付箋を貼り付けた通知画面80をディスプレイ2に表示する。このため、実施形態2によれば、ユーザ固有のユーティリティツールとして、通知画面80を有効活用できる。
 実施形態2において、スマートフォン1は、付箋の作成画面をディスプレイ2に表示する。このため、実施形態2によれば、ユーザは、タッチスクリーン21を介した簡単な操作で、ディスプレイ2に表示するテキストを作成することができる。
 実施形態2において、スマートフォン1は、付箋の編集画面をディスプレイ2に表示する。このため、実施形態2によれば、ユーザは、タッチスクリーン21を介した簡単な操作で、ディスプレイ2に表示されているテキストを編集することができる。
 実施形態2において、スマートフォン1は、ロック状態から上記作成画面または上記編集画面をディスプレイ2に表示させることができる。このため、実施形態2によれば、ユーザは、迅速に、テキストの作成または編集を行うことができる。
(実施形態3)
 実施形態2において、アプリケーションの実行画面上で受け付けられる操作に応じて、付箋の作成画面を表示させるような制御を実行してもよい。
 制御プログラム9Aは、アプリケーションの実行画面上で受け付けられる操作に応じて、付箋の作成画面を表示させるための機能を提供する。例えば、制御プログラム9Aは、文字入力アプリケーション9Dの実行画面上で受け付けられる操作に応じて、文字入力アプリケーション9Dにより入力された文字を引き継いだ状態の付箋の作成画面をディスプレイ2に表示させるための機能を提供するようにしてもよい。
 コントローラ10は、制御プログラム9Aを実行することにより、アプリケーションの実行画面上で受け付けられる操作に応じて、付箋の作成画面を表示させる処理を実現する。例えば、コントローラ10は、文字入力アプリケーション9Dの実行画面上で受け付けられる操作に応じて、文字入力アプリケーション9Dにより入力された文字を引き継いだ状態の付箋の作成画面をディスプレイ2に表示させる処理を実現する。
 図29は、実行中の文字入力アプリケーション9Gから付箋の作成画面を表示させるときのスマートフォン1による制御の一例を示す図である。図29に登場するF1は、ユーザの指を示す。
 図29に示すように、スマートフォン1は、ディスプレイ2にロック画面40を表示している(ステップS801)。ロック画面40には、文字入力アプリケーション9Gをショートカット起動させるためのアイコン40bが表示されている。
 続いて、スマートフォン1は、タッチスクリーン21を介して、ロック画面40に表示されているアイコン40bに対する操作を検出すると(ステップS802)、ディスプレイ2に文字入力アプリケーション9Gの実行画面100を表示させる(ステップS803)。アイコン40bに対する操作は、タップ、ダブルタップあるいはロングタッチなど、任意の操作でよい。実行画面100には、入力された文字を表示するウィンドウ、文字入力を行うためのソフトウェアキーボード、文字入力アプリケーション9Gから直接起動可能なアプリケーションのアイコンなどが表示される。
 続いて、実行画面100にて文字入力が行われた後(ステップS804)、スマートフォン1は、タッチスクリーン21を介して、実行画面100に表示された付箋アプリケーション9Hに対応するアイコン100aに対する操作を検出すると(ステップS805)、文字入力アプリケーション9Gにより入力された文字を引き継いだ状態の付箋の作成画面90aを、ディスプレイ2に表示させる(ステップS806)。アイコン100aに対する操作は、タップ、ダブルタップあるいはロングタッチなど、任意の操作でよい。
 続いて、スマートフォン1は、タッチスクリーン21を介して、保存ボタンに対する操作を検出すると(ステップS807)、作成画面90a上で入力された文字を含む付箋80fを貼り付けた通知画面80をディスプレイ2に表示する(ステップS808)。
 図30を用いて、実施形態3に係るスマートフォン1による処理手順の一例を説明する。図30に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
 図30は、実行中の文字入力アプリケーション9Gから付箋の作成画面を表示させるときの処理手順を示すフローチャートである。
 図30に示すように、コントローラ10は、タッチスクリーン21を介して、ロック画面40に表示されているアイコン40bに対する操作を検出すると、文字入力アプリケーション9Gを実行する(ステップS5001)。
 続いて、コントローラ10は、文字入力アプリケーション9Gの実行画面100に表示された付箋アプリケーション9Hに対応するアイコン100aに対する操作の検出に応じて、付箋の作成画面90aをディスプレイ2に表示する(ステップS5002)。ステップS5002でディスプレイ2に表示される付箋の作成画面90aには、例えば、文字入力アプリケーション9Gにより入力された文字を引き継がれる(図29など参照)。
 続いて、コントローラ10は、文字入力以外のユーザの操作が検出されたかどうかを判定する(ステップS5003)。
 コントローラ10は、判定の結果、文字入力以外のユーザの操作が検出されていない場合には(ステップS5003、No)、所定のポーリング周期による次の判定タイミングの到達を契機として、再び、ステップS5003の判定を実行する。
 一方、コントローラ10は、判定の結果、文字入力以外のユーザの操作が検出された場合には(ステップS5003、Yes)、ユーザによる操作が、付箋の作成画面90aに設けられている保存ボタンに対する操作であるか否かを判定する(ステップS5004)。保存ボタンに対する操作は、付箋の追加ボタン(+追加)に対する操作と同様に、タッチ、タップあるいはスワイプなど、任意の操作であってよい。
 コントローラ10は、判定の結果、保存ボタンに対する操作である場合には(ステップS5004、Yes)、付箋を貼り付けた通知画面80をディスプレイ2に表示して(ステップS5005)、図30に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、保存ボタンに対する操作ではない場合には(ステップS5004、No)、キャンセルボタンに対する操作であるかどうかを判定する(ステップS5006)。
 コントローラ10は、判定の結果、キャンセルボタンに対する操作である場合には(ステップS5006、Yes)、付箋が貼り付けられていない通知画面80をディスプレイ2に表示して(ステップS5007)、図30に示す処理手順を終了する。
 一方、コントローラ10は、判定の結果、キャンセルボタンに対する操作ではない場合には(ステップS5006、No)、待受画面(ロック画面40)をディスプレイ2に表示して(ステップS5008)、図30の処理手順を終了する。つまり、コントローラ10は、ユーザによる操作が、保存ボタン及びキャンセルボタンに対する操作ではない場合には、例えば、付箋の作成に関連のない操作が行われたものと判断して、一旦、待受状態(ロック画面40)に戻る趣旨である。
 上述してきたように、実施形態3において、スマートフォン1は、文字入力アプリケーション9Gのアプリケーションの実行画面100上で受け付けられる操作に応じて、文字入力アプリケーション9Gにより入力された文字を引き継いだ状態の付箋の作成画面をディスプレイ2に表示させる。このため、実施形態3によれば、文字入力アプリケーション9Gを用いて入力される文字を含むテキストを、文字アプリケーション9Gから直接ディスプレイ2に表示させることができる。
 実施形態3のように、実行中の文字入力アプリケーション9Gから付箋の作成画面を表示させる例に限定されない。例えば、ロック画面40に付箋アプリケーション9Hのショートカットキー、あるいはアイコンなどを設けておき、ロック画面40において付箋アプリケーション9Hのショートカットキーなどが操作されると、付箋の作成画面をディスプレイ2に表示するようにしてもよい。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。
 例えば、図22に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図22に示した各プログラムは、他のプログラムと結合されていてもよい。
 上記の実施形態では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の電子機器であってもよい。電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機である。あるいは、添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器である。
1 スマートフォン
2 ディスプレイ
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C メールアプリケーション
9D カレンダーアプリケーション
9E メモ帳アプリケーション
9F カメラアプリケーション
9G 文字入力アプリケーション
9H 付箋アプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
15 姿勢検出ユニット
18 バイブレータ
21 タッチスクリーン

Claims (12)

  1.  情報を通知する通知領域を含む通知画面を表示するディスプレイと、
     操作を検出した場合に、前記ディスプレイに表示している前記通知画面を、前記通知画面の編集を行うための編集画面に遷移させるコントローラと
     を有する電子機器。
  2.  前記コントローラは、前記編集画面において、前記通知領域とは異なる他の領域を追加する操作を検出した場合には、前記他の領域の追加を前記通知画面に反映させる請求項1に記載の電子機器。
  3.  前記コントローラは、前記編集画面において、前記他の領域を削除する操作を検出した場合には、前記他の領域の削除を前記通知画面に反映させる請求項2に記載の電子機器。
  4.  前記コントローラは、前記編集画面において、前記通知領域の表示位置および前記他の領域の表示位置を相互に変更する操作を検出した場合には、前記表示位置の変更を前記通知画面に反映させる請求項2又は3に記載の電子機器。
  5.  前記コントローラは、前記編集画面において、前記他の領域に含まれる構成要素を変更する操作を検出した場合に、前記構成要素の変更を前記通知画面に反映させる請求項4に記載の電子機器。
  6.  前記コントローラは、前記編集画面において、前記通知領域を削除する操作を検出した場合には、前記通知領域の削除を前記通知画面に反映させない請求項1に記載の電子機器。
  7.  ディスプレイを有する電子機器を制御する制御方法であって、
     情報を通知する通知領域を含む通知画面を前記ディスプレイに表示するステップと、
     操作を検出した場合に、前記ディスプレイに表示している前記通知画面を、前記通知画面の編集を行うための編集画面に遷移させるステップと
     を含む制御方法。
  8.  ディスプレイを有する電子機器に、
     情報を通知する通知領域を含む通知画面を前記ディスプレイに表示するステップと、
     操作を検出した場合に、前記ディスプレイに表示している前記通知画面を、前記通知画面の編集を行うための編集画面に遷移させるステップと
     を実行させる制御プログラム。
  9.  操作部をさらに有し、
     前記コントローラは、前記操作部を介して作成された作成テキストを前記通知画面に表示させることを特徴とする請求項1に記載の電子機器。
  10.  前記コントローラは、前記作成テキストの作成操作を受け付けるための作成画面を前記ディスプレイに表示させる請求項9に記載の電子機器。
  11.  操作部と、情報を通知する通知領域を含む通知画面を表示するディスプレイとを有する電子機器を制御する制御方法であって、
     前記操作部を介してテキストの作成を受け付けるステップと、
     作成された作成テキストを前記通知画面に表示させるステップと
     を含む制御方法。
  12.  操作部と、情報を通知する通知領域を含む通知画面を表示するディスプレイとを有する電子機器に、
     前記操作部を介してテキストの作成を受け付けるステップと、
     作成された作成テキストを前記通知画面に表示させるステップと
     を実行させる制御プログラム。
PCT/JP2013/075897 2012-09-26 2013-09-25 電子機器、制御方法、及び制御プログラム WO2014050881A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/431,276 US9609108B2 (en) 2012-09-26 2013-09-25 Electronic device, control method, and control program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-212831 2012-09-26
JP2012212831A JP2014068240A (ja) 2012-09-26 2012-09-26 電子機器、制御方法、及び制御プログラム
JP2012-212627 2012-09-26
JP2012212627A JP2014067247A (ja) 2012-09-26 2012-09-26 電子機器、制御方法、及び制御プログラム

Publications (1)

Publication Number Publication Date
WO2014050881A1 true WO2014050881A1 (ja) 2014-04-03

Family

ID=50388276

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/075897 WO2014050881A1 (ja) 2012-09-26 2013-09-25 電子機器、制御方法、及び制御プログラム

Country Status (2)

Country Link
US (1) US9609108B2 (ja)
WO (1) WO2014050881A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105432061A (zh) * 2014-07-16 2016-03-23 Lg电子株式会社 移动终端和控制方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102130797B1 (ko) * 2013-09-17 2020-07-03 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
TWI502487B (zh) * 2013-10-24 2015-10-01 Hooloop Corp 語音管理方法,及其相關裝置與電腦程式產品
EP3511811A1 (en) * 2013-12-20 2019-07-17 Huawei Device Co., Ltd. Method and apparatus for managing notification bar message
KR20160027775A (ko) * 2014-09-02 2016-03-10 삼성전자주식회사 터치 입력 처리 방법 및 그 장치
US9922357B2 (en) * 2014-09-18 2018-03-20 Adobe Systems Incorporated Interactive notifications for mobile commerce applications
KR102326664B1 (ko) * 2015-03-09 2021-11-17 삼성전자 주식회사 전자 기기 및 그의 통지 바 운용 방법
JP6314914B2 (ja) * 2015-06-04 2018-04-25 京セラドキュメントソリューションズ株式会社 画像形成装置、画像形成装置の操作画面制御方法
KR102429740B1 (ko) 2015-12-24 2022-08-05 삼성전자 주식회사 터치 이벤트 처리 방법 및 그 장치
DK201670583A1 (en) * 2016-03-28 2017-10-16 Apple Inc Keyboard input to an electronic device
US11150798B2 (en) 2016-03-28 2021-10-19 Apple Inc. Multifunction device control of another electronic device
USD787556S1 (en) * 2016-04-01 2017-05-23 Google Inc. Display screen or portion thereof with icon
US10747401B2 (en) * 2016-10-05 2020-08-18 Google Llc Unified and smart notifications and quick settings system
USD839896S1 (en) 2016-10-05 2019-02-05 Google Llc Display screen or portion thereof with graphical user interface
USD856370S1 (en) * 2017-04-27 2019-08-13 Deere & Company Display screen with icon
DK201870335A1 (en) * 2018-05-07 2019-12-04 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROACTIVE MANAGEMENT OF NOTIFICATIONS
US11675476B2 (en) * 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135728A (ja) * 2007-11-30 2009-06-18 Sharp Corp マルチ画面表示端末

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009060610A (ja) 1996-04-17 2009-03-19 Hitachi Ltd 記録装置および記録方法
JP4630580B2 (ja) 2004-06-16 2011-02-09 株式会社リコー 時刻表表示装置
JP2008033763A (ja) 2006-07-31 2008-02-14 Xanavi Informatics Corp 車載電子機器およびナビゲーション装置
CN101981987B (zh) * 2008-01-30 2014-12-03 谷歌公司 移动设备事件的通知
JP2011147019A (ja) 2010-01-15 2011-07-28 Kyocera Corp 携帯端末装置
US20110185396A1 (en) 2010-01-26 2011-07-28 Ntt Docomo, Inc. Information-processing apparatus, information-processing method, and computer-readable storage medium
KR101186332B1 (ko) * 2010-04-29 2012-09-27 엘지전자 주식회사 휴대 멀티미디어 재생장치, 그 시스템 및 그 동작 제어방법
JP2012008866A (ja) 2010-06-25 2012-01-12 Kyocera Corp 携帯端末、キー表示プログラムおよびキー表示方法
JP2012156793A (ja) 2011-01-26 2012-08-16 Integral:Kk 情報端末、データ管理方法、関連付け定義データ、およびプログラム
US20130290442A1 (en) * 2012-04-30 2013-10-31 Emoze Ltd. Downloaded attachments flow

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135728A (ja) * 2007-11-30 2009-06-18 Sharp Corp マルチ画面表示端末

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Smartphone de Dekiru Shakaijin ni Naro! Business Joho Shushu, Androider+", TSUKAERU! TEPPAN APPLI 256 STICKY, August 2012 (2012-08-01), pages 29 *
HAJIME KAWAMURA: "Saishin Windows 98 95 Sainyumon Windows no Shotai o Shireba Sosa mo Trouble Kaiketsu mo Mirumiru Wakaru", MONTHLY ASCII. PC, vol. 2, no. 11, 1 November 1999 (1999-11-01), pages 32 - 34 *
NAOHISA IWAMOTO: "Smartphone no Tsukainikusa o Kaisho! Android Smartphone no Kaiteki Setteijutsu", NIKKEI PERSONAL COMPUTING, vol. 653, 9 July 2012 (2012-07-09), pages 70 - 73 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105432061A (zh) * 2014-07-16 2016-03-23 Lg电子株式会社 移动终端和控制方法
US10001910B2 (en) 2014-07-16 2018-06-19 Lg Electronics Inc. Mobile terminal and controlling method thereof for creating shortcut of executing application
EP2999128B1 (en) * 2014-07-16 2018-10-24 LG Electronics Inc. Mobile terminal and control method therefor

Also Published As

Publication number Publication date
US9609108B2 (en) 2017-03-28
US20150249733A1 (en) 2015-09-03

Similar Documents

Publication Publication Date Title
WO2014050881A1 (ja) 電子機器、制御方法、及び制御プログラム
JP6125811B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2014067247A (ja) 電子機器、制御方法、及び制御プログラム
JP6393021B2 (ja) 電子機器、制御方法、及び制御プログラム
US20110115722A1 (en) System and method of entering symbols in a touch input device
JP2014075103A (ja) 電子機器、制御方法及び制御プログラム
JP6133564B2 (ja) 電子機器、制御方法、及び制御プログラム
KR20070107892A (ko) 이동통신 단말기 및 그의 폴더내용 관리방법
JP7004621B2 (ja) 電子機器、制御方法、及び制御プログラム
JP6088358B2 (ja) 装置、制御方法、及びプログラム
JP6242045B2 (ja) 装置、方法、及びプログラム
JP6139912B2 (ja) 携帯電子機器、制御方法及び制御プログラム
JP2014068240A (ja) 電子機器、制御方法、及び制御プログラム
WO2014050882A1 (ja) 電子機器、制御方法、及び制御プログラム
JP6393303B2 (ja) 装置、制御方法、及びプログラム
KR20070050197A (ko) 이동통신단말기에서 멀티미디어 메시지를 작성하기 위한방법
JP5864390B2 (ja) 通信装置、通信方法、及び通信プログラム
JP6152334B2 (ja) 電子機器、制御方法、及び制御プログラム
JP6087685B2 (ja) 携帯電子機器、制御方法及び制御プログラム
JP2017195633A (ja) スマートフォン、制御方法、及びプログラム
JP2016197441A (ja) 電子機器、制御方法、及び制御プログラム
JP2017139524A (ja) 携帯電話
JP5583713B2 (ja) 通信装置、通信方法、及び通信プログラム
JP2014225798A (ja) 電子機器、制御方法、及び制御プログラム
JP5746723B2 (ja) 情報処理システム、情報端末、情報処理装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13841734

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14431276

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13841734

Country of ref document: EP

Kind code of ref document: A1