WO2023079758A1 - 情報処理装置と情報処理プログラムと情報処理方法 - Google Patents

情報処理装置と情報処理プログラムと情報処理方法 Download PDF

Info

Publication number
WO2023079758A1
WO2023079758A1 PCT/JP2021/041041 JP2021041041W WO2023079758A1 WO 2023079758 A1 WO2023079758 A1 WO 2023079758A1 JP 2021041041 W JP2021041041 W JP 2021041041W WO 2023079758 A1 WO2023079758 A1 WO 2023079758A1
Authority
WO
WIPO (PCT)
Prior art keywords
display area
application
display
image
swipe
Prior art date
Application number
PCT/JP2021/041041
Other languages
English (en)
French (fr)
Inventor
寺尾玄
松藤恭平
奥田透也
小玉千陽
Original Assignee
バルミューダ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バルミューダ株式会社 filed Critical バルミューダ株式会社
Priority to PCT/JP2021/041041 priority Critical patent/WO2023079758A1/ja
Publication of WO2023079758A1 publication Critical patent/WO2023079758A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to an information processing device, an information processing program, and an information processing method.
  • smartphones which are a type of portable information processing device
  • applications programs
  • E-mail, schedule management, clocks, memos, calculators, etc. are examples of applications implemented in smartphones.
  • the smart phone functions as a portable information processing device that runs multiple applications.
  • Patent Documents 1 to 4, for example Proposals regarding portable information processing devices have been made so far (see Patent Documents 1 to 4, for example).
  • An object of the present invention is to provide an information processing apparatus, an information processing program, and an information processing method that enable easy use of applications.
  • An information processing apparatus includes a display device having a display area on which an application execution screen is displayed, an operation detection unit that detects a user's swipe operation in the display area, and an application that is executed based on the swipe operation. and a control unit for The display area includes a specific area and a non-specific area different from the specific area.
  • the control unit executes the application based on the swipe direction of the swipe operation.
  • Applications include a first application and a second application. Swipe directions include a first direction and a second direction opposite to the first direction.
  • the control unit executes the first application when the operation direction of the swipe operation detected by the operation detection unit is the first direction, and executes the first application when the operation direction of the swipe operation detected by the operation detection unit is the second direction. 2 Run the application.
  • the present invention enables applications to be used easily.
  • FIG. 1 is a functional block diagram showing an embodiment of an information processing device according to the present invention
  • FIG. It is a schematic diagram which shows the display area with which the display apparatus of the said information processing apparatus is provided.
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing an example of an operation screen of a clock application that operates on the information processing apparatus;
  • FIG. 4 is a schematic diagram showing an example of an operation screen of a clock application that operates on the information processing apparatus;
  • FIG. 4 is a schematic diagram showing an example of an operation screen of a clock application that operates on the information processing apparatus;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a lock screen displayed in the display area;
  • FIG. 4 is a schematic diagram
  • FIG. 4 is a schematic diagram showing a display example of a home screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a home screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a home screen displayed in the display area;
  • FIG. 4 is a schematic diagram showing a display example of a home screen displayed in the display area; It is a schematic diagram which shows the specific area
  • FIG. 9 is a schematic diagram showing another display example of the home screen displayed in the display area; It is a schematic diagram which shows the mode of operation of the application in the said information processing apparatus. It is a schematic diagram which shows the mode of operation of the application in the said information processing apparatus.
  • FIG. 4 is a schematic diagram showing a display example of a setting screen for the home screen displayed in the display area
  • FIG. 4 is a schematic diagram showing a display example of a setting screen for the home screen displayed in the display area
  • FIG. 4 is a schematic diagram showing a display example of a setting screen for the home screen displayed in the display area
  • FIG. 4 is a schematic diagram showing a display example of a setting screen for the home screen displayed in the display area
  • FIG. 5 is a schematic diagram showing a display example of a setting screen for setting a relationship between a touch operation on a display area displayed by the information processing apparatus and an order of applications to be made available.
  • FIG. 3A and 3B are schematic diagrams showing an example of an operation screen of an application that is made available by operating the application in the information processing apparatus, and an operation of another application
  • FIG. 3A and 3B are schematic diagrams showing an example of an operation screen of an application that is made available by operating the application in the information processing apparatus, and an operation of another application
  • FIG. 3A and 3B are schematic diagrams showing an example of an operation screen of an application that is made available by operating the application in the information processing apparatus, and an operation of another application
  • FIG. FIG. 4 is a schematic diagram showing an example of an operation screen of an application that is made available by operating the application in the information processing apparatus
  • FIG. 10 is a schematic diagram showing an example of setting information indicating the relationship between the number of touch operations on the display area stored in the storage unit of the information processing device and the applications to be enabled. It is a schematic diagram which shows the mode of operation of the application in the said information processing apparatus.
  • FIG. 4 is a schematic diagram showing an example of an operation screen of an application that is made available by operating the application in the information processing apparatus; It is a schematic diagram which shows the mode of operation of the application in the said information processing apparatus.
  • FIG. 4 is a schematic diagram showing an example of an operation screen of an application that is made available by operating the application in the information processing apparatus; It is a schematic diagram which shows the mode of operation of the application in the said information processing apparatus.
  • FIG. 4 is a schematic diagram showing an example of an operation screen of an application that is made available by operating the application in the information processing apparatus; It is a schematic diagram which shows the mode of operation of the application in the said information processing apparatus.
  • FIG. 4 is a schematic diagram showing an example of an operation screen of an application that is made available by operating the application in the information processing apparatus; It is a schematic diagram which shows the mode of operation of the application in the said information processing apparatus.
  • FIG. 4 is a schematic diagram showing an example of an operation screen of an application that is made available by operating the application in the information processing apparatus;
  • FIG. 1 is a functional block diagram showing an embodiment of an information processing apparatus (hereinafter referred to as “this apparatus") according to the present invention.
  • This device is realized by an information processing device such as a smartphone.
  • the apparatus executes an information processing program (hereinafter referred to as “this program”) according to the present invention.
  • This program that runs on this device cooperates with hardware resources of this device to implement an information processing method (hereinafter referred to as “this method”) according to the present invention.
  • the hardware resources of this device are, for example, processors such as a CPU (Central Processing Unit), MPU (Micro Processing Unit), and DSP (Digital Signal Processor).
  • the processor executes the instructions written in this program, thereby realizing each means provided in this device, which will be described later.
  • an information processing apparatus (not shown) different from this apparatus functions in the same manner as this apparatus and implements this method.
  • the device 1 has a display device 2 , a storage section 3 , an operation detection section 4 , a control section 5 , a display control section 6 and a display section 7 .
  • the display device 2 is composed of a touch panel.
  • the display device 2 has a display area. Details of the display area will be described later.
  • the storage unit 3 stores the program and information used by the device 1 to implement the method.
  • the storage unit 3 is, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, and the like. Details of the information stored in the storage unit 3 will be described later.
  • the operation detection unit 4 detects a user's touch operation on the display area.
  • a user is a person who uses the device 1 to operate an application on the device 1 .
  • the control unit 5 activates and executes an application installed in the device 1 based on a touch operation in the display area.
  • the control unit 5 allows the user to specify an application to be activated/executed by a predetermined touch operation on the display area, and stores the specified content in the storage unit 3 .
  • the control unit 5 also functions as an operation direction setting unit that allows the user to specify an operation direction (such as a swipe direction) of a predetermined touch operation that is a condition for executing an application. Details of how to specify the association between the touch operation and the application by the control unit 5 and how to execute the application will be described later.
  • the display control unit 6 determines the display content to be displayed in the display area. The details of the display contents displayed in the display area will be described later.
  • the display unit 7 displays the display content determined by the display control unit 7 in the display area.
  • FIG. 2 is a schematic diagram showing a display area included in the display device 2. As shown in FIG. In the drawing, an area A indicated by a dashed line is a display area. The display area includes a specific area and a non-specific area different from the specific area. Details of the specific region and the non-specific region will be described later.
  • ⁇ lock screen ⁇ 3 to 10 are schematic diagrams showing display examples of the lock screen displayed in the display area.
  • the lock screen is a screen showing a locked state of the device 1 in which functions executed by the device 1 are restricted.
  • the figure shows that the current time "19:38" and the calendar below the current time are displayed on the lock screen.
  • the figure shows that two linear first and second images L1 and L2 are displayed above the current time in the lock screen.
  • a calendar is an example of predetermined information in the present invention.
  • the figure shows that the extending direction of the first image L1 is parallel to the extending direction of the second image L2.
  • the first image L1 and the second image L2 are also displayed on the home screen (FIG. 15, etc.), and the device 1 detects a touch operation on the same image on the home screen. Occasionally, a given application will launch. On the other hand, the device 1 does not detect a touch operation on the same image within the lock screen. That is, the same image in the lock image is a kind of design displayed in the display area.
  • FIG. 4 shows a touch operation (swipe) by the user's finger F in the display area where the lock screen is displayed.
  • the figure shows that the operation direction of the touch operation is the direction from the lower side to the upper side of the display area (the direction from the lower side to the upper side of the drawing).
  • the same direction is the unlocking direction in the present invention.
  • the device 1 detects a touch operation in the unlocking direction in the display area in the locked state, the device 1 displays an unlock screen for the user to unlock the device 1 in the display area.
  • FIG. 5 shows that the unlock screen is displayed in the display area.
  • the unlock screen is a screen that prompts the user to enter a four-digit number for unlocking the device 1 .
  • the figure shows that a button image including 10 keys from numbers "0" to “9” is displayed on the unlock screen.
  • the figure shows that a four-digit number (displayed as "" on the screen) has been entered on the unlock screen.
  • the apparatus 1 receives the 4-digit number and compares it with the 4-digit number stored in the storage unit 3 for releasing the locked state. unlock.
  • the device 1 displays a home screen (see FIG. 15), which will be described later, in the display area.
  • FIG. 6 shows a display example of a lock screen displayed in the display area when the device in the locked state receives a message.
  • a message is an example of announcement information in the present invention.
  • the figure shows that the device 1 in the locked state displays the received message M in the display area.
  • This figure shows that the display of the calendar included in the lock screen (see FIG. 3) displayed in the display area before the message M is received is stopped when the message M is received.
  • This figure shows that the display position of the current time (see FIG. 3) displayed in the display area before receiving the message M has been changed.
  • the user can visually recognize the message M in the locked state. In other words, the user can confirm the sender "Mike” and all or part of the message content "Happy Birthday! from the display contents in the figure without releasing the locked state.
  • FIG. 7 shows a touch operation (swipe) by the user's finger F in the display area where the message M is displayed.
  • the figure shows that the operation direction of the touch operation is the lock release direction.
  • the device 1 detects a touch operation in the unlocking direction in the display area in the locked state where the message M is displayed in the display area, the device 1 displays an unlock screen for unlocking the locked state shown in FIG. 8 in the display area. do.
  • FIG. 9 shows a touch operation (swipe) by the user's finger F in the display area where the message M is displayed.
  • This figure shows that the operation direction of the touch operation is the opposite direction (the "fourth direction" in the present invention) to the operation direction of the touch operation (unlock direction) shown in FIG.
  • the device 1 detects a touch operation in the fourth direction in the display area in the locked state in which the message M is displayed in the display area, the device 1 stops displaying the message M in the display area and The lock screen (the same screen as in FIG. 3) is displayed in the display area, and the locked state of the device 1 is continued.
  • the fourth direction is a direction different from each of a first direction, a second direction, and a third direction, which will be described later.
  • the wake-up time is the time preset by the user and stored in the storage unit 3 .
  • FIG. 11 shows the display contents of the display area when the set wake-up time arrives and the device 1 notifies an alarm sound from a speaker (not shown) and is ringing.
  • the figure shows that a ringing image is displayed in the display area.
  • the ringing image includes an alarm time (12:35), a button image B1 displaying the characters "snooze", and a ring.
  • the figure shows that a button image B2 displaying the characters "stop” is displayed below the ringing image.
  • the device 1 may, for example, animate (for example, change color, blink, etc.) the ring of the ringing image during ringing to visually indicate that the alarm time has come.
  • FIG. 12 is a snooze image displayed in the display area by the device 1 when the button image B1 shown in FIG. 11 is touch-operated.
  • the snooze image is an image indicating that the device 1 is in the snooze state.
  • the snooze image displays the snooze time "9 minutes" which is preset by the user and stored in the storage unit 3.
  • FIG. When the button image B1 is touch-operated, the device 1 stops ringing up to that point, and rings again after the snooze time elapses. For example, the device 1 does not display the animation of the snooze image ring during the elapse of the snooze time.
  • FIG. 13 is a still image displayed in the display area by the device 1 when the button image B2 shown in FIG. 11 is touch-operated.
  • the still image is an image indicating that the device 1 has stopped ringing at the alarm time.
  • the still image includes the letters "stop alarm” and a ring. For example, when the button image B2 is touch-operated, the device 1 stops ringing and stops displaying the animation of the ring.
  • FIG. 14 shows a lock screen (the same screen as in FIG. 3) displayed in the display area by the device 1 after stopping the ringing.
  • the device 1 detects a touch operation in the display area where the still image (FIG. 13) is displayed, the device 1 displays the lock screen (FIG. 14) in the display region and keeps the device 1 locked.
  • ⁇ 15 to 18 are schematic diagrams showing display examples of the home screen displayed in the display area.
  • the home screen is displayed in the display area immediately after the lock state is released.
  • FIG. 15 shows the first image L1 and the second image L2 described above, the user information displayed in the user information display area A11, and the icons displayed in the icon display area A21 on the home screen displayed in the display area. It indicates that the images "I1"-"I5" are included.
  • the first image L1 and the second image L2 displayed in the home screen have the same display contents as the first image L1 and the second image L2 (FIG. 3) displayed in the lock screen described above.
  • the display position in the display area of the images and the size of each image are the same.
  • the first image L1 and the second image L2 displayed in the home screen are specific images in the present invention. Details of the first image L1 and the second image L2 displayed in the home screen will be described later.
  • the user information is information that can be edited by the user, and is information that the user registers in the device 1 in advance (stores it in the storage unit 3).
  • the user's initials “AK", “Akira Kato” in the “Owner” column indicating the user's name, and “Birthday” in the user's birthday It shows that "1985.11.02" and "000-1234-9999" are displayed in the "Phone” column indicating the telephone number of the device 1.
  • FIG. In addition to the information registered by the user in the signature column A11, the figure shows today's date “9.18 Sat” and today's weather forecast "minimum temperature 25°C", “maximum temperature 30°C", “clear weather”. , to indicate that is displayed.
  • An icon image is an image for each application that can be activated by the device 1. That is, when an icon image is touch-operated, the device 1 activates the application corresponding to the icon image and displays the operation screen of the application in the display area.
  • Each icon image has a pattern such as characters and graphics that enables identification of the corresponding application. The figure shows that five icon images are displayed in the icon display area A21.
  • the user can specify the number of icon images displayed in the icon display area and the display position of each icon image within the icon display area. That is, the user selects an application on a selection screen (not shown) for selecting an application displayed in the icon display area. An icon image of the selected application is displayed in the icon display area. The display position of the icon image displayed in the icon display area is changed in the icon display area by a user's touch operation (drag).
  • the apparatus 1 stores, in the storage unit 3, an application selected by the user, an icon image corresponding to the application, a display position of the icon image within the icon display area, and the like.
  • the device 1 uses the same information stored in the storage unit 3 to display the icon image in the icon display area.
  • the display position of the user information display area within the display area moves upward (toward the upper side of the paper surface of the figure).
  • 15-18 show how the number of icons displayed in the icon display area increases, as described above.
  • the figure shows that the display positions of the user information display areas (A11, A12, A13, A14) have moved upward as the number of icons displayed in the icon display area increases.
  • the display position of the icon display area in the display area is different from the display position of the user information display area in the display area. That is, in the present apparatus 1, the user information display area and the icon display area do not overlap in the display area. Make sure that the image and , are not superimposed on each other.
  • FIG. 19 is a schematic diagram showing a specific area within the display area.
  • the specific area is an area that the device 1 uses to start an application. That is, the device 1 executes a predetermined application when detecting a predetermined touch operation in a specific area.
  • the figure shows that the display area A comprises a first area A1 and a second area A2.
  • the specific area is a set of the first area A1 and the second area A2.
  • the first area A1 and the second area A2 are linear areas within the display area.
  • the extending direction of the first area A1 is parallel to the extending direction of the second area A2.
  • the figure shows that the extending direction of the specific area is the direction connecting the lower left and upper right of the display area. That is, the extending direction of the specific area differs from both the vertical direction (the vertical direction in the drawing) and the horizontal direction (the horizontal direction in the drawing) of the rectangular display region.
  • a first image L1 (FIG. 15) is displayed in the first area A1.
  • a second image L2 (FIG. 15) is displayed in the second area A2. That is, when the device 1 detects a predetermined touch operation on the first image L1, the device 1 activates and executes the first application corresponding to the first area A1. When the device 1 detects a predetermined touch operation on the second image L2, the device 1 activates and executes the second application corresponding to the second area A2.
  • the activation of an application includes, for example, activation of an unactivated (stopped) application, as well as making an application running in the background into a state in which the user can instruct the operation (for example, the operation of the application display the screen in the display area).
  • FIG. 20 is a schematic diagram showing another display example of the home screen displayed in the display area.
  • the home screen displayed in the display area includes an icon image, user information, a third image L3 and a fourth image L4.
  • the display position of the icon image within the display area is the same as the display position on the home screen shown in FIG.
  • the display position within the display area of the user information is different from the display position on the home screen shown in FIG. 15, and is on the left side of the display area (on the left side of the drawing).
  • the display positions within the display area of the third image L3 and the fourth image L4 are different from the display positions on the home screen shown in FIG.
  • the drawing shows that the extending direction of the specific area (the area in which the third image L3 and the fourth image L4 are displayed in the display area) is the direction connecting the upper left and lower right in the display area.
  • the third image L3 and the fourth image L4 are specific images in the present invention.
  • the extending direction of the specific area (specific image) within the display area is designated by the user as described later. That is, the device 1 displays the home screen in the display mode of the extension direction of the specific area shown in either FIG. 15 or FIG. 20 specified by the user.
  • ⁇ 21 and 22 are schematic diagrams showing how an application is operated in the device 1.
  • FIG. In addition to the predetermined touch operation on the icon image, the device 1 enables a predetermined application when detecting a touch operation on the first image L1 or the second image L2 displayed on the home screen. .
  • FIG. 21 shows that the first image L1 is being touch-operated (swiped) with the user's finger F.
  • the operation direction of the touch operation on the first image L1 is the extending direction of the first image L1 in the display area, which is indicated by an arrow from the upper right to the lower left of the drawing.
  • the operation direction of the touch operation on the first image L1 shown in the figure is the first direction in the present invention.
  • the figure shows that the display mode of the touch-operated first image L1 is different from the display mode of the first image L1 before the touch-operation (FIG. 15). That is, the size of the first image L1 being touched (touched by the finger F) (FIG. 23) is the same as the size of the first image L1 before the touch operation (not touched by the finger F) (FIG. 23). 15). In other words, the vertical length of the display area of the first image L1 being touch-operated is longer than the vertical length of the display area of the first image L1 before being touch-operated. That is, the touch-operated first image L1 is displayed as if the first image L1 when not touch-operated is extended toward the lower side of the display area.
  • the figure shows that the touch-operated first image L1 is displayed so as to cover the upper half of the second image L2. That is, in the figure, the first image L1 is highlighted with respect to the second image L2.
  • the apparatus 1 makes the display mode of the touch-operated first image L1 different from the display mode of the touch-operated first image L1, so that the presence or absence of the touch operation on the first image L1 can be determined by the user. visible to
  • the device 1 executes the first application associated with the first image L1.
  • FIG. 22 shows that the second image L2 is touch-operated (swiped) with the user's finger F.
  • the operation direction of the touch operation on the second image L2 is the extending direction of the second image L2 in the display area, which is indicated by an arrow from the lower right to the upper left of the paper surface of FIG.
  • the operation direction of the touch operation on the second image L2 shown in the figure is the second direction in the present invention.
  • the second direction is the direction opposite to the first direction, which is the operation direction of the touch operation on the first image L1.
  • the figure shows that the display mode of the second image L2 being touch-operated is different from the display mode of the second image L2 before being touch-operated (FIG. 15). That is, the size of the second image L2 being touched (touched by the finger F) (FIG. 22) is the same as the size of the second image L2 before the touch operation (not touched by the finger F) (FIG. 15). In other words, the vertical length of the display area of the second image L2 being touch-operated is longer than the vertical length of the display area of the second image L2 before being touch-operated. In other words, the second image L2 that is being touch-operated is displayed as if the second image L2 that was not being touch-operated is extended toward the upper side of the display area.
  • the figure shows that the second image L2 being touch-operated is displayed so as to cover the lower half of the first image L1. That is, in the figure, the second image L2 is highlighted with respect to the first image L1.
  • the present apparatus 1 makes the display mode of the second image L2 touch-operated different from the display mode of the second image L2 not touch-operated, so that the presence or absence of the touch operation on the second image L2 can be determined by the user. visible to
  • the device 1 executes the second application associated with the second image L2.
  • the device 1 displays the functional descriptions of the first application and the second application while the touch operation on the first image L1 and the second image L2 is being detected. area may be displayed.
  • FIG. 23 shows that while the touch operation on the first image L1 is being detected, the characters "take a picture” indicating the function of the first application to be executed are displayed superimposed on the first image L1. indicate.
  • FIG. 24 shows that while the touch operation on the second image L2 is being detected, the characters "OPEN SCHEDULE" indicating the functional description of the second application to be executed are displayed superimposed on the second image L2. indicate.
  • the device 1 responds to a swipe in the first direction on the first image L1 displayed on the home screen or a swipe in the second direction on the second image L2 displayed on the home screen.
  • the application can be conveniently used by executing the first application or the second application.
  • the device 1 further includes a second direction swipe on the first image L1 displayed on the home screen, or a first direction swipe on the second image L2 displayed on the home screen.
  • a second application or a first application may be executed in response to the swipe of the .
  • ⁇ Setting screen for home screen ⁇ 25 to 27 are schematic diagrams showing display examples of home screen setting screens displayed in the display area.
  • the user uses the setting screen to set the application to be executed based on the touch operation on the first image L1 and the second image L2.
  • the information to be set is stored in the storage unit 3 . That is, based on the information stored in the storage unit 3, the device 1 enables the first application or the second application when there is a touch operation on the first image L1 or the second image L2. .
  • FIG. 25 shows a screen for allowing the user to specify the design of the home screen.
  • the same figure shows the design of the home screen, the background image of the home screen, the orientation of the stripes (first image L1 and second image L2, or third image L3 and fourth image L4), key color (second image L2 or the display color of the fourth image L4) and the sub-color (the display color of the first image L1 or the third image L3) can be specified.
  • This figure shows that rightward direction (first image L1 and second image L2) is selected as the direction of the stripes.
  • the user when the direction of the stripes "facing right” is selected, the user, for example, holds the device 1 with the right hand with the display area (touch panel) facing the user, and touches the specific area (the first image) with the thumb of the right hand. L1 or the second image L2) is touch-operated.
  • the user when the direction of the stripes "facing left” is selected, the user, for example, faces the display area (touch panel), holds the apparatus 1 with the left hand, and touches the specific area (the third image L3) with the thumb of the left hand.
  • touch operation is performed on the fourth image L4).
  • FIG. 26 shows a screen for allowing the user to designate shortcuts.
  • a shortcut is an association (combination) between the first image L1 or the second image L2 (that is, the specific area) and an application that is enabled when there is a touch operation on these.
  • the figure shows that the first image L1 is associated with an application with characters "take a picture” indicating a function description.
  • This figure shows that the second image L2 is associated with an application with characters "open schedule” indicating a functional explanation.
  • FIG. 27 is a screen displaying a list of function descriptions of applications installed in the apparatus 1 that can be designated as shortcuts.
  • the figure shows that function descriptions of applications that can be designated as shortcuts, such as "open mail”, “send mail”, “open schedule”, etc., are displayed.
  • the user specifies a shortcut on the screen shown in FIG. 26, the user specifies the function description of the desired application from the list shown in FIG. This figure shows how the function description "open schedule" is specified.
  • the applications that can be used by touch operation are the so-called mail application itself, as shown in the functional descriptions such as "open mail”, "send mail", and individual functions provided by the mail application. Also includes That is, for example, when a specific image associated with the function description "open mail” is touch-operated, the device 1 not only activates the mail application itself, but also executes the "open mail” function of the mail application. to display in the display area a screen for allowing the user to browse the mail (a screen on which the received mail is displayed).
  • ⁇ Application operation (2) ⁇ 28 to 33 are schematic diagrams showing another operation of the application by the device 1.
  • FIG. In addition to the above-described touch operation on the icon image and the touch operation on the specific image in the first direction or the second direction, the present device 1 can be operated in a predetermined direction (the third direction in the present invention) in the display area as described below. ) is detected, a predetermined application is made available.
  • FIG. 28 is a schematic diagram of a display example of a setting screen for setting Tools (applications) that can be used when the device 1 detects a touch operation (swipe) in the third direction on the display area.
  • This figure shows the display order of the home screen and the operation screen of each application.
  • FIG. 29 when a touch operation in the third direction (to the left in the drawing) is detected on the home screen (FIG. 29), the device 1 displays the operation screen (FIG. 30) of the application "today's schedule". Indicates to display in the display area. 30, when a touch operation in the third direction is detected in the display area where the operation screen of the application "today's schedule" (FIG. 30) is displayed, the device 1 displays the operation screen of the application "clock”.
  • FIG. 31 is displayed in the display area.
  • the device 1 displays the operation screen of the application "memo” (FIG. 31).
  • 32) is displayed in the display area.
  • the apparatus 1 displays the operation screen of the application "calculator” (FIG. 32). 33) is displayed in the display area.
  • this figure shows the display order of operation screens of each application when a touch operation (swipe) in the display area in the direction opposite to the third direction (the right direction on the paper surface in FIGS. 29 to 33) is detected. . That is, for example, when a touch operation in the direction opposite to the third direction is detected in the display area where the operation screen (FIG. 31) of the application "clock” is displayed, the device 1 displays the application “today's schedule ” (FIG. 30) is displayed in the display area.
  • the device 1 sequentially displays one operation screen among the operation screens (display screens) of each of the plurality of applications in the display area for each swipe in the third direction or in the direction opposite to the third direction.
  • the device 1 stores, in the storage unit 3, screen identification information for specifying operation screens of each of a plurality of applications, and screen information associated with an operation order of swipe operations in a third direction or in a direction opposite to the third direction. do.
  • Screen information received from the user by the control unit 5 is stored in the storage unit 3 .
  • the operation detection unit 4 detects a swipe in the third direction or in a direction opposite to the third direction
  • the device 1 refers to the screen information stored in the storage unit 3 to display an operation screen of a predetermined application. is displayed in the display area.
  • the device 1 can be used by executing a predetermined application in response to a swipe in the third direction or in a direction opposite to the third direction on the home screen or the operating screen of a predetermined application being executed.
  • the operation screen required by the operator can be displayed with a simple operation.
  • ⁇ 34 to 42 are schematic diagrams showing another operation of the application by the device 1.
  • FIG. In addition to the touch operation on the icon image described above, the touch operation on the specific image in the first direction or the second direction, and the touch operation in the display area in the third direction or in the direction opposite to the third direction, the following , a predetermined application is enabled when a predetermined touch operation (tap) on the display area is detected.
  • a predetermined touch operation tap
  • FIG. 34 is a schematic diagram showing Tools (applications) that can be used when the device 1 detects a touch operation (tap) on the display area.
  • This figure shows the relationship between the number of predetermined touch operations (tap) on the home screen (FIGS. 35, 37, 39, and 41) and the application.
  • the figure shows that when the touch operation in the display area is performed twice (FIG. 35), the operation screen (FIG. 36) of the application "today's schedule” is displayed in the display area.
  • the figure shows that when the touch operation on the display area is performed three times (FIG. 37), the operation screen (FIG. 38) of the application "clock” is displayed on the display area.
  • the figure shows that when there are four touch operations in the display area (FIG. 39), the operation screen (FIG. 40) of the application "memo” is displayed in the display area.
  • the figure shows that when the touch operation in the display area is five times (FIG. 41), the operation screen (FIG. 42) of the application "calcul
  • the reason why the number of touch operations to call up the operating screen of a predetermined application does not include one is to prevent the activation of an application unintended by the user. That is, the device 1 prevents the user's finger or the like from accidentally touching the display area while the home screen is being displayed in the display area, thereby preventing the application from being activated.
  • the device 1 displays one of the operation screens (display screens) of each of the plurality of applications in the display area based on the number of taps on the home screen.
  • the device 1 stores, in the storage unit 3, screen identification information that identifies the operation screen of each of a plurality of applications and screen information in which the number of taps on the home screen is associated with each other.
  • Screen information received from the user by the control unit 5 is stored in the storage unit 3 .
  • the operation detection unit 4 detects a tap on the home screen
  • the device 1 refers to screen information stored in the storage unit 3 and displays an operation screen of a predetermined application in the display area.
  • the device 1 can display an operation screen required by the user with a simple operation by executing a predetermined application according to the number of taps on the home screen.
  • the control unit 5 executes the first application when the operation direction of the swipe operation on the display area detected by the operation detection unit 4 is the first direction.
  • the second application is executed. That is, for example, when the user holds the device 1 with the right hand, the user can swipe the display area in the first direction or the second direction with the thumb of the right hand to display the first application or the second application. can run. That is, the user can execute the first application or the second application without looking at the display area of the device 1, for example. In this way, the device 1 makes it possible to use applications easily.
  • a display device having a display area (for example, display area A in FIG. 2) on which an application execution screen is displayed; an operation detection unit (for example, the operation detection unit 4 in FIG. 1) that detects a user's swipe operation in the display area; a control unit (for example, the control unit 5 in FIG. 1) that executes the application based on the swipe operation; and
  • the display area is a specific region (for example, A1 and A2 in FIG. 19); a non-specific region different from the specific region (for example, a region different from the regions A1 and A2 in the display region A in FIG.
  • the control unit executes the application based on the swipe direction of the swipe operation, Said application is a first application (e.g., "take a picture" in FIG. 23); a second application (for example, "open schedule” in FIG. 24); including
  • the swipe direction is a first direction (eg, the direction of the arrow in FIG. 23); a second direction opposite to the first direction (for example, the direction of the arrow in FIG. 24); including
  • This device a display unit (e.g., display unit 7) that displays a specific image indicating the position of the specific area within the display area in the display area; and
  • the specific image is a linear first image along the first direction (for example, the first image L1 in FIG. 15); a linear second image along the second direction (for example, the second image L2 in FIG. 15); including
  • the extending direction of the first image is parallel to the extending direction of the second image, Anything is fine.
  • the control unit when the operation detection unit detects the swipe operation in the first direction on the first image, executing the first application;
  • the operation detection unit detects the swipe operation in the second direction on the second image the second application is executed. Anything is fine.
  • the control unit when the operation detection unit detects the swipe operation in the first direction on the second image, executing the first application; When the operation detection unit detects the swipe operation in the second direction on the first image, the second application is executed. Anything is fine.
  • the display area comprises a rectangular shape,
  • the rectangle is The vertical direction (for example, the vertical direction of the paper surface of FIG. 15), a horizontal direction orthogonal to the vertical direction (for example, the horizontal direction of the paper surface of FIG. 15); with The first direction is different from either the vertical direction or the horizontal direction, The second direction is different from both the vertical direction and the horizontal direction, Anything is fine.
  • This device a swipe direction setting unit that allows the user to specify the swipe direction as a condition for the control unit to execute the application; comprising Anything is fine.
  • This device a storage unit (for example, storage unit 3) that stores related information for each application; and
  • the display unit displays the related information stored in the storage unit in the display area when the operation detection unit detects the swipe operation in the specific area. Anything is fine.
  • This device the relevant information for each application includes a functional description of the application;
  • the display unit when the operation detection unit detects the swipe operation in the first operation direction, displaying a functional description of the first application (for example, "Take a picture” in FIG. 23) in the display area;
  • a functional description of the second application for example, "open schedule” in FIG. 24
  • This device a display control unit (for example, a display control unit 4) that determines a display mode of the specific image displayed in the display area; and The display control unit
  • the first image is highlighted with respect to the second image (for example, the first image L1 in FIG. 23 is displayed as the second image).
  • determine the display mode of the first image so that it is displayed so as to cover the upper half of L2;
  • the second image is highlighted with respect to the first image (for example, the second image L2 in FIG. 24 is displayed as the first image). determining the display mode of the second image so that it is displayed covering the lower half of L1; Anything is fine.
  • the operation detection unit is a swipe operation in the display area in a third direction (for example, directions of arrows in FIGS. 29, 30, 31, and 32); a tap operation in the display area (for example, FIGS. 35, 37, 39, and 41); to detect the third direction is different from each of the first direction and the second direction,
  • the display unit When the operation detection unit detects a swipe operation in the third direction, one of a plurality of display screens (for example, FIGS. 30, 31, 32, and 33) is sequentially displayed for each swipe operation. , displayed in the display area, When the operation detection unit detects the tap operation, only one of the display screens (for example, FIGS. 36, 38, 40, and 42) corresponding to the number of taps of the tap operation, display directly in the display area; It may be something to do.
  • This device screen identification information that identifies each of the plurality of display screens; an operation order of the swipe operation in the third direction; a storage unit that stores screen information associated with and
  • the control unit refers to the screen information and determines the display screen to be displayed in the display area. Anything is fine.
  • the control unit changes the display screen displayed in the display area by the swipe operation N times (for example, 1, 2, 3, 4 times) to the display screen displayed in the display area when the number of taps is N+1 times (for example, 2, 3, 4 times). , 5 times) is determined as the display screen to be displayed in the display area when the tap operation is performed; It may be something to do.
  • N times for example, 1, 2, 3, 4 times
  • N+1 times for example, 2, 3, 4 times
  • the display unit In the locked state, predetermined information (e.g., calendar in FIG. 10) or notification information (e.g., message in FIG. 9) can be displayed in the display area;
  • the operation detection unit detects a swipe operation in a fourth direction (for example, the direction of the arrow in FIG. 9), the fourth direction is different from each of the first direction, the second direction, and the third direction, when the notification information is displayed in the display area (for example, FIG. 9), the predetermined information is stopped from being displayed in the display area;
  • the display unit displays the notification information in the display area. and displaying the predetermined information in the display area (for example, FIG. 10); It may be something to do.
  • the display area is an icon display area (for example, area A21 in FIG. 15) in which an icon for each application is displayed; a user information display area (for example, area A11 in FIG. 15) in which user information editable by the user is displayed; including
  • the display position of the icon display area in the display area is different from the display position of the user information display area in the display area,
  • the size of the icon display area in the display area changes according to the number of icons (for example, FIGS. 15, 16, 17, and 18), the display position of the user information display area in the display area changes according to the size of the icon display area in the display area (for example, FIGS. 15, 16, 17, and 18); It may be something to do.
  • the display position of the icon display area in the display area is different from the display position of the specific area in the display area, Anything is fine.
  • An information processing apparatus (for example, the information An information processing method executed by a processing device 1), comprising: The information processing device an operation detection step of detecting a user's swipe operation in the display area; a control step of executing the application based on the swipe operation; and
  • the display area is a specific region (eg, regions A1 and A2 in FIG. 19); a non-specific region different from the specific region (for example, a region different from regions A1 and A2 in region A in FIG. 19); including
  • the control step executes the application based on the swipe direction of the swipe operation, Said application is a first application (e.g., "take a picture" in FIG.
  • the swipe direction is a first direction (eg, the direction of the arrow in FIG. 23); a second direction opposite to the first direction (for example, the direction of the arrow in FIG. 24); including
  • the control step includes: executing the first application when the operation direction of the swipe operation detected by the operation detection unit is the first direction; executing the second application when the operation direction of the swipe operation detected by the operation detection unit is the second direction; It is characterized by

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

アプリケーションを簡便に使用可能にする。 本発明に係る情報処理装置(1)は、アプリケーションの実行画面が表示される表示領域(A)を備える表示装置(2)と、表示領域における使用者のスワイプ操作を検出する操作検出部(4)と、スワイプ操作に基づいて、アプリケーションを実行する制御部(5)と、を有してなる。表示領域は、特定領域(A1,A2)と、特定領域とは異なる非特定領域と、を含み、操作検出部が特定領域におけるスワイプ操作を検出したとき、制御部は、スワイプ操作のスワイプ方向に基づいて、アプリケーションを実行しする。アプリケーションは、第1アプリケーションと、第2アプリケーションと、を含む。スワイプ方向は 第1方向と、第1方向と反対の第2方向と、を含む。制御部は、操作検出部に検出されたスワイプ操作の操作方向が第1方向のとき、第1アプリケーションを実行し、操作検出部に検出されたスワイプ操作の操作方向が第2方向のとき、第2アプリケーションを実行する。

Description

情報処理装置と情報処理プログラムと情報処理方法
 本発明は、情報処理装置と情報処理プログラムと情報処理方法とに関するものである。
 携帯可能な情報処理装置の一種であるスマートフォンの普及に伴い、多種多様なアプリケーション(プログラム)がスマートフォンに実装されている。電子メール、スケジュール管理、時計、メモ、電卓などは、スマートフォンに実装されているアプリケーションの例である。すなわち、スマートフォンは、複数のアプリケーションを動作させる携帯可能な情報処理装置として機能する。
 これまでにも、携帯可能な情報処理装置に関する提案がされている(例えば、特許文献1-4参照)。
特許6668017号明細書 特許6028734号明細書 特許5775445号明細書 特許5712084号明細書
 複数のアプリケーションが動作可能な携帯可能な情報処理装置において、アプリケーションを簡便に使用可能にすることが望まれる。
 本発明は、アプリケーションを簡便に使用可能にする情報処理装置と情報処理プログラムと情報処理方法とを提供することを目的とする。
 本発明に係る情報処理装置は、アプリケーションの実行画面が表示される表示領域を備える表示装置と、表示領域における使用者のスワイプ操作を検出する操作検出部と、スワイプ操作に基づいて、アプリケーションを実行する制御部と、を有してなる。表示領域は、特定領域と、特定領域とは異なる非特定領域と、を含む。操作検出部が特定領域におけるスワイプ操作を検出したとき、制御部は、スワイプ操作のスワイプ方向に基づいて、アプリケーションを実行する。アプリケーションは、第1アプリケーションと、第2アプリケーションと、を含む。スワイプ方向は 第1方向と、第1方向と反対の第2方向と、を含む。制御部は、操作検出部に検出されたスワイプ操作の操作方向が第1方向のとき、第1アプリケーションを実行し、操作検出部に検出されたスワイプ操作の操作方向が第2方向のとき、第2アプリケーションを実行する。
 本発明は、アプリケーションを簡便に使用可能にする。
本発明に係る情報処理装置の実施の形態を示す機能ブロック図である。 上記情報処理装置の表示装置が備える表示領域を示す模式図である。 上記表示領域に表示されるロック画面の表示例を示す模式図である。 上記表示領域に表示されるロック画面の表示例を示す模式図である。 上記表示領域に表示されるロック画面の表示例を示す模式図である。 上記表示領域に表示されるロック画面の表示例を示す模式図である。 上記表示領域に表示されるロック画面の表示例を示す模式図である。 上記表示領域に表示されるロック画面の表示例を示す模式図である。 上記表示領域に表示されるロック画面の表示例を示す模式図である。 上記表示領域に表示されるロック画面の表示例を示す模式図である。 上記情報処理装置で動作する時計アプリケーションの動作画面例を示す模式図である。 上記情報処理装置で動作する時計アプリケーションの動作画面例を示す模式図である。 上記情報処理装置で動作する時計アプリケーションの動作画面例を示す模式図である。 上記表示領域に表示されるロック画面の表示例を示す模式図である。 上記表示領域に表示されるホーム画面の表示例を示す模式図である。 上記表示領域に表示されるホーム画面の表示例を示す模式図である。 上記表示領域に表示されるホーム画面の表示例を示す模式図である。 上記表示領域に表示されるホーム画面の表示例を示す模式図である。 上記表示領域内の特定領域を示す模式図である。 上記表示領域に表示されるホーム画面の別の表示例を示す模式図である。 上記情報処理装置におけるアプリケーションの操作の様子を示す模式図である。 上記情報処理装置におけるアプリケーションの操作の様子を示す模式図である。 上記情報処理装置におけるアプリケーションの操作の様子を示す模式図である。 上記情報処理装置におけるアプリケーションの操作の様子を示す模式図である。 上記表示領域に表示される上記ホーム画面用の設定画面の表示例を示す模式図である。 上記表示領域に表示される上記ホーム画面用の設定画面の表示例を示す模式図である。 上記表示領域に表示される上記ホーム画面用の設定画面の表示例を示す模式図である。 上記情報処理装置が表示する表示領域へのタッチ操作と使用可能にされるアプリケーションの順序との関係の設定用の設定画面の表示例を示す模式図である。 上記情報処理装置におけるアプリケーションの操作の様子を示す模式図である。 上記情報処理装置におけるアプリケーションの操作により使用可能にされたアプリケーションの動作画面例と、別のアプリケーションの操作の様子を示す模式図である。 上記情報処理装置におけるアプリケーションの操作により使用可能にされたアプリケーションの動作画面例と、別のアプリケーションの操作の様子を示す模式図である。 上記情報処理装置におけるアプリケーションの操作により使用可能にされたアプリケーションの動作画面例と、別のアプリケーションの操作の様子を示す模式図である。 上記情報処理装置におけるアプリケーションの操作により使用可能にされたアプリケーションの動作画面例を示す模式図である。 上記情報処理装置の記憶部に記憶される表示領域へのタッチ操作の回数と使用可能にされるアプリケーションとの関係を示す設定情報の例を示す模式図である。 上記情報処理装置におけるアプリケーションの操作の様子を示す模式図である。 上記情報処理装置におけるアプリケーションの操作により使用可能にされたアプリケーションの動作画面例を示す模式図である。 上記情報処理装置におけるアプリケーションの操作の様子を示す模式図である。 上記情報処理装置におけるアプリケーションの操作により使用可能にされたアプリケーションの動作画面例を示す模式図である。 上記情報処理装置におけるアプリケーションの操作の様子を示す模式図である。 上記情報処理装置におけるアプリケーションの操作により使用可能にされたアプリケーションの動作画面例を示す模式図である。 上記情報処理装置におけるアプリケーションの操作の様子を示す模式図である。 上記情報処理装置におけるアプリケーションの操作により使用可能にされたアプリケーションの動作画面例を示す模式図である。
 本発明に係る情報処理装置と情報処理プログラムと情報処理方法との実施の形態は、以下に、図面と共に説明される。
●情報処理装置の構成●
 図1は、本発明に係る情報処理装置(以下「本装置」という。)の実施の形態を示す機能ブロック図である。
 本装置は、スマートフォンなどの情報処理装置により実現される。本装置は、本発明に係る情報処理プログラム(以下「本プログラム」という。)を実行する。本装置で動作する本プログラムは、本装置のハードウェア資源と協働して、本発明に係る情報処理方法(以下「本方法」という。)を実現する。
 本装置のハードウェア資源は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)などのプロセッサである。プロセッサは、本プログラムに記述された命令を実行することで、本装置が備える後述の各手段を実現する。
 なお、本装置とは異なる図示しない情報処理装置が、本プログラムを実行することで、同情報処理装置は本装置と同様に機能して、本方法を実現する。
 本装置1は、表示装置2と、記憶部3と、操作検出部4と、制御部5と、表示制御部6と、表示部7と、を有してなる。
 表示装置2は、タッチパネルで構成される。表示装置2は、表示領域を備える。表示領域の詳細は、後述される。
 記憶部3は、本プログラムと、本装置1が本方法を実現するために用いる情報などを記憶する。記憶部3は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ素子、などである。記憶部3に記憶される情報の詳細は、後述される。
 操作検出部4は、表示領域における使用者のタッチ操作を検出する。使用者は、本装置1を用いて、本装置1でアプリケーションを動作させる者である。
 制御部5は、表示領域におけるタッチ操作に基づいて、本装置1にインストールされているアプリケーションを起動して実行する。制御部5は、表示領域における所定のタッチ操作で起動・実行されるアプリケーションを使用者に指定させて、指定された内容を記憶部3に記憶する。制御部5は、アプリケーションを実行する条件となる所定のタッチ操作の操作方向(スワイプ方向など)を使用者に指定させる操作方向設定部としても機能する。制御部5によるタッチ操作とアプリケーションとの関連付けの指定方法や、アプリケーションの実行方法などの詳細は、後述される。
 表示制御部6は、表示領域に表示される表示内容を決定する。表示領域に表示される表示内容の詳細は、後述される。
 表示部7は、表示制御部7に決定された表示内容を、表示領域に表示する。
●表示領域●
 図2は、表示装置2が備える表示領域を示す模式図である。
 図中、破線で示される領域Aは、表示領域である。表示領域は、特定領域と、特定領域とは異なる非特定領域と、を備える。特定領域と非特定領域との詳細は、後述される。
●ロック画面●
 図3-図10は、表示領域に表示されるロック画面の表示例を示す模式図である。
 ロック画面は、本装置1で実行される機能が制限されている本装置1のロック状態を示す画面である。同図は、ロック画面に、現在時刻「19:38」と、現在時刻の下方にカレンダーと、が表示されていることを示す。同図は、ロック画面内の現在時刻の上方に、2本の直線状の第1画像L1と第2画像L2とが表示されていることを示す。カレンダーは、本発明における所定情報の例である。
 同図は、第1画像L1の延在方向が、第2画像L2の延在方向と平行であることを示す。ここで、第1画像L1と第2画像L2とは、後述のとおり、ホーム画面(図15など)にも表示されて、本装置1は、ホーム画面内の同画像に対するタッチ操作が検出されたときに、所定のアプリケーションが起動する。一方、本装置1は、ロック画面内の同画像に対するタッチ操作を検出しない。つまり、ロック画像内の同画像は、表示領域に表示された一種のデザインである。
 図4は、ロック画面が表示されている表示領域における使用者の指Fによるタッチ操作(スワイプ)の様子を示す。
 同図は、タッチ操作の操作方向が、表示領域の下側から上側に向けた方向(同図の紙面下側から上側に向けた方向)であることを示す。同方向は、本発明におけるロック解除方向である。本装置1は、ロック状態において、表示領域におけるロック解除方向のタッチ操作を検出すると、使用者に本装置1のロック状態を解除させるロック解除画面を表示領域に表示する。
 図5は、ロック解除画面が表示領域に表示されていることを示す。
 ロック解除画面は、本装置1のロック状態を解除するための4桁の数字を、使用者に入力させる画面である。同図は、ロック解除画面に、数字「0」から「9」までの10キーを含むボタン画像が表示されていることを示す。同図は、ロック解除画面に、4桁の数字(画面には「・・・・」と表示されている)が入力されていることを示す。4桁の数字を受け付けた本装置1は、記憶部3に記憶されているロック状態を解除する4桁の数字と照合して、照合の結果、両者が一致すれば本装置1のロック状態を解除する。ロック状態が解除された本装置1は、後述されるホーム画面(図15参照)を表示領域に表示する。
 図6は、ロック状態の本装置がメッセージを受信したときに表示領域に表示されるロック画面の表示例を示す。メッセージは、本発明における告知情報の例である。
 同図は、ロック状態の本装置1が、受信されたメッセージMを表示領域に表示していることを示す。同図は、メッセージMの受信前に表示領域に表示されていたロック画面(図3参照)に含まれるカレンダーの表示が、メッセージMの受信時には停止されていることを示す。同図は、メッセージMの受信前に表示領域に表示されていた現在時刻の表示位置(図3参照)が、変更されていることを示す。使用者は、ロック状態の本装置1がメッセージMを受信したとき、ロック状態のままでメッセージMを視認できる。つまり、使用者は、ロック状態を解除することなく、同図の表示内容から、送信者「Mike」とメッセージ内容の全部または一部「Happy Birthday!」とを確認できる。
 図7は、メッセージMが表示されている表示領域における使用者の指Fによるタッチ操作(スワイプ)の様子を示す。
 同図は、タッチ操作の操作方向が、ロック解除方向であることを示す。本装置1は、メッセージMが表示領域に表示されているロック状態において、表示領域におけるロック解除方向のタッチ操作を検出すると、図8に示されるロック状態を解除させるロック解除画面を表示領域に表示する。
 図9は、メッセージMが表示されている表示領域における使用者の指Fによるタッチ操作(スワイプ)の様子を示す。
 同図は、タッチ操作の操作方向が、図7に示されたタッチ操作の操作方向(ロック解除方向)とは反対の方向(本発明における「第4方向」)であることを示す。本装置1は、メッセージMが表示領域に表示されているロック状態において、表示領域における第4方向のタッチ操作を検出すると、メッセージMの表示領域への表示を停止すると共に、図10に示されるロック画面(図3と同じ画面)を表示領域に表示して、本装置1のロック状態を継続する。
 ここで、第4方向は、後述の第1方向と第2方向と第3方向それぞれと異なる方向である。
 図11-図13は、ロック状態において目覚まし時刻が到来したときに表示領域に表示される画面例の模式図である。目覚まし時刻は、あらかじめ使用者に設定された時刻であって、記憶部3に記憶されている。
 図11は、設定された目覚まし時刻が到来して、本装置1がスピーカ(不図示)からアラーム音を報知して鳴動中の表示領域の表示内容を示す。同図は、表示領域に、鳴動中画像が表示されていることを示す。鳴動中画像は、目覚まし時刻(12時35分)と、文字「スヌーズ」が表示されたボタン画像B1と、リングと、を含む。同図は、鳴動中画像の下方に、文字「停止」が表示されたボタン画像B2が表示されていることを示す。本装置1は、例えば、鳴動中、鳴動中画像のリングをアニメーション表示(例えば、色彩を変化させる、点滅させる、など)させて、視覚的に目覚まし時刻が到来したことを表示してもよい。
 図12は、図11に示されるボタン画像B1がタッチ操作されたときに、本装置1が表示領域に表示するスヌーズ画像である。スヌーズ画像は、本装置1がスヌーズの状態であることを示す画像である。スヌーズ画像は、あらかじめ使用者に設定されて記憶部3に記憶されているスヌーズ時間「9分」を表示する。本装置1は、ボタン画像B1がタッチ操作されると、それまでの鳴動を停止して、スヌーズ時間の経過後に、再度、鳴動する。本装置1は、例えば、スヌーズ時間の経過中、スヌーズ画像のリングのアニメーション表示をしない。
 図13は、図11に示されるボタン画像B2がタッチ操作されたときに、本装置1が表示領域に表示する停止画像である。停止画像は、本装置1が目覚まし時刻の鳴動を停止したことを示す画像である。停止画像は、文字「目覚まし停止」と、リングと、を含む。本装置1は、例えば、ボタン画像B2がタッチ操作されると、それまでの鳴動を停止すると共に、リングのアニメーション表示を停止する。
 図14は、鳴動の停止後に本装置1が表示領域に表示するロック画面(図3と同じ画面)である。
 本装置1は、例えば、停止画像(図13)が表示された表示領域におけるタッチ操作を検出すると、ロック画面(図14)を表示領域に表示して、本装置1のロック状態を継続する。
●ホーム画面(1)●
 図15-図18は、表示領域に表示されるホーム画面の表示例を示す模式図である。
 ホーム画面は、ロック状態が解除された直後に表示領域に表示される。
 図15は、表示領域に表示されているホーム画面に、前述の第1画像L1と第2画像L2、使用者情報表示領域A11に表示された使用者情報、アイコン表示領域A21に表示されたアイコン画像「I1」-「I5」、が含まれることを示す。
 ホーム画面内に表示される第1画像L1と第2画像L2とは、前述のロック画面内に表示される第1画像L1と第2画像L2(図3)と同じ表示内容、つまり、各画像の表示領域内の表示位置や、各画像の大きさが同じである。ホーム画面内に表示される第1画像L1と第2画像L2とは、本発明における特定画像である。ホーム画面内に表示された第1画像L1と第2画像L2との詳細は、後述される。
 使用者情報は、使用者が編集可能な情報であって、使用者があらかじめ本装置1に登録(記憶部3に記憶)する情報である。同図は、使用者情報として、使用者のイニシャル「A.K.」と、使用者の氏名を示す「Owner」欄の「Akira Kato」と、使用者の誕生日を示す「Birthday」欄に「1985.11.02」と、本装置1の電話番号を示す「Phone」欄に「000-1234-9999」と、が表示されていることを示す。同図は、署名欄A11に、使用者に登録された情報に加えて、今日の日付「9.18 Sat」と、今日の天気予報「最低気温25℃」「最高気温30℃」「天候晴」と、を表示していることを示す。
 アイコン画像は、本装置1で起動可能なアプリケーションごとの画像である。すなわち、本装置1は、アイコン画像がタッチ操作されると、同アイコン画像に対応するアプリケーションを起動して、同アプリケーションの動作画面を表示領域に表示する。アイコン画像それぞれは、対応するアプリケーションを識別可能にする文字や図形などの模様を備える。同図は、アイコン表示領域A21に、5つのアイコン画像が表示されていることを示す。
 アイコン表示領域に表示されるアイコン画像の数や、アイコン画像それぞれのアイコン表示領域内での表示位置は、使用者が指定できる。すなわち、使用者は、アイコン表示領域に表示されるアプリケーションを選択する選択画面(不図示)において、アプリケーションを選択する。選択されたアプリケーションのアイコン画像は、アイコン表示領域に表示される。アイコン表示領域に表示されたアイコン画像は、使用者によるタッチ操作(ドラッグ)により、アイコン表示領域内の表示位置が変更される。本装置1は、使用者に選択されたアプリケーションや、同アプリケーションに対応するアイコン画像や、同アイコン画像のアイコン表示領域内での表示位置などを、記憶部3に記憶する。本装置1は、記憶部3に記憶されている同情報を用いて、アイコン画像をアイコン表示領域に表示する。
 ここで、アイコン表示領域に表示されるアイコン画像の数が増加したとき、表示領域におけるアイコン表示領域の大きさは増加する。図16はアイコン表示領域A22に表示されるアイコン画像の数が「9」、図17はアイコン表示領域A23に表示されるアイコン画像の数が「13」、図18はアイコン表示領域A24に表示されるアイコン画像の数が「17」であることを示す。これらの図に示されるように、アイコン表示領域に表示されるアイコン画像の数が増加すると、アイコン表示領域(A21,A22,A23,A24)の大きさ、つまり、表示領域内のアイコン表示領域の上下方向(同図の紙面上下方向)の長さは、長くなる。
 一方、表示領域内のアイコン表示領域の大きさが大きくなると、使用者情報表示領域の表示領域内での表示位置は、上方向(同図の紙面上側)に向けて移動する。図15-図18は、前述のとおり、アイコン表示領域に表示されるアイコンの数が増加している様子を示す。同図は、アイコン表示領域に表示されるアイコンの数の増加に伴い、使用者情報表示領域(A11,A12,A13,A14)の表示領域内での表示位置が、上側に移動していることを示す。
 このように、表示領域におけるアイコン表示領域の表示位置は、表示領域における使用者情報表示領域の表示位置と異なる。すなわち、本装置1は、表示領域内において、使用者情報表示領域とアイコン表示領域とが重ならない、つまり、使用者情報表示領域に表示される使用者情報と、アイコン表示領域に表示されるアイコン画像と、が重畳して表示されないようにする。
●特定領域●
 図19は、表示領域内の特定領域を示す模式図である。
 特定領域は、本装置1がアプリケーションの起動に用いる領域である。すなわち、本装置1は、特定領域における所定のタッチ操作を検出したとき、所定のアプリケーションを実行する。
 同図は、表示領域Aが第1領域A1と第2領域A2とを備えることを示す。特定領域は、第1領域A1と第2領域A2との集合である。第1領域A1と第2領域A2とは、表示領域内における直線状の領域である。第1領域A1の延在方向は、第2領域A2の延在方向と平行である。同図は、特定領域の延在方向が表示領域における左下と右上とを結ぶ方向であることを示す。つまり、特定領域の延在方向は、矩形状である表示領域の上下方向(同図の紙面上下方向)と左右方向(同図の紙面左右方向)とのいずれとも異なる。
 第1領域A1には、第1画像L1(図15)が表示される。第2領域A2には、第2画像L2(図15)が表示される。すなわち、本装置1は、第1画像L1に対する所定のタッチ操作を検出すると、第1領域A1に対応する第1アプリケーションを起動して実行する。本装置1は、第2画像L2に対する所定のタッチ操作を検出すると、第2領域A2に対応する第2アプリケーションを起動して実行する。
 なお、アプリケーションの起動は、例えば、未起動(停止中)のアプリケーションの起動のほか、いわゆるバックグラウンドで動作しているアプリケーションを、使用者が動作指示を可能な状態にする(例えば、アプリケーションの動作画面を表示領域に表示させる)ことも含む。
●ホーム画面(2)●
 図20は、表示領域に表示されるホーム画面の別の表示例を示す模式図である。
 同図は、表示領域内に表示されているホーム画面に、アイコン画像と、使用者情報と、第3画像L3と第4画像L4と、が含まれることを示す。アイコン画像の表示領域内の表示位置は、図15に示されたホーム画面における表示位置と同じである。使用者情報の表示領域内での表示位置は、図15に示されたホーム画面における表示位置とは異なり、表示領域の左側(同図の紙面左側)である。第3画像L3と第4画像L4との表示領域内での表示位置は、図15に示されたホーム画面における表示位置とは異なる。同図は、特定領域(表示領域内の第3画像L3と第4画像L4とが表示されている領域)の延在方向が表示領域における左上と右下とを結ぶ方向であることを示す。第3画像L3と第4画像L4とは、本発明における特定画像である。
 なお、表示領域内における特定領域(特定画像)の延在方向は、後述のとおり、使用者に指定される。すなわち、本装置1は、使用者に指定された図15または図20のいずれか一方に示される特定領域の延在方向の表示態様で、ホーム画面を表示する。
●アプリケーションの操作(1)●
 図21,図22は、本装置1におけるアプリケーションの操作の様子を示す模式図である。
 本装置1は、前述のアイコン画像に対する所定のタッチ操作に加えて、ホーム画面に表示されている第1画像L1または第2画像L2に対するタッチ操作を検出したとき、所定のアプリケーションを使用可能にする。
 図21は、第1画像L1が使用者の指Fでタッチ操作(スワイプ)されていることを示す。
 第1画像L1に対するタッチ操作の操作方向は、表示領域における第1画像L1の延在方向であり、矢印で示されている同図の紙面右上から左下に掛けてである。同図に示される第1画像L1に対するタッチ操作の操作方向は、本発明における第1方向である。
 同図は、タッチ操作されている第1画像L1の表示態様が、タッチ操作される前の第1画像L1の表示態様(図15)と異なることを示す。すなわち、タッチ操作されている(指Fが触れている)第1画像L1の大きさ(図23)は、タッチ操作される前(指Fが触れていない)第1画像L1の大きさ(図15)よりも大きい。換言すれば、タッチ操作されている第1画像L1の表示領域における上下方向の長さは、タッチ操作される前の第1画像L1の表示領域における上下方向の長さよりも長い。つまり、タッチ操作されている第1画像L1は、タッチ操作されていないときの第1画像L1が表示領域の下側に向けて伸びたように表示される。同図は、タッチ操作されている第1画像L1が、第2画像L2の上半分を覆うように表示されていることを示す。つまり、同図は、第1画像L1を第2画像L2に対して強調表示する。本装置1は、タッチ操作されている第1画像L1の表示態様を、タッチ操作されていない第1画像L1の表示態様と異ならせることで、第1画像L1に対するタッチ操作の有無を、使用者に視認させる。
 本装置1は、第1画像L1に対するタッチ操作が終了すると、第1画像L1に関連付けられている第1アプリケーションを実行する。
 図22は、第2画像L2が使用者の指Fでタッチ操作(スワイプ)されていることを示す。
 第2画像L2に対するタッチ操作の操作方向は、表示領域における第2画像L2の延在方向であり、矢印で示されている同図の紙面右下から左上に掛けてである。同図に示される第2画像L2に対するタッチ操作の操作方向は、本発明における第2方向である。第2方向は、前述の第1画像L1に対するタッチ操作の操作方向である第1方向と反対の方向である。
 同図は、タッチ操作されている第2画像L2の表示態様が、タッチ操作される前の第2画像L2の表示態様(図15)と異なることを示す。すなわち、タッチ操作されている(指Fが触れている)第2画像L2の大きさ(図22)は、タッチ操作される前(指Fが触れていない)第2画像L2の大きさ(図15)よりも大きい。換言すれば、タッチ操作されている第2画像L2の表示領域における上下方向の長さは、タッチ操作される前の第2画像L2の表示領域における上下方向の長さよりも長い。つまり、タッチ操作されている第2画像L2は、タッチ操作されていないときの第2画像L2が表示領域の上側に向けて伸びたように表示される。同図は、タッチ操作されている第2画像L2が、第1画像L1の下半分を覆うように表示されていることを示す。つまり、同図は、第2画像L2を第1画像L1に対して強調表示する。本装置1は、タッチ操作されている第2画像L2の表示態様を、タッチ操作されていない第2画像L2の表示態様と異ならせることで、第2画像L2に対するタッチ操作の有無を、使用者に視認させる。
 本装置1は、第2画像L2に対するタッチ操作が終了すると、第2画像L2に関連付づけられている第2アプリケーションを実行する。
 なお、本装置1は、図23や図24に示されるように、第1画像L1や第2画像L2に対するタッチ操作が検出されている間、第1アプリケーションや第2アプリケーションの機能説明を、表示領域に表示させてもよい。図23は、第1画像L1に対するタッチ操作が検出されている間、実行される第1アプリケーションの機能説明を示す文字「写真を撮る」が、第1画像L1に重畳して表示されていることを示す。図24は、第2画像L2に対するタッチ操作が検出されている間、実行される第2アプリケーションの機能説明を示す文字「スケジュールをひらく」が、第2画像L2に重畳して表示されていることを示す。
 このように、本装置1は、ホーム画面に表示されている第1画像L1上の第1方向のスワイプ、または、ホーム画面に表示されている第2画像L2上の第2方向のスワイプに応じて、第1アプリケーションまたは第2アプリケーションを実行することで、アプリケーションを簡便に使用可能にする。
 なお、本発明において、本装置1は、さらに、ホーム画面に表示されている第1画像L1上の第2方向のスワイプ、または、ホーム画面に表示されている第2画像L2上の第1方向のスワイプに応じて、第2アプリケーションまたは第1アプリケーションを実行してもよい。
●ホーム画面用の設定画面●
 図25-図27は、表示領域に表示されるホーム画面用の設定画面の表示例を示す模式図である。
 使用者は、設定画面を用いて、第1画像L1と第2画像L2とに対するタッチ操作に基づいて実行させたいアプリケーションを設定する。設定される情報は、記憶部3に記憶される。すなわち、本装置1は、記憶部3に記憶されている情報に基づいて、第1画像L1または第2画像L2に対するタッチ操作があったときに、第1アプリケーションまたは第2アプリケーションを使用可能にする。
 図25は、ホーム画面のデザインを使用者に指定させる画面である。
 同図は、ホーム画面のデザインとして、ホーム画面の背景画像、ストライプの向き(第1画像L1と第2画像L2、または、第3画像L3と第4画像L4)、キーカラー(第2画像L2または第4画像L4の表示色)、サブカラー(第1画像L1または第3画像L3の表示色)を指定可能であることを示す。同図は、ストライプの向きとして、右向き(第1画像L1と第2画像L2)が選択されていることを示す。
 ここで、ストライプの向き「右向き」が選択されたとき、使用者は、例えば、表示領域(タッチパネル)を自分に向けて右手で本装置1を把持し、右手の親指で特定領域(第1画像L1または第2画像L2)をタッチ操作する。一方、ストライプの向き「左向き」が選択されたとき、使用者は、例えば、表示領域(タッチパネル)を自分に向けて左手で本装置1を把持し、左手の親指で特定領域(第3画像L3または第4画像L4)をタッチ操作する。
 図26は、ショートカットを使用者に指定させる画面である。
 ショートカットは、第1画像L1または第2画像L2(つまり、特定領域)と、これらに対するタッチ操作があったときに使用可能にされるアプリケーションと、の関連付け(組合せ)のことである。同図は、第1画像L1に対して、機能説明を示す文字「写真を撮る」のアプリケーションが関連付けられていることを示す。同図は、第2画像L2に対して、機能説明を示す文字「スケジュールをひらく」のアプリケーションが関連付けられていることを示す。
 図27は、ショートカットとして指定可能な本装置1にインストールされているアプリケーションの機能説明の一覧が表示された画面である。
 同図は、ショートカットとして指定可能なアプリケーションの機能説明「メールをひらく」「メールを送る」「スケジュールをひらく」などが表示されていることを示す。使用者は、図26に示される画面内でショートカットを指定する際、図27の一覧の中から所望のアプリケーションの機能説明を指定する。同図は、機能説明「スケジュールをひらく」が指定されている様子を示す。
 なお、本発明において、タッチ操作により使用可能にされるアプリケーションは、機能説明「メールをひらく」「メールを送る」などに示されるとおり、いわゆるメールアプリケーションそのものに加えて、メールアプリケーションが備える個々の機能をも含む。つまり、例えば、機能説明「メールをひらく」に関連付けられた特定画像がタッチ操作されたとき、本装置1は、メールアプリケーションそのものを起動するのみならず、メールアプリケーションの「メールをひらく」機能を実行して、使用者にメールを閲覧させる画面(受信されたメールが表示された画面)を表示領域に表示させる。
●アプリケーションの操作(2)●
 図28-図33は、本装置1によるアプリケーションの別の操作を示す模式図である。
 本装置1は、前述のアイコン画像へのタッチ操作、特定画像に対する第1方向または第2方向のタッチ操作に加えて、以下に説明するとおり、表示領域における所定の方向(本発明における第3方向)へのタッチ操作(スワイプ)を検出したとき、所定のアプリケーションを使用可能にする。
 図28は、本装置1が表示領域における第3方向のタッチ操作(スワイプ)を検出したときに使用可能とされるTool(アプリケーション)を設定する設定画面の表示例の模式図である。
 同図は、ホーム画面と、各アプリケーションの動作画面と、の表示順序を示す。同図は、ホーム画面(図29)において第3方向(同図の紙面左方向)のタッチ操作が検出されると、本装置1が、アプリケーション「今日のスケジュール」の動作画面(図30)を表示領域に表示することを示す。同図は、アプリケーション「今日のスケジュール」の動作画面(図30)が表示されている表示領域において、第3方向のタッチ操作が検出されると、本装置1が、アプリケーション「時計」の動作画面(図31)を表示領域に表示することを示す。同図は、アプリケーション「時計」の動作画面(図31)が表示されている表示領域において、第3方向のタッチ操作が検出されると、本装置1が、アプリケーション「メモ」の動作画面(図32)を表示領域に表示することを示す。同図は、アプリケーション「メモ」の動作画面(図32)が表示されている表示領域において、第3方向のタッチ操作が検出されると、本装置1が、アプリケーション「電卓」の動作画面(図33)を表示領域に表示することを示す。
 同様に、同図は、表示領域において、第3方向と反対の方向(図29-図33における紙面右方向)のタッチ操作(スワイプ)を検出したときの各アプリケーションの動作画面の表示順序を示す。すなわち、例えば、アプリケーション「時計」の動作画面(図31)が表示されている表示領域において、第3方向と反対の方向のタッチ操作が検出されると、本装置1が、アプリケーション「今日のスケジュール」の動作画面(図30)を表示領域に表示することを示す。
 すなわち、本装置1は、複数のアプリケーションそれぞれの動作画面(表示画面)のうち1の動作画面を、第3方向または第3方向と反対の方向のスワイプごとに、順次、表示領域に表示する。本装置1は、複数のアプリケーションそれぞれの動作画面を特定する画面識別情報と、第3方向または第3方向と反対方向のスワイプ操作の操作順序とが関連付けられた画面情報を、記憶部3に記憶する。制御部5が使用者から受け付けた画面情報は、記憶部3に記憶される。本装置1は、第3方向または第3方向と反対の方向のスワイプが操作検出部4に検出されたとき、記憶部3に記憶されている画面情報を参照して、所定のアプリケーションの動作画面を表示領域に表示する。
 このように、本装置1は、ホーム画面または実行中の所定のアプリケーションの動作画面に対する、第3方向または第3方向と反対の方向へのスワイプに応じて所定のアプリケーションを実行することで、使用者が簡単な操作で必要とする動作画面を表示することができる。
●アプリケーションの操作(3)●
 図34-図42は、本装置1によるアプリケーションの別の操作を示す模式図である。
 本装置1は、前述のアイコン画像へのタッチ操作、特定画像に対する第1方向または第2方向のタッチ操作、表示領域における第3方向または第3方向と反対の方向のタッチ操作に加えて、以下に説明するとおり、表示領域における所定のタッチ操作(タップ)を検出したとき、所定のアプリケーションを使用可能にする。
 図34は、本装置1が表示領域におけるタッチ操作(タップ)を検出したときに使用可能とされるTool(アプリケーション)を示す模式図である。
 同図は、ホーム画面(図35,37,39,41)における所定のタッチ操作(タップ)の回数と、アプリケーションと、の関係を示す。同図は、表示領域におけるタッチ操作が2回のとき(図35)、アプリケーション「今日のスケジュール」の動作画面(図36)を表示領域に表示することを示す。同図は、表示領域におけるタッチ操作が3回のとき(図37)、アプリケーション「時計」の動作画面(図38)を表示領域に表示することを示す。同図は、表示領域におけるタッチ操作が4回のとき(図39)、アプリケーション「メモ」の動作画面(図40)を表示領域に表示することを示す。同図は、表示領域におけるタッチ操作が5回のとき(図41)、アプリケーション「電卓」の動作画面(図42)を表示領域に表示することを示す。
 ここで、所定のアプリケーションの動作画面を呼び出すタッチ操作の回数に1回が含まれていないのは、使用者の意図しないアプリケーションの起動を防止するためである。すなわち、本装置1は、表示領域にホーム画面が表示されているときに、使用者の指などが表示領域に偶然に触れてアプリケーションが起動することを防止する。
 すなわち、本装置1は、複数のアプリケーションそれぞれの動作画面(表示画面)のうち1の動作画面を、ホーム画面に対するタップの回数に基づいて、表示領域に表示する。本装置1は、複数のアプリケーションそれぞれの動作画面を特定する画面識別情報と、ホーム画面に対するタップの回数とが関連付けられた画面情報を、記憶部3に記憶する。制御部5が使用者から受け付けた画面情報は、記憶部3に記憶される。本装置1は、ホーム画面に対するタップが操作検出部4に検出されたとき、記憶部3に記憶されている画面情報を参照して、所定のアプリケーションの動作画面を表示領域に表示する。
 このように、本装置1は、ホーム画面に対するタップ回数に応じて所定のアプリケーションを実行することで、使用者が簡単な操作で必要とする動作画面を表示することができる。
 なお、本装置1がホーム画面に対するタップに応じて表示領域に表示するアプリケーションの動作画面(図36,38,40,42)は、前述のホーム画面に対するスワイプにより順次表示領域に表示されるアプリケーションの動作画面(図30,31,32,33)に対応する。すなわち、制御部5は、ホーム画面に対するタップの回数がN+1回(N=1,2,3,4)のときに表示領域に表示されるアプリケーションの動作画面を、ホーム画面に対するN回のスワイプで表示領域に表示されるアプリケーションの動作画面として決定する。
●まとめ●
 以上説明された実施の形態によれば、本装置1において、制御部5は、操作検出部4により検出された表示領域に対するスワイプ操作の操作方向が第1方向のとき、第1アプリケーションを実行し、操作検出部4により検出された表示領域に対するスワイプ操作の操作方向が第1方向と反対の第2方向のとき、第2アプリケーションを実行する。すなわち、例えば、使用者が本装置1を右手で把持しているとき、使用者は右手の親指で表示領域を第1方向または第2方向にスワイプすることで、第1アプリケーションまたは第2アプリケーションを実行できる。つまり、使用者は、例えば、本装置1の表示領域を見ることなく、第1アプリケーションまたは第2アプリケーションを実行できる。このように、本装置1は、アプリケーションを簡便に使用可能にする。
●本装置と本プログラムと本方法の特徴●
 これまでに説明された本装置と本プログラムと本方法の特徴は、以下にまとめて記載される。
●本装置の特徴
 本装置は、
 アプリケーションの実行画面が表示される表示領域(例えば、図2の表示領域A)を備える表示装置と、
 前記表示領域における使用者のスワイプ操作を検出する操作検出部(例えば、図1の操作検出部4)と、
 前記スワイプ操作に基づいて、前記アプリケーションを実行する制御部(例えば、図1の制御部5)と、
を有してなり、
 前記表示領域は、
 特定領域(例えば、図19のA1,A2)と、
 前記特定領域とは異なる非特定領域(例えば、図19の表示領域Aのうち、領域A1,A2とは異なる領域)と、
を含み、
 前記操作検出部が前記特定領域におけるスワイプ操作を検出したとき、前記制御部は、前記スワイプ操作のスワイプ方向に基づいて、前記アプリケーションを実行し、
 前記アプリケーションは、
 第1アプリケーション(例えば、図23の「写真を撮る」)と、
 第2アプリケーション(例えば、図24の「スケジュールをひらく」)と、
を含み、
 前記スワイプ方向は、
 第1方向(例えば、図23の矢印の方向)と、
 前記第1方向と反対の第2方向(例えば、図24の矢印の方向)と、
を含み、
 前記制御部は、
 前記操作検出部に検出された前記スワイプ操作の操作方向が前記第1方向のとき、前記第1アプリケーションを実行し、
 前記操作検出部に検出された前記スワイプ操作の操作方向が前記第2方向のとき、前記第2アプリケーションを実行する、
ことを特徴とする。
 本装置は、
 前記表示領域内の前記特定領域の位置を示す特定画像を前記表示領域に表示する表示部(例えば、表示部7)、
を有してなり、
 前記特定画像は、
 前記第1方向に沿う直線状の第1画像(例えば、図15の第1画像L1)と、
 前記第2方向に沿う直線状の第2画像(例えば、図15の第2画像L2)と、
を含み、
 前記第1画像の延在方向は、前記第2画像の延在方向と平行である、
ものでもよい。
 本装置において、
 前記制御部は、
 前記操作検出部が、前記第1画像上の前記第1方向の前記スワイプ操作を検出したとき、前記第1アプリケーションを実行し、
 前記操作検出部が、前記第2画像上の前記第2方向の前記スワイプ操作を検出したとき、前記第2アプリケーションを実行する、
ものでもよい。
 本装置において、
 前記制御部は、
 前記操作検出部が、前記第2画像上の前記第1方向の前記スワイプ操作を検出したとき、前記第1アプリケーションを実行し、
 前記操作検出部が、前記第1画像上の前記第2方向の前記スワイプ操作を検出したとき、前記第2アプリケーションを実行する、
ものでもよい。
 本装置において、
 前記表示領域は、矩形の形状を備え、
 前記矩形は、
 上下方向(例えば、図15の紙面上下方向)と、
 前記上下方向に直交する左右方向(例えば、図15の紙面左右方向)と、
を備え、
 前記第1方向は、前記上下方向と前記左右方向のいずれとも異なり、
 前記第2方向は、前記上下方向と前記左右方向のいずれとも異なる、
ものでもよい。
 本装置は、
 前記制御部が前記アプリケーションを実行する条件となる前記スワイプ方向を、前記使用者に指定させるスワイプ方向設定部、
を有してなる、
ものでもよい。
 本装置は、
 前記アプリケーションごとの関連情報を記憶する記憶部(例えば、記憶部3)、
を有してなり、
 前記表示部は、前記操作検出部が前記特定領域における前記スワイプ操作を検出したとき、前記記憶部に記憶されている前記関連情報を、前記表示領域に表示する、
ものでもよい。
 本装置は、
 前記アプリケーションごとの関連情報は、前記アプリケーションの機能説明を含み、
 前記表示部は、
 前記操作検出部が前記第1操作方向の前記スワイプ操作を検出したとき、前記第1アプリケーションの機能説明(例えば、図23の「写真を撮る」)を、前記表示領域に表示し、
 前記操作検出部が前記第2操作方向の前記スワイプ操作を検出したとき、前記第2アプリケーションの機能説明(例えば、図24の「スケジュールをひらく」)を、前記表示領域に表示する、
ものでもよい。
 本装置は、
 前記表示領域に表示される前記特定画像の表示態様を決定する表示制御部(例えば、表示制御部4)、
を有してなり、
 前記表示制御部は、
 前記操作検出部に検出された前記スワイプ操作の操作方向が前記第1方向のとき、前記第1画像が前記第2画像に対して強調表示(例えば、図23の第1画像L1が第2画像L2の上半分に覆うように表示)されるように、前記第1画像の前記表示態様を決定し、
 前記操作検出部に検出された前記スワイプ操作の操作方向が前記第2方向のとき、前記第2画像が前記第1画像に対して強調表示(例えば、図24の第2画像L2が第1画像L1の下半分に覆うように表示)されるように、前記第2画像の前記表示態様を決定する、
ものでもよい。
 本装置において、
 前記操作検出部は、
 前記表示領域における第3方向(例えば、図29、30,31,32の矢印の方向)のスワイプ操作と、
 前記表示領域におけるタップ操作(例えば、図35,37,39,41)と、
を検出し、
 前記第3方向は、前記第1方向と前記第2方向それぞれと異なり、
 前記表示部は、
 前記操作検出部が前記第3方向のスワイプ操作を検出したとき、複数の表示画面(例えば、図30,31,32,33)のうちの1の前記表示画面を、前記スワイプ操作ごとに、順次、前記表示領域に表示し、
 前記操作検出部が前記タップ操作を検出したとき、複数の前記表示画面(例えば、図36,38,40,42)のうち、前記タップ操作のタップ回数に対応する1の前記表示画面のみを、直接、前記表示領域に表示する、
するものでもよい。
 本装置は、
 複数の前記表示画面それぞれを特定する画面識別情報と、
 前記第3方向のスワイプ操作の操作順序と、
が関連付けれられた画面情報を記憶する記憶部、
を有してなり、
 前記制御部は、前記操作検出部が前記第3方向のスワイプ操作または前記タップ操作を検出したとき、前記画面情報を参照して、前記表示領域に表示させる前記表示画面を決定する、
ものでもよい。
 本装置において、
 前記制御部は、N回(例えば、1,2,3,4回)の前記スワイプ操作で前記表示領域に表示される前記表示画面を、前記タップ回数がN+1回(例えば、2,3,4,5回)の前記タップ操作のときに前記表示領域に表示させる前記表示画面として決定する、
するものでもよい。
 本装置は、
 実行される機能が制限されるロック状態を備え、
 前記表示部は、
 前記ロック状態のとき、所定情報(例えば、図10のカレンダー)または告知情報(例えば、図9のメッセージ)を、前記表示領域に表示可能であり、
 前記操作検出部は、第4方向(例えば、図9の矢印の方向)のスワイプ操作を検出し、
 前記第4方向は、前記第1方向と前記第2方向と前記第3方向それぞれと異なり、
 前記告知情報が前記表示領域に表示されるとき(例えば、図9)に、前記所定情報は、前記表示領域への表示が停止され、
 前記表示部は、前記表示領域に前記告知情報が表示されているときに前記操作検出部が前記第4方向のスワイプ操作を検出したとき(例えば、図9)、前記告知情報の前記表示領域への表示を停止すると共に、前記所定情報を前記表示領域に表示する(例えば、図10)、
するものでもよい。
 本装置において、
 前記表示領域は、
 前記アプリケーションごとのアイコンが表示されるアイコン表示領域(例えば、図15の領域A21)と、
 前記使用者が編集可能な使用者情報が表示される使用者情報表示領域(例えば、図15の領域A11)と、
を含み、
 前記表示領域における前記アイコン表示領域の表示位置は、前記表示領域における前記使用者情報表示領域の表示位置と異なり、
 前記表示領域における前記アイコン表示領域の大きさは、前記アイコンの数に応じて変化(例えば、図15,16,17,18)し、
 前記表示領域における前記使用者情報表示領域の表示位置は、前記表示領域における前記アイコン表示領域の大きさに応じて変化(例えば、図15,16,17,18)する、
するものでもよい。
 本装置において、
 前記表示領域における前記アイコン表示領域の表示位置は、前記表示領域における前記特定領域の表示位置と異なる、
ものでもよい。
●本プログラムの特徴
 本プログラムは、コンピュータを、本装置として機能させる、
ことを特徴とする。
●本方法の特徴
 本方法は、
 アプリケーションの実行画面が表示される表示領域(例えば、図2の表示領域A)を備える表示装置(例えば、図1の表示装置2)、を有してなる情報処理装置(例えば、図1の情報処理装置1)により実行される情報処理方法であって、
 前記情報処理装置が、
 前記表示領域における使用者のスワイプ操作を検出する操作検出ステップと、
 前記スワイプ操作に基づいて、前記アプリケーションを実行する制御ステップと、
を有してなり、
 前記表示領域は、
 特定領域(例えば、図19の領域A1,A2)と、
 前記特定領域とは異なる非特定領域(例えば、図19の領域A内の領域A1,A2と異なる領域)と、
を含み、
 前記操作検出ステップにおいて前記特定領域におけるスワイプ操作が検出されたとき、前記制御ステップは、前記スワイプ操作のスワイプ方向に基づいて、前記アプリケーションを実行し、
 前記アプリケーションは、
 第1アプリケーション(例えば、図23の「写真を撮る」)と、
 第2アプリケーション(例えば、図24の「スケジュールをひらく」)と、
を含み、
 前記スワイプ方向は、
 第1方向(例えば、図23の矢印の方向)と、
 前記第1方向と反対の第2方向(例えば、図24の矢印の方向)と、
を含み、
 前記制御ステップは、
 前記操作検出部に検出された前記スワイプ操作の操作方向が前記第1方向のとき、前記第1アプリケーションを実行し、
 前記操作検出部に検出された前記スワイプ操作の操作方向が前記第2方向のとき、前記第2アプリケーションを実行する、
ことを特徴とする。
  1 情報処理装置
  2 表示装置(タッチパネル)
  3 記憶部
  4 操作検出部
  5 制御部
  6 表示制御部
  7 表示部
  A 表示領域

Claims (17)

  1.  アプリケーションの実行画面が表示される表示領域を備える表示装置と、
     前記表示領域における使用者のスワイプ操作を検出する操作検出部と、
     前記スワイプ操作に基づいて、前記アプリケーションを実行する制御部と、
    を有してなり、
     前記表示領域は、
     特定領域と、
     前記特定領域とは異なる非特定領域と、
    を含み、
     前記操作検出部が前記特定領域におけるスワイプ操作を検出したとき、前記制御部は、前記スワイプ操作のスワイプ方向に基づいて、前記アプリケーションを実行し、
     前記アプリケーションは、
     第1アプリケーションと、
     第2アプリケーションと、
    を含み、
     前記スワイプ方向は、
     第1方向と、
     前記第1方向と反対の第2方向と、
    を含み、
     前記制御部は、
     前記操作検出部に検出された前記スワイプ操作の操作方向が前記第1方向のとき、前記第1アプリケーションを実行し、
     前記操作検出部に検出された前記スワイプ操作の操作方向が前記第2方向のとき、前記第2アプリケーションを実行する、
    ことを特徴とする情報処理装置。
  2.  前記表示領域内の前記特定領域の位置を示す特定画像を前記表示領域に表示する表示部、
    を有してなり、
     前記特定画像は、
     前記第1方向に沿う直線状の第1画像と、
     前記第2方向に沿う直線状の第2画像と、
    を含み、
     前記第1画像の延在方向は、前記第2画像の延在方向と平行である、
    請求項1記載の情報処理装置。
  3.  前記制御部は、
     前記操作検出部が、前記第1画像上の前記第1方向の前記スワイプ操作を検出したとき、前記第1アプリケーションを実行し、
     前記操作検出部が、前記第2画像上の前記第2方向の前記スワイプ操作を検出したとき、前記第2アプリケーションを実行する、
    請求項2記載の情報処理装置。
  4.  前記制御部は、
     前記操作検出部が、前記第2画像上の前記第1方向の前記スワイプ操作を検出したとき、前記第1アプリケーションを実行し、
     前記操作検出部が、前記第1画像上の前記第2方向の前記スワイプ操作を検出したとき、前記第2アプリケーションを実行する、
    請求項3記載の情報処理装置。
  5.  前記表示領域は、矩形の形状を備え、
     前記矩形は、
     上下方向と、
     前記上下方向に直交する左右方向と、
    を備え、
     前記第1方向は、前記上下方向と前記左右方向のいずれとも異なり、
     前記第2方向は、前記上下方向と前記左右方向のいずれとも異なる、
    請求項2記載の情報処理装置。
  6.  前記制御部が前記アプリケーションを実行する条件となる前記スワイプ方向を、前記使用者に指定させるスワイプ方向設定部、
    を有してなる、
    請求項2記載の情報処理装置。
  7.  前記アプリケーションごとの関連情報を記憶する記憶部、
    を有してなり、
     前記表示部は、前記操作検出部が前記特定領域における前記スワイプ操作を検出したとき、前記記憶部に記憶されている前記関連情報を、前記表示領域に表示する、
    請求項2記載の情報処理装置。
  8.  前記アプリケーションごとの関連情報は、前記アプリケーションの機能説明を含み、
     前記表示部は、
     前記操作検出部が前記第1操作方向の前記スワイプ操作を検出したとき、前記第1アプリケーションの機能説明を、前記表示領域に表示し、
     前記操作検出部が前記第2操作方向の前記スワイプ操作を検出したとき、前記第2アプリケーションの機能説明を、前記表示領域に表示する、
    請求項7記載の情報処理装置。
  9.  前記表示領域に表示される前記特定画像の表示態様を決定する表示制御部、
    を有してなり、
     前記表示制御部は、
     前記操作検出部に検出された前記スワイプ操作の操作方向が前記第1方向のとき、前記第1画像が前記第2画像に対して強調表示されるように、前記第1画像の前記表示態様を決定し、
     前記操作検出部に検出された前記スワイプ操作の操作方向が前記第2方向のとき、前記第2画像が前記第1画像に対して強調表示されるように、前記第2画像の前記表示態様を決定する、
    請求項2記載の情報処理装置。
  10.  前記操作検出部は、
     前記表示領域における第3方向のスワイプ操作と、
     前記表示領域におけるタップ操作と、
    を検出し、
     前記第3方向は、前記第1方向と前記第2方向それぞれと異なり、
     前記表示部は、
     前記操作検出部が前記第3方向のスワイプ操作を検出したとき、複数の表示画面のうちの1の前記表示画面を、前記スワイプ操作ごとに、順次、前記表示領域に表示し、
     前記操作検出部が前記タップ操作を検出したとき、複数の前記表示画面のうち、前記タップ操作のタップ回数に対応する1の前記表示画面のみを、直接、前記表示領域に表示する、
    請求項2記載の情報処理装置。
  11.  複数の前記表示画面それぞれを特定する画面識別情報と、
     前記第3方向のスワイプ操作の操作順序と、
    が関連付けれられた画面情報を記憶する記憶部、
    を有してなり、
     前記制御部は、前記操作検出部が前記第3方向のスワイプ操作または前記タップ操作を検出したとき、前記画面情報を参照して、前記表示領域に表示させる前記表示画面を決定する、
    請求項10記載の情報処理装置。
  12.  前記制御部は、N回(N≧1)の前記スワイプ操作で前記表示領域に表示される前記表示画面を、前記タップ回数がN+1回の前記タップ操作のときに前記表示領域に表示させる前記表示画面として決定する、
    請求項11記載の情報処理装置。
  13.  実行される機能が制限されるロック状態を備え、
     前記表示部は、
     前記ロック状態のとき、所定情報または告知情報を、前記表示領域に表示可能であり、
     前記操作検出部は、第4方向のスワイプ操作を検出し、
     前記第4方向は、前記第1方向と前記第2方向と前記第3方向それぞれと異なり、
     前記告知情報が前記表示領域に表示されるときに、前記所定情報は、前記表示領域への表示が停止され、
     前記表示部は、前記表示領域に前記告知情報が表示されているときに前記操作検出部が前記第4方向のスワイプ操作を検出したとき、前記告知情報の前記表示領域への表示を停止すると共に、前記所定情報を前記表示領域に表示する、
    請求項11記載の情報処理装置。
  14.  前記表示領域は、
     前記アプリケーションごとのアイコンが表示されるアイコン表示領域と、
     前記使用者が編集可能な使用者情報が表示される使用者情報表示領域と、
    を含み、
     前記表示領域における前記アイコン表示領域の表示位置は、前記表示領域における前記使用者情報表示領域の表示位置と異なり、
     前記表示領域における前記アイコン表示領域の大きさは、前記アイコンの数に応じて変化し、
     前記表示領域における前記使用者情報表示領域の表示位置は、前記表示領域における前記アイコン表示領域の大きさに応じて変化する、
    請求項1記載の情報処理装置。
  15.  前記表示領域における前記アイコン表示領域の表示位置は、前記表示領域における前記特定領域の表示位置と異なる、
    請求項14記載の情報処理装置。
  16.  コンピュータを、請求項1記載の情報処理装置として機能させる、
    ことを特徴とする情報処理プログラム。
  17.  アプリケーションの実行画面が表示される表示領域を備える表示装置、を有してなる情報処理装置により実行される情報処理方法であって、
     前記情報処理装置が、
     前記表示領域における使用者のスワイプ操作を検出する操作検出ステップと、
     前記スワイプ操作に基づいて、前記アプリケーションを実行する制御ステップと、
    を有してなり、
     前記表示領域は、
     特定領域と、
     前記特定領域とは異なる非特定領域と、
    を含み、
     前記操作検出ステップにおいて前記特定領域におけるスワイプ操作が検出されたとき、前記制御ステップは、前記スワイプ操作のスワイプ方向に基づいて、前記アプリケーションを実行し、
     前記アプリケーションは、
     第1アプリケーションと、
     第2アプリケーションと、
    を含み、
     前記スワイプ方向は、
     第1方向と、
     前記第1方向と反対の第2方向と、
    を含み、
     前記制御ステップは、
     前記操作検出部に検出された前記スワイプ操作の操作方向が前記第1方向のとき、前記第1アプリケーションを実行し、
     前記操作検出部に検出された前記スワイプ操作の操作方向が前記第2方向のとき、前記第2アプリケーションを実行する、
    ことを特徴とする情報処理方法。
PCT/JP2021/041041 2021-11-08 2021-11-08 情報処理装置と情報処理プログラムと情報処理方法 WO2023079758A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/041041 WO2023079758A1 (ja) 2021-11-08 2021-11-08 情報処理装置と情報処理プログラムと情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/041041 WO2023079758A1 (ja) 2021-11-08 2021-11-08 情報処理装置と情報処理プログラムと情報処理方法

Publications (1)

Publication Number Publication Date
WO2023079758A1 true WO2023079758A1 (ja) 2023-05-11

Family

ID=86241128

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/041041 WO2023079758A1 (ja) 2021-11-08 2021-11-08 情報処理装置と情報処理プログラムと情報処理方法

Country Status (1)

Country Link
WO (1) WO2023079758A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217752A (ja) * 2008-03-12 2009-09-24 Kyocera Corp 情報端末装置
JP2013008340A (ja) * 2011-06-27 2013-01-10 Kyocera Corp 携帯端末装置、プログラムおよび表示制御方法
WO2013039046A1 (ja) * 2011-09-16 2013-03-21 Necカシオモバイルコミュニケーションズ株式会社 ロック解除機能を有する情報処理装置
JP2013092891A (ja) * 2011-10-25 2013-05-16 Kyocera Corp 装置、方法、及びプログラム
JP2016071469A (ja) * 2014-09-29 2016-05-09 シャープ株式会社 表示装置
JP2017157057A (ja) * 2016-03-03 2017-09-07 京セラドキュメントソリューションズ株式会社 表示制御装置
JP2018092661A (ja) * 2011-10-07 2018-06-14 パナソニック株式会社 撮影装置
JP2020155945A (ja) * 2019-03-20 2020-09-24 富士ゼロックス株式会社 情報処理装置及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217752A (ja) * 2008-03-12 2009-09-24 Kyocera Corp 情報端末装置
JP2013008340A (ja) * 2011-06-27 2013-01-10 Kyocera Corp 携帯端末装置、プログラムおよび表示制御方法
WO2013039046A1 (ja) * 2011-09-16 2013-03-21 Necカシオモバイルコミュニケーションズ株式会社 ロック解除機能を有する情報処理装置
JP2018092661A (ja) * 2011-10-07 2018-06-14 パナソニック株式会社 撮影装置
JP2013092891A (ja) * 2011-10-25 2013-05-16 Kyocera Corp 装置、方法、及びプログラム
JP2016071469A (ja) * 2014-09-29 2016-05-09 シャープ株式会社 表示装置
JP2017157057A (ja) * 2016-03-03 2017-09-07 京セラドキュメントソリューションズ株式会社 表示制御装置
JP2020155945A (ja) * 2019-03-20 2020-09-24 富士ゼロックス株式会社 情報処理装置及びプログラム

Similar Documents

Publication Publication Date Title
JP7236497B2 (ja) 一般的なデバイス機能にアクセスするためのデバイス及び方法
TWI536243B (zh) 電子裝置、此電子裝置的控制方法以及電腦程式產品
US10936153B2 (en) Method and apparatus for providing a user interface on a device enabling selection of operations to be performed in relation to content
KR101563150B1 (ko) 잠금 화면에서 단축 기능을 제공하는 방법 및 그를 이용한 휴대용 단말기
US10698567B2 (en) Method and apparatus for providing a user interface on a device that indicates content operators
JP5613208B2 (ja) 電子デバイスのユーザ入力を目的とした方法、デバイス、コンピュータ・プログラムおよびグラフィカル・ユーザ・インターフェース
US9081498B2 (en) Method and apparatus for adjusting a user interface to reduce obscuration
US20140235222A1 (en) Systems and method for implementing multiple personas on mobile technology platforms
JP5922522B2 (ja) 携帯端末
US10887193B2 (en) User interfaces for updating network connection settings of external devices
US20130227490A1 (en) Method and Apparatus for Providing an Option to Enable Multiple Selections
US20130227413A1 (en) Method and Apparatus for Providing a Contextual User Interface on a Device
KR20130093043A (ko) 터치 및 스와이프 내비게이션을 위한 사용자 인터페이스 방법 및 모바일 디바이스
US20130227454A1 (en) Method and Apparatus for Providing an Option to Undo a Delete Operation
TW201227393A (en) Method for unlocking screen and executing application program
TW201337721A (zh) 手持式裝置及其相關控制方法
CN107667336B (zh) 用于控制通知的方法及其电子设备
KR20130093723A (ko) 디스플레이 장치 및 그 잠금 해제 방법
WO2023079758A1 (ja) 情報処理装置と情報処理プログラムと情報処理方法
JP6130922B2 (ja) 電子機器及び制御プログラム並びに電子機器の動作方法
KR20130093719A (ko) 디스플레이 장치 및 그 잠금 해제 방법
CN110945469A (zh) 触摸输入设备及方法
US11567650B1 (en) User interfaces for managing exposure notifications
KR20120094728A (ko) 유저인터페이스 제공 방법 및 이를 이용한 휴대 단말기
WO2019038774A1 (en) SYSTEMS AND METHODS FOR PROVIDING A SINGLE TOUCH GRAPHICAL USER INTERFACE IN COMPUTERIZED DEVICES

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21962763

Country of ref document: EP

Kind code of ref document: A1