WO2020170461A1 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
WO2020170461A1
WO2020170461A1 PCT/JP2019/006928 JP2019006928W WO2020170461A1 WO 2020170461 A1 WO2020170461 A1 WO 2020170461A1 JP 2019006928 W JP2019006928 W JP 2019006928W WO 2020170461 A1 WO2020170461 A1 WO 2020170461A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
area
application
screen
control unit
Prior art date
Application number
PCT/JP2019/006928
Other languages
English (en)
French (fr)
Inventor
将彦 内藤
照孝 木村
貴史 邉見
優美 小澤
憲司 横山
宏昭 足立
圭史 土屋
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/430,647 priority Critical patent/US11789589B2/en
Priority to PCT/JP2019/006928 priority patent/WO2020170461A1/ja
Priority to JP2021501375A priority patent/JP7342937B2/ja
Priority to EP19915692.8A priority patent/EP3929715B1/en
Publication of WO2020170461A1 publication Critical patent/WO2020170461A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Definitions

  • the present disclosure relates to an information processing device and an information processing method.
  • Patent Document 1 discloses a technique for appropriately activating one of the windows.
  • Patent Document 1 does not consider displaying windows of a plurality of applications so that they can be referred to at the same time.
  • split display information related to screen split display of windows of a plurality of applications on a display screen is displayed on the display screen, and based on a subsequent operation to the displayed split display information.
  • a control unit that divides and displays the windows of the selected plurality of applications into at least a first area and a second area on the display screen, and the subsequent operation is performed by the screen split display.
  • An information processing apparatus including an operation of selecting the application to be executed is provided.
  • the processor causes the display screen to display the split display information related to the screen split display of the windows of the plurality of applications on the display screen based on the trigger operation, and the displayed split display information is displayed. Displaying the windows of the selected plurality of applications in at least a first area and a second area on the display screen based on a subsequent operation to the screen.
  • An information processing method including an operation of selecting the application in which split display is executed is provided.
  • FIG. 6 is a diagram for describing an example of determination control of a first region and a second region on a display screen having a screen dividing line as a boundary by the control unit 150 according to the same embodiment. It is a figure for demonstrating an example of the display control of the window of one application by the control part 150 which concerns on the same embodiment.
  • FIG. 9 is a diagram for explaining an example of screen split display control based on an overlay image by the control unit 150 according to the embodiment.
  • FIG. 9 is a diagram for explaining an example of screen split display control based on an overlay image by the control unit 150 according to the embodiment.
  • FIG. 9 is a diagram for explaining an example of screen split display control based on an overlay image by the control unit 150 according to the embodiment.
  • FIG. 9 is a diagram for explaining an example of screen split display control based on an overlay image by the control unit 150 according to the embodiment. It is a figure for explaining an example of brightness adjustment processing of the 1st field and the 2nd field by control part 150 concerning the embodiment.
  • FIG. 9 is a diagram for explaining an example of the flow of operation of screen split display control based on a trigger operation on the side surface by the control unit 150 according to the embodiment.
  • FIG. 6 is a diagram for explaining an example of the flow of operations of screen split display control based on a trigger operation on an icon on the display screen by the control unit 150 according to the embodiment.
  • FIG. 9 is a diagram for explaining an example of screen split display control based on an overlay image by the control unit 150 according to the embodiment.
  • FIG. 8 is a diagram for explaining an example of an operation flow of display control of a window of an application in character input by the control unit 150 according to the embodiment.
  • FIG. 9 is a diagram for explaining an example of the operation flow of a screen division display process based on an overlay image by the control unit 150 according to the embodiment. It is a figure for explaining an example of the flow of the operation concerning the brightness adjustment of the 1st field and the 2nd field by control part 150 concerning the embodiment. It is a figure for explaining the modification concerning the embodiment. It is a figure for explaining the modification concerning the embodiment.
  • FIG. 3 is a block diagram showing a hardware configuration example of an information processing terminal 10 according to an embodiment of the present disclosure.
  • the present disclosure has been made in view of the above circumstances, and in use of split screen display of windows of multiple applications by display control that can intuitively perform an operation related to split screen display of multiple applications.
  • the purpose is to improve convenience.
  • FIG. 1 is a diagram illustrating an example of an external configuration of an information processing terminal 10 of the present disclosure.
  • the front side of the information processing terminal 10 is shown on the left side of FIG. 1. Further, the back side of the information processing terminal 10 is shown on the right side of FIG.
  • the information processing terminal 10 is, for example, a smartphone. Further, the information processing terminal 10 may be a tablet terminal.
  • the information processing terminal 10 includes a display 160.
  • the display 160 covers the sensor unit 110 described later. With this configuration, the information processing terminal 10 can detect that the user's finger touches the display 160.
  • the display 160 may cover part or all of the side surface of the information processing terminal 10.
  • the information processing terminal 10 can control the content of the display screen based on the user input.
  • the information processing terminal 10 can use a so-called GUI (Graphical User Interface) to display split display information related to split screen display of an application on the display 160.
  • GUI Graphic User Interface
  • the split display information refers to, for example, an icon corresponding to a predetermined application, information for prompting the user U to select an application for displaying a window, or the like.
  • the information processing terminal 10 may include an illuminance sensor as a part of the input unit 120.
  • FIG. 2 is a diagram for explaining an example of a functional configuration of the information processing terminal 10 according to the present embodiment.
  • the information processing terminal 10 is an information processing device including a sensor unit 110, an input unit 120, a storage unit 130, a control unit 150, a display 160, a specifying unit 170, and a communication unit 180.
  • the sensor unit 110 has a function of detecting contact of the user's finger with the information processing terminal 10.
  • the sensor unit 110 can detect an operation performed by the user on the front surface and the side surface of the information processing terminal 10.
  • the sensor unit 110 is realized by, for example, a capacitance type touch sensor or a pressure sensitive type touch sensor.
  • the sensitivity of the touch sensor arranged directly below the front surface of the information processing terminal in the direction of the side surface can be improved.
  • the operation using the side surface may be realized by setting it high. In this case, by setting the sensitivity of the side surface portion of the information processing terminal 10 to be higher than that of the touch sensors in other areas, the operation using the side surface is realized.
  • the sensor unit 110 can detect a trigger operation by the user.
  • the trigger operation here means an operation used to display the application window by dividing the screen.
  • the trigger operation specifically means a double tap, a slide, a swipe, or the like.
  • the input unit 120 includes various sensors such as an illuminance sensor, an acceleration sensor, and a position information sensor, and has a function of acquiring data using the various sensors.
  • the input unit 120 may provide the acquired data to the control unit 150 and the specifying unit 170 described later.
  • the illuminance information detected by the illuminance sensor is used for the adjustment processing of the brightness of the display screen of the display 160 by the control unit 150.
  • the storage unit 130 is a storage area for temporarily or permanently storing various programs and data.
  • the storage unit 130 may store information related to various applications, for example.
  • the storage unit 130 may store a program for executing an application, management data for managing various settings, and the like.
  • the above is merely an example, and the type of data stored in the storage unit 130 is not particularly limited.
  • Control unit 150 The information processing terminal 10 according to the present embodiment has a function of controlling each configuration.
  • the control unit 150 controls, for example, starting and stopping of each component.
  • control unit 150 causes the display screen to display the split display information related to the screen split display of the windows of the plurality of applications on the display screen based on the trigger operation, and based on the subsequent operation for the displayed split display information.
  • the application that has not been started out of the selected plurality of applications is started up, and the windows of the selected plurality of applications are divided into at least the first area and the second area on the display screen and displayed. It has the function of As described above, the divided display information is, for example, an icon corresponding to a predetermined application, information that presents the user U with a list of applications that display windows, or the like.
  • the trigger operation includes, for example, a slide operation on the side of the display screen and a long press operation on an icon displayed on the display screen.
  • the control unit 150 causes the display 160 to display the split display information corresponding to the trigger operation by the user U detected by the sensor unit 110.
  • the subsequent operation is an operation for the split display information displayed by the trigger operation, and is an operation for selecting the application in which the screen split display is executed.
  • the control unit 150 causes the display 160 to display a window of a predetermined application in the first area or the second area on the display screen based on the subsequent operation detected by the sensor unit 110.
  • the control unit 150 starts to display the window of the application that has not been activated on the display 160, the control unit 150 first executes the activation process of the application.
  • the application for which the split screen display is executed may be selected based on not only the subsequent operation but also the trigger operation.
  • the first area and the second area are predetermined areas in the display screen displayed by the display 160.
  • the first region may be a region above the display screen
  • the second region may be a region different from the first region, that is, a region below the display screen.
  • the control unit 150 changes the sizes of the first area and the second area based on, for example, the operation of the user U, after displaying the application window in the first area and the second area. You may.
  • the display screen may be divided into the first area and the second area.
  • the left area of the display 160. May be defined as the first area and the right area may be defined as the second area.
  • control unit 150 A specific example of display control of windows of a plurality of applications by the control unit 150 will be described later.
  • the display 160 is a touch panel having a function of displaying split display information and application windows on the display screen under the control of the control unit 150.
  • the specifying unit 170 has a function of specifying a predetermined application based on a predetermined reference.
  • the predetermined reference means, for example, the current time, the current location, the frequency of use of various applications, and the like.
  • the specifying unit 170 may specify, for example, an application that is used more frequently than other applications among various applications stored in the storage unit 130.
  • the identifying unit 170 may identify an application by using a model constructed by machine learning of an operation on the information processing terminal 10 by a user or a predetermined standard.
  • the machine learning may be machine learning using a neural network such as deep learning.
  • the constructed model may be stored in the storage unit 130.
  • the identifying unit 170 may separately identify the application to be displayed in the first area and the application to be displayed in the second area by using machine learning. This is because, for example, when two applications are arranged above and below the display 160, the application that the user wants to arrange above and the application that the user wants to arrange below may be different.
  • machine learning is used to specify the application to be displayed in the left area and the application to be displayed in the right area. It may be specified separately.
  • the identifying unit 170 may identify another application based on the application.
  • the other application is, for example, an application that is likely to be displayed in the second area when the window of the predetermined application is displayed in the first area.
  • the application may be specified using a model constructed by machine learning.
  • the identifying unit 170 may identify two applications that are frequently used in combination by using machine learning or the like.
  • the identifying unit 170 may identify an application using information obtained by machine learning from data related to terminal usage of a plurality of users received from another device via the network 20 described later.
  • the execution information related to the application can be displayed to the user by the display 160 controlled by the control unit 150.
  • the communication unit 180 has a function of executing communication with other devices via the network 20 described later.
  • the communication unit 180 may receive, for example, from another device, information obtained by machine learning from the above-described data related to terminal usage by a plurality of users.
  • the network 20 has a function of connecting the components included in the information processing system.
  • the network 20 may include a public line network such as the Internet, a telephone line network, a satellite communication network, various LANs (Local Area Networks) including Ethernet (registered trademark), WANs (Wide Area Networks), and the like.
  • the network 20 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).
  • the network 20 may include a wireless communication network such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).
  • the functional configuration example of the information processing terminal 10 according to the present embodiment has been described above. Note that the functional configuration described above with reference to FIG. 2 is merely an example, and the functional configuration of the information processing terminal 10 according to the present embodiment is not limited to this example.
  • the information processing terminal 10 does not necessarily have to include all of the configurations shown in FIG.
  • the identifying unit 170 can be included in another device different from the information processing terminal 10.
  • the functional configuration of the information processing terminal 10 according to the present embodiment can be flexibly modified according to specifications and operation.
  • each component such as a ROM (Read Only Memory) and a RAM (Random Access Memory) that store a control program that describes a processing procedure for an arithmetic device such as a CPU (Central Processing Unit) to realize these functions.
  • the control program may be read from the storage medium, and the program may be interpreted and executed. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of implementing the present embodiment. An example of the hardware configuration of the information processing terminal 10 will be described later.
  • FIGS. 3A and 3B are diagrams for explaining an example of screen split display control of windows of a plurality of applications by the control unit 150 according to the present embodiment.
  • the control unit 150 may display windows of a plurality of selected applications by dividing them into at least a first area and a second area on the display screen based on a subsequent operation on information indicating a list of applications.
  • the trigger operation on the side surface is, for example, a slide operation directed downward on the side surface.
  • the trigger operation may be an operation of sliding the side surface to the upper side, or an operation of once sliding in one direction and then sliding in the opposite direction halfway.
  • the divided display information here may include information indicating a list of applications. Further, the divided display information may be displayed on the image already displayed as the overlay image.
  • the divided display information may include information indicating a list of applications identified by the identifying unit 170 based on the criteria corresponding to each of the first area and the second area.
  • the information indicating the list of applications is, for example, the icon group IG of the application, and the control unit 150 determines, based on which icon I of the icon group IG is touch-operated by the user U, You may display the application window.
  • the list of applications may be a list of applications other than the above-mentioned applications that do not support split screen display. By not displaying the application that cannot be split-screen as an option, it is possible to use the split-screen display function more comfortably without reselecting the application.
  • FIGS. 3A and 3B are diagrams for describing an example of display control of windows of a plurality of applications by the control unit 150 according to the present embodiment.
  • FIG. 3A shows the information processing terminal 10 including the display 160.
  • the display 160 displays the home screen on the entire display screen.
  • the control unit 150 detects that the user U's hand H has performed a slide operation on the side surface of the display 160
  • the control unit 150 as shown in the middle part of FIG.
  • the combination AC of the IG1 and the application is displayed on the display 160.
  • a combination of three applications is presented as an application combination AC.
  • the presented combination is, as described above, specified by the specifying unit 170 using machine learning or the like for two applications that are frequently used in combination by the user.
  • control unit 150 may display an area box B1 which is area information indicating an area in which the window of the selected application is displayed.
  • the area box B1 is area information indicating in which area the application displayed in the window is being selected.
  • the area box B1 has two areas, an upper area and a lower area, and has a GUI that allows the user to select an application displayed in the upper area and an application desired to be displayed in the lower area.
  • control unit 150 displays on the display 160 one or both of display of information indicating a portion corresponding to the area in which the window of the selected application in the area information is displayed, or display of the portion in a predetermined color. It may be executed. For example, a graphic such as an arrow may be displayed on the side surface of the area box B1 so that the user can easily determine in which area the application currently displayed is selected.
  • the background color of the area currently selected from the two areas and the background color of the other area may be changed. For example, the background color of the area currently selected is set to be lighter than the background color of the other area.
  • an arrow BA1 indicating a portion corresponding to the upper region UR1 which is currently selected in the region box B1 is shown on the display 160, and the portion is displayed in a lighter color than other portions. ..
  • Area information is updated based on subsequent operations.
  • the area information may be updated to indicate in which area the application is displayed when the application is selected.
  • the control unit 150 may display information other than the split display information in a dark color as shown in the middle part of FIG. 3A, or erase the information.
  • the application icon group IG1, the application combination AC, and the area box B1 are displayed on the display screen by the display 160.
  • the control unit 150 displays the window of the application corresponding to the icon I11. Is displayed in the upper area UR1 which is the first area.
  • the control unit 150 displays information other than the split display information on the display 160 in a darker color than in the normal state. May be displayed.
  • the window of the application selected by the touch operation on the icon I11 on the right side of FIG. 3A is displayed in the upper area UR1, and on the display screen, the icon I12 similar to the icon I11 of the application is displayed on the upper side of the area box B1. Is displayed in.
  • the home screen is displayed in the lower area LR1.
  • the control unit 150 causes the display 160 to display an icon group IG2 different from the application icon group IG1. Since information other than the split display information is displayed in a dark color, at this stage, it is difficult for the user to visually recognize what application or the like is displayed in the upper area UR1 and the lower area LR1. Further, on the display 160, an arrow BA2 indicating a portion corresponding to the currently selected lower area LR1 in the area box B1 is shown, and the portion is displayed in a lighter color than other areas.
  • the icon group IG2 here may be information indicating a list of applications other than the application selected on the right side of FIG. 3A. Since the icon of the application once selected is not displayed in the list, the developer and the user U do not need to consider the behavior when the icon once selected is selected again.
  • the control unit 150 displays the window of the application corresponding to the icon I21. It is displayed in the lower area LR1 which is the second area.
  • the window of the application selected by the touch operation on the icon I21 on the left side of FIG. 3B is displayed in the lower area LR1 on the display screen on the display screen, and the application icon I21 is displayed below the area box B1.
  • An icon I22 similar to is also displayed.
  • the control unit 150 displays the application windows corresponding to the icons I11 and I21 in the upper area UR1 and the lower area LR1, and then displays the icon group IG2 and the area box B1 on the display 160 from the display screen. Erase. Further, the control unit 150 displays the other information in the normal color to complete the control related to the split screen display of the application window, as shown on the right side of FIG. 3B.
  • the control unit 150 sets windows of the corresponding plurality of applications to the first area and the first area, respectively.
  • the display 160 may be displayed in two areas. Further, in the example shown in FIGS. 3A and 3B, the application using the area box B1 is selected by touching the application icon. The application may be selected by dragging and dropping it to a desired area of the two areas of the area box B1.
  • control unit 150 causes the divided display information to be displayed based on the trigger operation on the side surface of the display screen, and displays the windows of the respective applications in the first area and the second area based on the subsequent operation on the divided display information. It has a function to display. With such a function, the user U can intuitively use the screen split display function without feeling bothersome.
  • the application in which the window is displayed is selected based on the subsequent operation, but the application in which the window is displayed may be selected based on the trigger operation. That is, the trigger operation may be an operation of selecting an icon of an application for which a screen split display is executed.
  • the control unit 150 may display the windows of the plurality of applications selected based on the trigger operation by dividing the windows into at least the first area and the second area on the display screen.
  • the trigger operation for the icon I is, for example, a long press operation for the icon I.
  • the divided display information is, for example, information related to the display of the application corresponding to the icon I for which the long press operation has been performed. In this way, by displaying the windows of a plurality of applications starting from the trigger operation for the icon I, it is possible to use the split screen display function with the same usability as when the applications are normally started.
  • FIGS. 4A and 4B are diagrams for describing an example of display control of windows of a plurality of applications by the control unit 150 according to the present embodiment.
  • FIG. 4A shows the information processing terminal 10 including the display 160.
  • the display 160 displays the home screen on the entire display screen.
  • the control unit 150 causes the display 160 to display the popup menu PM that is the split display information.
  • a popup menu PM displayed based on the touch operation on the icon I3 on the left side of FIG. 4A is shown.
  • the control unit 150 causes the display 160 to display the application window corresponding to the icon I3 in the first area. Is displayed in the upper area UR2.
  • the window of the application displayed based on the touch operation on the icon PMI on the right side of FIG. 4A is displayed in the upper area UR2.
  • the home screen is displayed in the lower area LR1 which is the second area.
  • the upper region UR2 may not have the area shown on the left side of FIG. 4B.
  • Information other than the home screen may be displayed in the lower area LR2.
  • the control unit 150 sets the window of the application corresponding to the icon I4 in the lower region LR2. Display it.
  • the window of the application based on the touch operation on the icon PMI is displayed in the upper area UR3 on the right side of FIG. 4A, and the window of the application based on the touch operation on the icon I4 is displayed in the lower area LR3 on the left side of FIG. 4B.
  • the control unit 150 may change the size of the first area from the upper area UR2 to the upper area UR3 when the application window is displayed in the lower area LR3.
  • the user U can use the screen division function with the same feeling as compared with the operation of displaying the application screen on the entire display screen.
  • both the display control example 1 and the display control example 2 described above explained the functions for the example in which the application window is not displayed on the display screen at first. However, even when the window of the application is first displayed on the display screen, the function may be applied. In such a case, for example, the user U only displays the application whose window is displayed in the lower region LR. Screen division display may be realized by selecting.
  • the video viewing application window is displayed in the first area and the chat application window is displayed in the second area.
  • the user U starts a character input operation to send a message in the chat application
  • an area for the character input operation on the display screen is required.
  • the window of the video browsing application is reduced in order to secure an area for character input operation, it is likely that it becomes difficult to chat while browsing the video.
  • the control unit 150 determines a size of an area different from the area in which the window of the application in which character input is started is displayed.
  • the range may be changed.
  • the size of the predetermined range is, for example, a size that does not hinder the use of an application in which a window is displayed in a region where characters are not input.
  • the predetermined range is a range in which the user U can see the entire screen of the moving image.
  • FIG. 5 is a diagram for explaining an example of display control of an application window in character input by the control unit 150 according to the present embodiment.
  • the video viewing application window is displayed in the upper area UR4, which is the first area
  • the chat application window is displayed in the lower area LR4, which is the second area.
  • the control unit 150 selects the first area in which the window of the moving image viewing application is displayed.
  • the upper region UR4 is changed to the upper region UR5.
  • the upper area UR5 is an area having a size in which the entire screen of the moving image being viewed is displayed.
  • the window of the video viewing application is shown in the upper area UR5, and the window of the chat application including the area TR for character input is shown in the lower area LR5.
  • the entire screen of the moving image being viewed is displayed.
  • control unit 150 considers the application in which the window is displayed even when the character input operation is started while using the split screen display, and determines the size of the first area and the size of the second area. Has the function of determining. With such a function, it is possible to maintain convenience when the user U performs a character input operation.
  • FIG. 6 is a diagram for describing an example of determination control of the first region and the second region on the display screen with the screen dividing line as a boundary by the control unit 150 according to the present embodiment.
  • the window of the web browser application is displayed on the display screen.
  • the control unit 150 performs the swipe operation.
  • the marked portion is determined as the boundary between the first area and the second area.
  • control unit 150 displays the window of the browser application displayed in the upper area UR6 which is the first area based on the determined boundary.
  • the home screen is displayed in the lower area LR6 which is the second area. Since the subsequent operation is the same as the operation method shown in FIG. 4B, description thereof will be omitted.
  • the control unit 150 has a function of executing screen division display based on an operation indicating a screen division line such as an operation of cutting the screen.
  • a function the user U can use the split screen display more intuitively as compared with an operation such as touching a button on the display screen.
  • the operation indicating the screen dividing line is a swipe operation for cutting from the left end to the right end with respect to the display 160, but of course, another swipe operation such as cutting from the right end to the left end. It may be an operation.
  • the control unit 150 displays, on the display screen, single display information related to the screen display of the window of the single application on the display screen based on the second operation different from the trigger operation that is the first operation, and
  • the window of the selected single application may be displayed on the display screen based on the second subsequent operation on the single display information.
  • the second subsequent operation here includes an operation of selecting the application in which the single screen display is executed. Note that, for example, the first operation is a slide operation and the second operation is a double tap operation.
  • FIG. 7A is a diagram for explaining an example of display control of a window of one application by the control unit 150 according to the present embodiment.
  • the display 160 displays the home screen on the entire display screen.
  • the control unit 150 displays icons of a plurality of applications as illustrated on the right side of FIG. 7A.
  • the icon group SI including "" is displayed on the display 160.
  • the icon group SI may be displayed based on the height on the display screen corresponding to the position of the side surface where the double tap operation is detected. On the right side of FIG. 7A, the icon group SI is displayed with the height corresponding to the detection position TP of the double tap operation as the uppermost position.
  • the control unit 150 displays the window of the application corresponding to the icon. May be displayed on the entire display screen.
  • the first operation performed is different when displaying one application window on the entire display screen and when displaying multiple application windows.
  • the operation performed first the operation for performing the normal screen display and the operation for performing the screen split display may be the same. By unifying the operations performed at the beginning, the user U can use the screen division display without paying special attention.
  • the divided display information is an overlay image related to a predetermined application
  • the control unit 150 causes the display 160 to display the overlay image based on the trigger operation by the user U, and based on the detection of the subsequent operation on the overlay image. Then, a window of a predetermined application may be displayed on the display 160 in the first area or the second area.
  • the overlay image related to the predetermined application is an image showing a predetermined application window that can be displayed in the first area or the second area.
  • the window shown as the overlay image may be a window in which a predetermined process is executed in the predetermined application.
  • the display position of the overlay image displayed on the display 160 may be changed on the display screen by a drag operation by the user U, and the control unit 150 causes a predetermined application to be performed based on the drag operation on the overlay image by the user U. May be displayed on the display 160 in the first area or the second area.
  • the control unit 150 sets the application window corresponding to the overlay image to the first area or the first area.
  • the area 160 may be displayed on the display 160.
  • the control unit 150 may terminate the application corresponding to the overlay image.
  • control unit 150 may display the window of the application on the entire display screen.
  • FIGS. 7B to 7D and 8 are diagrams for explaining an example of the screen division display control based on the overlay image by the control unit 150 according to the present embodiment.
  • 7B to 7D show the information processing terminal 10 including the display 160.
  • the display 160 displays the window of the web browser application.
  • the control unit 150 displays the launcher information group MG, which is a part of the divided display information, on the display 160.
  • the launcher information group MG is a plurality of launcher information for displaying a window of an application for which a predetermined process has been executed.
  • the control unit 150 may also display the icon group IG3 at the same time.
  • the launcher information group MG and the icon group IG3 are displayed on the display screen.
  • the control unit 150 corresponds to the launcher that has performed the touch operation.
  • a predetermined process is executed in the application, and the overlay image of the application is displayed on the display 160.
  • the overlay image ORG11 of the application is displayed on the display screen.
  • the application corresponding to the overlay image ORG11 is a message application.
  • the control unit 150 erases the overlay image ORG11 and terminates the application when the overlay image ORG11 is laterally moved by the drag operation by the user U.
  • control unit 150 After erasing the overlay image ORG11 and terminating the application, the control unit 150 completes the processing by displaying other information in the normal color as shown on the right side of FIG. 7D. Although an example in which the overlay image ORG12 moves to the right has been described with reference to FIG. 7D, similar processing may be performed when moving to the left.
  • the overlay image ORG21 of the application is displayed on the display screen.
  • the overlay image ORG21 is similar to the overlay image ORG11 shown on the right side of FIG. 7C.
  • the control unit 150 corresponds to the overlay image ORG22 as shown on the right side of FIG.
  • the window of the application is displayed on the display 160 in the lower area LR8 which is the second area. Note that the control unit 150 may display the window of the application on the display 160 in the first area when the overlay image ORG21 is moved upward.
  • control unit 150 has a function of performing split screen display based on the overlay image ORG. With such a function, the user U can more easily use the split screen display.
  • the brightness of the screen displayed in the first area and the second area has not been considered.
  • the control unit 150 displays the window of the application corresponding to any area on the display screen with the brightness determined based on the detected illuminance, and displays the window with the brightness determined based on the detected illuminance.
  • the window of the application corresponding to the area different from the area where is displayed may be displayed with a predetermined range of brightness.
  • FIG. 9 is a diagram for explaining an example of the brightness adjustment processing of the first area and the second area by the control unit 150 according to the present embodiment.
  • application windows are displayed in the upper area UR9 and the lower area LR9, respectively.
  • the control unit 150 acquires information regarding an application whose window is displayed in the upper area UR9 which is the first area and an application whose window is displayed in the lower area LR9 which is the second area.
  • the control unit 150 causes the display 160 to display a window in the upper area UR9 on the display screen with the brightness determined based on the illuminance detected by the illuminance sensor which is the input unit 120.
  • the control unit 150 sets the window in the lower region LR9 on the display screen to a luminance corresponding to the application in which the window is displayed in the lower region LR9, which is lower than the luminance in the upper region UR9 in the example of FIG. Is displayed on the display 160.
  • the brightness corresponding to each application may be defined in advance.
  • control unit 150 has a function of displaying on the screen with different brightness in the first area and the second area. With such a function, each application can be used with an appropriate brightness.
  • the control unit 150 may perform the screen division display processing based on the voice recognition result of the user U by the input unit 120. For example, when the utterance indicating that the screen division display of the user U is used is input by the input unit 120, the control unit 150 displays the window of the application in the first area and the second area based on the utterance. It may be displayed on 160.
  • FIG. 10 is a diagram for explaining an example of the operation flow of screen split display control based on a trigger operation on the side surface by the control unit 150 according to the present embodiment.
  • the process returns to step S101, while when the sensor unit 110 detects a trigger operation on the side surface (S101: YES), the control unit 150 causes the display 160 to display the divided display information corresponding to the first area (S102).
  • step S102 when the application is not selected by the subsequent operation on the split display information displayed in step S102 (S103: NO), the process returns to step S103.
  • the control unit 150 causes the display 160 to display the split display information corresponding to the second area (S104). ).
  • step S104 when the application is not selected by the subsequent operation on the split display information displayed in step S104 (S105: NO), the process returns to step S105.
  • the control unit 150 moves the window of the application selected in step S103 to the first area, and the step The window of the application selected in S105 is displayed on the display 160 in the second area (S106), and the control unit 150 ends the operation.
  • FIG. 11 is a diagram for explaining an example of the flow of operation of screen split display control based on a trigger operation on an icon on the display screen by the control unit 150 according to the present embodiment.
  • step S201 when the sensor unit 110 does not detect a trigger operation for the icon I on the display screen (S201: NO), the process returns to step S201.
  • the control unit 150 causes the display 160 to display the divided display information corresponding to the first area (S202).
  • step S202 if the subsequent operation for the split display information displayed in step S202 is not detected (S203: NO), the process returns to step S203.
  • the control unit 150 first opens the window of the application corresponding to the icon I for which the trigger operation is performed in step S201. The area is displayed on the display 160 (S204).
  • step S205 if the application is not selected by the subsequent operation in the second area (S205: NO), the process returns to step S205.
  • the control unit 150 causes the display 160 to display the window of the application selected in step S205 in the second area (S206). The control unit 150 ends the operation.
  • FIG. 12 is a diagram for explaining an example of a flow of operation of display control of a window of an application in character input by the control unit 150 according to the present embodiment.
  • the control unit 150 sets the size of the first area to a predetermined range. And the size of the second region according to the size of the predetermined range (S302).
  • control unit 150 determines the character input area within the second area determined in step S302 (S303).
  • control unit displays the character input keyboard on the display 160 in the character input area determined in step S303 (S304), and the control unit 150 ends the operation.
  • FIG. 13 is a diagram for explaining an example of the operation flow of the screen division display processing based on the overlay image by the control unit 150 according to the present embodiment.
  • step S401 when the sensor unit 110 does not detect a trigger operation on the side surface (S401: NO), the process returns to step S401, while when the sensor unit 110 detects a trigger operation on the side surface (S401: If YES, the control unit 150 causes the display 160 to display the launcher information corresponding to the first area (S402).
  • step S403 if the application is not selected by the subsequent operation on the split display information displayed in step S402 (S403: NO), the process returns to step S403.
  • the control unit 150 causes the display 160 to display the overlay image related to the application selected in step S403 ( S404).
  • step S404 when the overlay image displayed in step S404 is dragged to the left or right (S405: YES), the control unit 150 erases the overlay image (S406).
  • step S406 the application in which the overlay image has been deleted in step S406 is terminated (S407), and the control unit 150 terminates the operation.
  • step S404 if the overlay image displayed in step S404 is not dragged in the left or right direction (S405: NO), and if the overlay image is not dragged in the up or down direction (S408: NO). , And returns to step S405.
  • the control unit 150 displays the window of the application selected in step S403 in the area where the overlay image is dragged and moved. It is displayed on 160 (S409), and the control unit 150 ends the operation.
  • FIG. 14 is a diagram for explaining an example of the flow of operations related to the brightness adjustment of the first region and the second region by the control unit 150 according to the present embodiment.
  • the control unit 150 acquires information regarding each application whose window is displayed in the first area and the second area (S501). Next, the control unit 150 determines an application to execute the brightness adjustment of the window screen based on the detection result of the illuminance sensor, based on the application information acquired in step S501 (S502).
  • control unit 150 adjusts the brightness of the window screen of the application determined in step S502 based on the detection result of the illuminance sensor and displays it on the display 160 (S503).
  • control unit 150 displays the brightness of the window screen of the application not determined in step S502 within a predetermined range of brightness (S504), and the control unit 150 ends the operation.
  • the screen split display example by the control unit 150 described above can be applied to a so-called flexible display.
  • the control unit 350 in the information processing terminal 30 including a flexible display is the same as the control unit 150, and may further divide the region on the display screen with the display folding point as a boundary and display the application window in each region. .. Further, the control unit 350 may further display the application window in the first area and the second area based on the trigger operation and the subsequent operation in the area divided by the bent portion.
  • the bending of the flexible display can be detected, for example, by the rotating state of the hinge provided at the bending portion.
  • FIGS. 15A and 15B are diagrams for explaining a modification example according to the present embodiment.
  • FIG. 15A shows an information processing terminal 30 including a display 360 that is flexible (foldable).
  • the control unit 150 displays the window of the browser application on the display 360.
  • the control unit 150 bends the window of the browser application as shown in the upper right part of FIG. 15A. May be displayed in the left-side area AR1 with the border as a boundary. A home screen is displayed in the right area AR2 different from the left area AR1.
  • the application which is the divided display information is displayed.
  • Icon group IG4 and area box B2 are displayed in the right area AR2 of display 360.
  • the control unit 150 causes the windows of the respective applications to be the upper area UR10 and the second area, which are the first area on the display 360. It is displayed in the lower area LR10.
  • the control unit 350 displays the other information in the normal color to complete the process related to the screen division display of the window of the application in the right side area AR2, as shown in the lower side of FIG. 15B.
  • the split display information is displayed on the display 360 in order to allow the user to select an application to be displayed in the upper area UR10 and the lower area LR10 of the right area AR2 of the display 360, triggered by the slide operation on the right side surface of the display 360. It is displayed in the right side area AR2 of.
  • the divided display information of the display 360 is displayed in order to allow the user to select an application to be displayed in the upper area and the lower area of the left area AR1 of the display 360. It may be displayed in the left area AR1.
  • a GUI for allowing the user to select an application to be displayed in both upper and lower areas of the left area AR1 and the right area AR2 of the display 360 that is, four divided display information area boxes B2 are provided. A structure having a region may be used.
  • the screen division is further performed on a part of the display screen, so that the user U can more flexibly use the application.
  • FIG. 16 is a block diagram showing a hardware configuration example of the information processing terminal 10 according to an embodiment of the present disclosure.
  • the information processing terminal 10 includes, for example, a processor 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, an input device 878, and an output device 879.
  • the hardware configuration shown here is an example, and some of the components may be omitted. Moreover, you may further include components other than the components shown here.
  • the processor 871 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation of each component or a part thereof based on various programs recorded in the ROM 872, the RAM 873, the storage 880, or the removable recording medium 901. ..
  • the ROM 872 is means for storing programs read by the processor 871 and data used for calculation.
  • the RAM 873 temporarily or permanently stores, for example, a program read by the processor 871 and various parameters that appropriately change when the program is executed.
  • the processor 871, the ROM 872, and the RAM 873 are mutually connected, for example, via a host bus 874 capable of high-speed data transmission.
  • the host bus 874 is connected to the external bus 876, which has a relatively low data transmission rate, via the bridge 875, for example.
  • the external bus 876 is also connected to various components via the interface 877.
  • Input device 8708 As the input device 878, for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, or the like is used. Furthermore, as the input device 878, a remote controller (hereinafter, remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used. Further, the input device 878 includes a voice input device such as a microphone.
  • the output device 879 is, for example, a display device such as a CRT (Cathode Ray Tube), LCD, or an organic EL, an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile, and the acquired information to the user. It is a device capable of visually or audibly notifying. Further, the output device 879 according to the present disclosure includes various vibrating devices capable of outputting tactile stimuli.
  • the storage 880 is a device for storing various data.
  • a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, or a magneto-optical storage device is used.
  • the drive 881 is a device for reading information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writing information on the removable recording medium 901.
  • a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory
  • the removable recording medium 901 is, for example, a DVD medium, a Blu-ray (registered trademark) medium, an HD DVD medium, various semiconductor storage media, or the like.
  • the removable recording medium 901 may be, for example, an IC card equipped with a non-contact type IC chip, an electronic device, or the like.
  • connection port 882 is, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or a port for connecting an external connection device 902 such as an optical audio terminal. is there.
  • the external connection device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, an IC recorder, or the like.
  • the communication device 883 is a communication device for connecting to a network, and includes, for example, a wired or wireless LAN, a Bluetooth (registered trademark) or a communication card for WUSB (Wireless USB), a router for optical communication, and an ADSL (Asymmetrical Digital). It is a router for Subscriber Line) or a modem for various communications.
  • the information processing terminal 10 performs screen division of windows of a plurality of applications by display control capable of intuitively executing an operation related to screen division display of windows of a plurality of applications. It is possible to improve convenience in using the display.
  • the effects described in the present specification are merely explanatory or exemplifying ones, and are not limiting. That is, the technique according to the present disclosure can exert other effects that are apparent to those skilled in the art from the description of the present specification, in addition to or instead of the above effects.
  • the following configurations also belong to the technical scope of the present disclosure.
  • display split display information related to screen split display of windows of a plurality of applications on a display screen is displayed on the display screen, and based on a subsequent operation to the displayed split display information, the selected A control unit that divides and displays the windows of a plurality of applications in at least a first area and a second area on the display screen; Equipped with The subsequent operation includes an operation of selecting the application in which the screen split display is executed.
  • Information processing device includes information indicating a list of the applications, The control unit divides the windows of the selected plurality of applications into at least the first area and the second area on the display screen based on the subsequent operation on the information indicating the list of applications.
  • the information processing device To display, The information processing device according to (1) above. (3) When the application is selected based on the subsequent operation, the control unit displays information indicating a list of applications other than the selected application based on the subsequent operation on the display screen.
  • the information processing device (2).
  • the list of applications is a list of applications other than the applications that do not support the split screen display, The control unit causes the display screen to display information indicating a list of the applications other than the applications that do not support the screen split display, based on the trigger operation.
  • the information processing device according to (2) or (3).
  • the divided display information includes area information indicating an area in which a window of the selected application is displayed, The control unit updates the displayed region information based on the subsequent operation, The information processing apparatus according to any one of (2) to (4) above.
  • the control unit executes one or both of display of information indicating a portion corresponding to an area in which the window of the selected application in the area information is displayed, or display of the portion in a predetermined color.
  • the information processing device according to (5) above.
  • the divided display information includes information indicating a list of applications identified based on a criterion corresponding to each of the first area and the second area,
  • the control unit controls the windows of the selected plurality of applications based on the subsequent operation on the information indicating the list of the applications identified based on the criteria, at least the first area on the display screen.
  • the display is divided into the second area,
  • the information processing apparatus according to any one of (2) to (6) above.
  • the trigger operation is an operation of selecting the application in which the screen split display is executed
  • the control unit divides and displays the windows of the plurality of applications selected based on the trigger operation and the subsequent operation, at least in the first area and the second area on the display screen,
  • the information processing device according to (1) above.
  • the divided display information further includes information indicating a combination of the plurality of applications
  • the control unit divides the windows of the plurality of applications corresponding to the combination into at least the first area and the second area on the display screen based on the subsequent operation on the information indicating the combination.
  • To display The information processing apparatus according to any one of (1) to (8) above.
  • the control unit displays an overlay image relating to the application based on the detection of the subsequent operation, and displays the window of the application based on the detection of a further operation on the displayed overlay image in the first area. Or displayed in the second area,
  • the information processing apparatus according to any one of (1) to (9) above.
  • a further operation on the overlay image is a drag operation on the overlay image
  • the control unit displays a window of the application in the first area or the second area based on a drag operation on the overlay image.
  • the information processing device according to (10).
  • (12) The control unit displays a window of the application in the first area or the second area when the overlay image is moved in a predetermined direction on the display screen based on the drag operation on the overlay image. Let The information processing device according to (11).
  • the overlay image related to the application is an overlay image indicating a result of execution of a predetermined process in the application
  • the control unit displays an overlay image showing a result of execution of a predetermined process in the application, based on the detection of the trigger operation,
  • the information processing device according to any one of (11) to (12).
  • the control unit when starting character input in the application in which the window is displayed in any area of the display screen, in an area different from the area in which the window of the application in which the character input is started is displayed. Change the width to a predetermined range, The information processing apparatus according to any one of (1) to (13) above.
  • the control unit displays a window of the application corresponding to any area on the display screen with a brightness determined based on the detected illuminance, and with a brightness determined based on the detected illuminance. Displaying a window of the application corresponding to an area different from the area in which the window is displayed, with a predetermined range of brightness; The information processing apparatus according to any one of (1) to (14) above.
  • the control unit sets the screen division line to the first area on the display screen. Determining the first region and the second region, The information processing apparatus according to any one of (1) to (15) above.
  • the control unit activates an application that has not been originally activated among the selected plurality of applications, and displays the windows of the selected plurality of applications at least on the display screen.
  • the display is divided into a first area and the second area, The information processing apparatus according to any one of (1) to (16) above.
  • the control unit displays, on the display screen, single display information related to screen display of a window of a single application on the display screen based on a second operation different from the trigger operation that is the first operation.
  • the second subsequent operation includes an operation of selecting the application for which a single screen display is executed,
  • the information processing apparatus according to any one of (1) to (17) above.
  • the control unit displays the divided display information on the display screen when the trigger operation is detected on the side surface with respect to the display screen.
  • the information processing apparatus according to any one of (1) to (18) above.
  • the trigger operation is an operation of selecting an icon of the application for which the screen split display is executed, The control unit activates the non-started application of the applications corresponding to the icon selected based on the trigger operation and the applications selected based on the subsequent operation, and selects the selected application.
  • the control unit displays the windows of the plurality of selected applications based on the trigger operation and the subsequent operation in the area where the screen division display is executed on the display screen, the screen division display on the display screen. Is further divided into at least the first area and the second area in the area where The information processing apparatus according to any one of (1) to (20) above.
  • the processor Based on a trigger operation, display split display information related to screen split display of windows of a plurality of applications on a display screen is displayed on the display screen, and based on a subsequent operation to the displayed split display information, the selected Dividing the windows of a plurality of applications into at least a first area and a second area on the display screen for display; Including, The subsequent operation includes an operation of selecting the application for which split screen display is executed, Information processing method.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】複数のアプリケーションのウィンドウの画面分割表示の利用における利便性の向上を可能とする。 【解決手段】トリガ操作に基づいて、表示画面における複数のアプリケーションのウィンドウの画面分割表示に係る分割表示情報を前記表示画面上に表示させ、表示された前記分割表示情報に対する後続操作に基づいて、選択された前記複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも第1の領域および第2の領域に分割して表示させる制御部、を備え、前記後続操作は、前記画面分割表示が実行される前記アプリケーションを選択する操作を含む、情報処理装置が提供される。

Description

情報処理装置及び情報処理方法
 本開示は、情報処理装置及び情報処理方法に関する。
 近年、スマートフォンなどのタッチパネルを有する装置において、ひとつの表示画面に複数のアプリケーションのウィンドウを表示する技術が開発されている。例えば、特許文献1には、ウィンドウのうちのいずれかを適宜アクティブ化する技術が開示されている。
特開2014-157466号公報
 ところで、表示画面上に複数のアプリケーションのウィンドウを同時に参照できるように表示させるためには、単一のアプリケーションのウィンドウを表示させる場合と比較して、ユーザにとって煩雑に感じる操作が必要となる。しかし、特許文献1では、複数のアプリケーションのウィンドウを同時に参照できるように表示させることについては考慮されていない。
 本開示によれば、トリガ操作に基づいて、表示画面における複数のアプリケーションのウィンドウの画面分割表示に係る分割表示情報を前記表示画面上に表示させ、表示された前記分割表示情報に対する後続操作に基づいて、選択された前記複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも第1の領域および第2の領域に分割して表示させる制御部、を備え、前記後続操作は、前記画面分割表示が実行される前記アプリケーションを選択する操作を含む、情報処理装置が提供される。
 また、本開示によれば、プロセッサが、トリガ操作に基づいて、表示画面における複数のアプリケーションのウィンドウの画面分割表示に係る分割表示情報を前記表示画面上に表示させ、表示された前記分割表示情報に対する後続操作に基づいて、選択された前記複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも第1の領域および第2の領域に分割して表示させること、を含み、前記後続操作は、画面分割表示が実行される前記アプリケーションを選択する操作を含む、情報処理方法が提供される。
本開示の情報処理端末10の外観構成の一例を示す図である。 本実施形態に係る情報処理端末10の機能構成の一例を説明するための図である。 同実施形態に係る制御部150による複数のアプリケーションのウィンドウの画面分割表示制御の一例について説明するための図である。 同実施形態に係る制御部150による複数のアプリケーションのウィンドウの画面分割表示制御の一例について説明するための図である。 同実施形態に係る制御部150による複数のアプリケーションのウィンドウの表示制御の一例について説明するための図である。 同実施形態に係る制御部150による複数のアプリケーションのウィンドウの表示制御の一例について説明するための図である。 同実施形態に係る制御部150による文字入力におけるアプリケーションのウィンドウの表示制御の一例について説明するための図である。 同実施形態に係る制御部150による画面分割線を境界とする表示画面における第1の領域および第2の領域の決定制御の一例について説明するための図である。 同実施形態に係る制御部150によるひとつのアプリケーションのウィンドウの表示制御の一例について説明するための図である。 同実施形態に係る制御部150によるオーバレイ画像に基づく画面分割表示制御の一例について説明するための図である。 同実施形態に係る制御部150によるオーバレイ画像に基づく画面分割表示制御の一例について説明するための図である。 同実施形態に係る制御部150によるオーバレイ画像に基づく画面分割表示制御の一例について説明するための図である。 同実施形態に係る制御部150によるオーバレイ画像に基づく画面分割表示制御の一例について説明するための図である。 同実施形態に係る制御部150による第1の領域および第2の領域の輝度調整処理の一例について説明するための図である。 同実施形態に係る制御部150による側面におけるトリガ操作に基づく画面分割表示制御の動作の流れの一例について説明するための図である。 同実施形態に係る制御部150による表示画面上のアイコンに対するトリガ操作に基づく画面分割表示制御の動作の流れの一例について説明するための図である。 同実施形態に係る制御部150による文字入力におけるアプリケーションのウィンドウの表示制御の動作の流れの一例について説明するための図である。 同実施形態に係る制御部150によるオーバレイ画像に基づく画面分割表示処理の動作の流れの一例について説明するための図である。 同実施形態に係る制御部150による第1の領域および第2の領域の輝度調整に係る動作の流れの一例について説明するための図である。 同実施形態に係る変形例について説明するための図である。 同実施形態に係る変形例について説明するための図である。 本開示の一実施形態に係る情報処理端末10のハードウェア構成例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.背景
 2.実施形態
  2.1.情報処理端末10の外観構成図
  2.2.情報処理端末10の機能構成例
  2.3.具体例
   2.3.1.表示制御例1
   2.3.2.表示制御例2
   2.3.3.表示制御例3
   2.3.4.表示制御例4
   2.3.5.表示制御例5
   2.3.6.表示制御例6
  2.4.動作例
   2.4.1.動作例1
   2.4.2.動作例2
   2.4.3.動作例3
   2.4.4.動作例4
   2.4.5.動作例5
  2.5.変形例
 3.ハードウェア構成例
 4.まとめ
 <1.背景>
 まず、本開示に係る背景について説明する。近年、スマートフォンなどのタッチパネルを有する装置において、複数のアプリケーションのウィンドウの画面分割表示に関する技術が開発されている。例えば、当該技術は動画サイトのアプリケーションで動画を視聴しながら、チャットアプリケーションで当該動画の内容について他者と文章で意見交換すること等も可能となる。
 ところで、上述した特許文献1では、表示画面上に複数のアプリケーションのウィンドウを同時に参照できるように表示させるためには、単一のアプリケーションのウィンドウを表示させる場合と比較して、ユーザはより多くの操作を実行する。例えば、複数のアプリケーションのウィンドウを表示画面に表示させた後、複数のウィンドウの表示画面における表示位置を、互いに重ならないように調整するなどの操作をユーザが行う必要がある。また、例えば、最初からウィンドウを同時に参照できるように表示させるように表示画面を分割して表示する機能を使用する場合でも、ユーザは、単一のアプリケーションの画面を表示させる場合と比較して、より多くの操作を行う。従って、ユーザが煩雑さを感じてしまったり、操作方法の直観的な理解が困難であったりする可能性が高い。
 本開示は、上記の事情に鑑みてなされたものであり、複数のアプリケーションのウィンドウの画面分割表示に係る操作を直観的に実行できる表示制御により、複数のアプリケーションのウィンドウの画面分割表示の利用における利便性の向上を可能とすることを目的とする。
 <2.実施形態>
 <<2.1.情報処理端末10の外観構成図>>
 図1は、本開示の情報処理端末10の外観構成の一例を示す図である。図1左側には、情報処理端末10の前面が示されている。また、図1右側には、情報処理端末10の背面が示されている。情報処理端末10は、例えばスマートフォンである。また、情報処理端末10は、タブレット端末であり得る。
 情報処理端末10は、ディスプレイ160を備える。ディスプレイ160は、後述するセンサ部110に覆いかぶさっている。係る構成により、情報処理端末10は、ディスプレイ160にユーザの指が接触したことを検出することができる。なお、ディスプレイ160は、情報処理端末10の側面の一部または全体に覆いかぶさっていてもよい。
 また、情報処理端末10は、ユーザ入力に基づいて表示画面の内容を制御することができる。例えば、情報処理端末10は、所謂GUI(Graphical User Interface)を利用し、アプリケーションの画面分割表示に係る分割表示情報をディスプレイ160に表示することができる。ここで、分割表示情報とは、例えば所定のアプリケーションに対応するアイコンや、ウィンドウを表示するアプリケーションの選択をユーザUに促す情報などをいう。
 なお、図1左側に示されるように、情報処理端末10は、照度センサを入力部120の一部として備えてもよい。
 <<2.2.情報処理端末10の機能構成例>>
 次に、本実施形態に係る情報処理端末10の機能構成の一例を説明する。図2は、本実施形態に係る情報処理端末10の機能構成の一例を説明するための図である。図2に示すように、情報処理端末10は、センサ部110、入力部120、記憶部130、制御部150、ディスプレイ160、特定部170、および通信部180、を備える情報処理装置である。
 (センサ部110)
 本実施形態に係るセンサ部110は、ユーザの指の情報処理端末10への接触を検出する機能を有する。センサ部110は、情報処理端末10の前面および側面へのユーザの手による操作を検出することが可能である。なお、センサ部110は、例えば静電容量方式のタッチセンサまたは感圧方式のタッチセンサにより実現される。
 なお、静電容量方式のタッチセンサの場合、情報処理端末10の側面部分の直下にタッチセンサを配置しなくとも、情報処理端末の前面の直下に配置されたタッチセンサの側面の方向に対する感度を高く設定することで、当該側面を用いた操作を実現してもよい。この場合、情報処理端末10の側面部分の感度を、他の領域のタッチセンサよりも高く設定することで、当該側面を用いた操作が実現される。
 また、センサ部110は、ユーザによるトリガ操作を検出できる。ここでのトリガ操作とは、アプリケーションのウィンドウを画面分割により表示させるために用いられる操作をいう。また、トリガ操作とは、具体的には、ダブルタップやスライド、スワイプ等をいう。
 (入力部120)
 本実施形態に係る入力部120は、例えば、照度センサや加速度センサ、位置情報センサなどの種々のセンサを備え、種々のセンサを用いてデータを取得する機能を有する。入力部120は、取得したデータを後述する制御部150や特定部170へ提供してもよい。例えば、照度センサが検出した照度情報は、制御部150によるディスプレイ160の表示画面の輝度の調整処理に利用される。
 (記憶部130)
 本実施形態に係る記憶部130は、各種プログラムやデータを一時的または恒常的に記憶するための記憶領域である。記憶部130は、例えば、種々のアプリケーションに係る情報を記憶してもよい。具体的には、記憶部130は、アプリケーションを実行するためのプログラムや、各種設定等を管理するための管理データ等を記憶してもよい。もちろん、上記はあくまで一例であり、記憶部130が記憶するデータの種別は特に限定されない。
 (制御部150)
 本実施形態に係る情報処理端末10が備える各構成を制御する機能を有する。制御部150は、例えば各構成の起動や停止を制御する。
 また、制御部150は、トリガ操作に基づいて、表示画面における複数のアプリケーションのウィンドウの画面分割表示に係る分割表示情報を表示画面上に表示させ、表示された分割表示情報に対する後続操作に基づいて、選択された複数のアプリケーションのうちの元々起動していなかったアプリケーションについては起動させ、選択された複数のアプリケーションのウィンドウを、表示画面における少なくとも第1の領域および第2の領域に分割して表示させる機能を有する。上述したように、分割表示情報は、例えば、所定のアプリケーションに対応するアイコンや、ウィンドウを表示するアプリケーションの一覧をユーザUに提示する情報などである。
 トリガ操作としては、例えば表示画面に対する側面におけるスライド操作や、表示画面に表示されたアイコンに対する長押し操作などが挙げられる。制御部150は、センサ部110が検出したユーザUによるトリガ操作に応じた分割表示情報をディスプレイ160に表示させる。またここで、後続操作は、トリガ操作により表示された分割表示情報に対する操作であり、画面分割表示が実行される前記アプリケーションを選択する操作である。制御部150は、センサ部110が検出した後続操作に基づいて所定のアプリケーションのウィンドウをディスプレイ160に表示画面における第1の領域もしくは第2の領域へ表示させる。なお、制御部150は、ディスプレイ160へ元々起動していなかったアプリケーションのウィンドウの表示を開始させる場合には、まず当該アプリケーションの起動処理を実行する。なお、後述するように、後続操作だけでなくトリガ操作に基づいて、画面分割表示が実行される前記アプリケーションを選択されてもよい。
 第1の領域および第2の領域は、ディスプレイ160により表示される表示画面内の所定の領域である。例えば、第1の領域は、表示画面の上側の領域でもよく、また第2の領域は、第1の領域と異なる領域、すなわち表示画面の下側の領域でもよい。なお、制御部150は、アプリケーションのウィンドウを第1の領域および第2の領域に表示させた後、例えばユーザUの操作などに基づいて、第1の領域および第2の領域の大きさを変更してもよい。また同様に、情報処理端末10を横向きにしてディスプレイ160の左右に2つのアプリケーションを並べる場合でも第1の領域および第2の領域に表示画面が分割されてよく、例えば、ディスプレイ160の左の領域が第1の領域、右の領域が第2の領域と定められてもよい。
 制御部150による複数のアプリケーションのウィンドウの表示制御の具体例については後述する。
 (ディスプレイ160)
 本実施形態に係るディスプレイ160は、制御部150による制御に基づいて、分割表示情報やアプリケーションのウィンドウを表示画面上に表示する機能を有するタッチパネルである。
 (特定部170)
 本実施形態に係る特定部170は、所定の基準に基づいて、所定のアプリケーションを特定する機能を有する。ここで、所定の基準とは、例えば現在時刻、現在地、種々のアプリケーションの使用頻度、などをいう。特定部170は、例えば記憶部130が記憶している種々のアプリケーションのうち、他のアプリケーションと比較して使用頻度の高いアプリケーションを特定してもよい。
 また、特定部170は、ユーザによる情報処理端末10に対する操作、または所定の基準を、機械学習することにより構築されるモデルを用いて、アプリケーションを特定してもよい。当該機械学習は、例えばディープラーニングなどのニューラルネットワークを用いた機械学習でもよい。なお、構築されたモデルは、記憶部130に記憶されてもよい。この際、特定部170は、第1の領域に表示させるアプリケーションの特定と、第2の領域に表示させるアプリケーションの特定をそれぞれ機械学習を用いて別個に特定するようにしてもよい。例えば、ディスプレイ160の上下に2つのアプリケーションを並べる場合、ユーザが上に配置したいと思うアプリケーションと、下に配置したいと思うアプリケーションは異なる可能性があるためである。同様に、情報処理端末10を横向きにしてディスプレイ160の左右に2つのアプリケーションを並べる場合は、左の領域に表示させるアプリケーションの特定と、右の領域に表示させるアプリケーションの特定をそれぞれ機械学習を用いて別個に特定するようにしてもよい。
 また、特定部170は、制御部150が第1の領域にウィンドウを表示させると決定したアプリケーションが存在する場合、当該アプリケーションに基づいて他のアプリケーションを特定してもよい。ここで、他のアプリケーションは、例えば、第1の領域に所定のアプリケーションのウィンドウが表示される際に、第2の領域に表示される可能性が高いアプリケーションである。この際も、機械学習することにより構築されるモデルを用いて、アプリケーションを特定してもよい。また、特定部170は、組み合わせて使われる頻度が高い2つのアプリケーションを機械学習等を使って特定してもよい。
 また、特定部170は、後述するネットワーク20を介して他の装置から受信した、複数のユーザの端末使用に係るデータから機械学習により求められた情報を用いて、アプリケーションを特定してもよい。当該アプリケーションに係る実行情報は、制御部150が制御するディスプレイ160により、ユーザに対し表示され得る。
 (通信部180)
 本実施形態に係る通信部180は、後述するネットワーク20を介して他の装置との間の通信を実行する機能を有する。通信部180は、例えば他の装置から、上述した複数のユーザの端末使用に係るデータから機械学習により求められた情報を受信してもよい。
 (ネットワーク20)
 本実施形態に係るネットワーク20は、情報処理システムが備える各構成を接続する機能を有する。ネットワーク20は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク20は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク20は、Wi-Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
 以上、本実施形態に係る情報処理端末10の機能構成例について説明した。なお、図2を用いて説明した上記の機能構成はあくまで一例であり、本実施形態に係る情報処理端末10の機能構成は係る例に限定されない。例えば、情報処理端末10は、必ずしも図2に示す構成のすべてを備えなくてもよい。例えば、特定部170は、情報処理端末10とは異なる別の装置に備えることも可能である。本実施形態に係る情報処理端末10の機能構成は、仕様や運用に応じて柔軟に変形可能である。
 また、各構成要素の機能を、CPU(Central Proccessing Unit)などの演算装置がこれらの機能を実現する処理手順を記述した制御プログラムを記憶したROM(Read Only Memory)やRAM(Random Access Memory)などの記憶媒体から制御プログラムを読み出し、そのプログラムを解釈して実行することにより行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜利用する構成を変更することが可能である。また情報処理端末10のハードウェア構成の一例については、後述される。
 <<2.3.具体例>>
 続いて、本実施形態に係る制御部150による画面表示例について具体例を挙げながら説明する。
 [2.3.1.表示制御例1]
 まず、図3Aおよび図3Bを参照して、本実施形態に係る制御部150による複数のアプリケーションのウィンドウの画面分割表示制御の一例について説明する。図3Aおよび図3Bは、本実施形態に係る制御部150による複数のアプリケーションのウィンドウの画面分割表示制御の一例について説明するための図である。
 制御部150は、アプリケーションの一覧を示す情報に対する後続操作に基づいて、選択された複数のアプリケーションのウィンドウを、表示画面における少なくとも第1の領域および第2の領域に分割して表示させてよい。ここで、側面におけるトリガ操作は、例えば側面における下側に向けたスライド操作である。他の例として、側面における上側に向けたスライド操作や、いったんどちらかの方向にスライドさせてから途中で逆の方向へスライドさせるような操作をトリガ操作としてもよい。ここでの分割表示情報は、アプリケーションの一覧を示す情報を含んでよい。また、分割表示情報は、オーバレイ画像として既に表示されている画像上に表示されてもよい。また、分割表示情報は、第1の領域および前記第2の領域のそれぞれに対応する基準に基づいて特定部170が特定したアプリケーションの一覧を示す情報を含んでよい。特定部170により一覧として表示されるアプリケーションが特定されることにより、ユーザUが使用する可能性が高いアプリケーションが提示されるため、より簡便に画面分割表示の機能を利用することが可能となる。 
 なお、アプリケーションの一覧を示す情報は、例えばアプリケーションのアイコン群IGであり、制御部150は、ユーザUによりアイコン群IGのうちのいずれのアイコンIに対しタッチ操作を行ったか否かに基づいて、アプリケーションのウィンドウを表示させてよい。またここで、アプリケーションの一覧は、画面分割表示に対応していない前記アプリケーション以外のアプリケーションの一覧でもよい。画面分割表示できないアプリケーションを選択肢として表示しないことで、アプリケーションの選択し直しが発生せず、より快適に画面分割表示の機能を利用することが可能となる。
 以下、図3Aおよび図3Bの一例について説明する。図3Aおよび図3Bは、本実施形態に係る制御部150による複数のアプリケーションのウィンドウの表示制御の一例について説明するための図である。図3Aには、ディスプレイ160を備える情報処理端末10が示されている。
 図3A左側において、ディスプレイ160は、表示画面全体にホーム画面を表示している。制御部150は、ユーザUの手Hによりディスプレイ160に対する側面におけるスライド操作が行われたことをセンサ部110が検出した場合、図3A中段に示されるように、分割表示情報であるアプリケーションのアイコン群IG1およびアプリケーションの組み合わせACをディスプレイ160に表示させる。図3A中段では、アプリケーションの組み合わせACとして、3つのアプリケーションの組み合わせが提示されている。提示されている組み合わせは、前述のように、ユーザが組み合わせて使う頻度が高い2つのアプリケーションを機械学習等を用いて特定部170が特定したものである。
 またここで、制御部150は、選択される前記アプリケーションのウィンドウが表示される領域を示す領域情報である領域ボックスB1を表示させてもよい。領域ボックスB1は、現在いずれの領域におけるウィンドウで表示されるアプリケーションの選択中であるかを示す領域情報である。図3A中段に示されるように、領域ボックスB1は上下に2つの領域があり、上側領域に表示させたアプリケーションと、下側領域に表示させたいアプリケーションをユーザが選択可能なGUIとなっている。
 また、制御部150は、領域情報における選択されるアプリケーションのウィンドウが表示される領域に対応する箇所を指し示す情報の表示、もしくは、箇所の所定の色での表示、の一方もしくは双方をディスプレイ160に実行させてもよい。例えば、現在いずれの領域で表示されるアプリケーションを選択しようとしているかをユーザが容易に判別できるように領域ボックスB1の側面に矢印等の図形を表示させてもよい。また、矢印に加えて、2つの領域のうち現在選択しようとしている領域ともう一方の領域の背景色を変えるようにしてもよい。例えば、現在選択しようとしている領域の背景色を、もう一方の領域の背景色より明るい色に設定する。図3A中段において、ディスプレイ160に、領域ボックスB1における現在選択されようとしている上側領域UR1に対応する箇所を指し示す矢印BA1が示され、当該箇所が他の箇所と比較して明るい色表示されている。
 領域情報は、後続操作に基づいて更新される。例えば、領域情報は、アプリケーションが選択されると、当該アプリケーションがいずれの領域に表示されるかを示すように更新され得る。また、制御部150は、分割表示情報の視認性を確保するために、分割表示情報以外の情報を、図3A中段に示されるように暗い色で表示したり、消去したりしてもよい。
 図3A右側には、アプリケーションのアイコン群IG1、アプリケーションの組み合わせAC、および領域ボックスB1がディスプレイ160により表示画面上に表示されている。図3A右側において、制御部150は、ユーザUがアプリケーションのアイコン群IG1のうちの、例えばアイコンI11に対しタッチ操作を行ったことをセンサ部110が検出した場合、アイコンI11に対応するアプリケーションのウィンドウを第1の領域である上側領域UR1に表示させる。なお、図3A右側に示されるように、制御部150は、分割表示情報がディスプレイ160に表示させている際に、分割表示情報以外の他の情報をディスプレイ160に通常時と比較して暗い色で表示させてもよい。
 図3B左側には、図3A右側でアイコンI11に対するタッチ操作により選択されたアプリケーションのウィンドウが上側領域UR1に表示されまた、領域ボックスB1の上側にアプリケーションのアイコンI11と同様のアイコンI12も表示画面上に表示されている。一方、下側領域LR1には、ホーム画面が表示されている。ここで、制御部150は、アプリケーションのアイコン群IG1と異なるアイコン群IG2をディスプレイ160に表示させている。なお、分割表示情報以外の他の情報は暗い色で表示するため、この段階では、ユーザは上側領域UR1、下側領域LR1に何のアプリケーション等が表示されているか視認しづらい状態である。また、ディスプレイ160に、領域ボックスB1における現在選択されようとしている下側領域LR1に対応する箇所を指し示す矢印BA2が示され、当該箇所が他の箇所と比較して明るい色で表示されている。
 ここでのアイコン群IG2は、図3A右側で選択されたアプリケーション以外のアプリケーションの一覧を示す情報でもよい。一度選択されたアプリケーションのアイコンが一覧に表示されないことで、開発者およびユーザUが、一度選択されたアイコンが再度選択された際の挙動を考慮する必要が無くなる。図3B左側において、制御部150は、ユーザUがアプリケーションのアイコン群IG2から、例えばアイコンI21に対しタッチ操作を行ったことをセンサ部110が検出した場合、アイコンI21に対応するアプリケーションのウィンドウを第2の領域である下側領域LR1へ表示させる。
 図3B中段には、表示画面上に図3B左側でアイコンI21に対するタッチ操作により選択されたアプリケーションのウィンドウが表示画面における下側領域LR1に表示され、また領域ボックスB1の下側にアプリケーションのアイコンI21と同様のアイコンI22も表示されている。図3B中段において、制御部150は、アイコンI11およびアイコンI21に対応するアプリケーションのウィンドウを上側領域UR1および下側領域LR1に表示させた後、アイコン群IG2および領域ボックスB1をディスプレイ160に表示画面から消去させる。また、制御部150は、さらに他の情報を通常時の色で表示させることで、図3B右側に示されるように、アプリケーションのウィンドウの画面分割表示に係る制御が完了する。
 なお、制御部150は、図3A中段において、ユーザUがアプリケーションの組み合わせACにタッチ操作を行ったことをセンサ部110が検出した場合、対応する複数のアプリケーションのウィンドウをそれぞれ第1の領域と第2の領域とへディスプレイ160に表示させてもよい。また、図3Aおよび図3Bに示された一例においては、領域ボックスB1を利用したアプリケーションの選択を、アプリケーションのアイコンをタッチすることにより行うとしていたが、それ以外にも、例えば、アプリケーションのアイコンを領域ボックスB1の2つの領域のうちの所望の領域にドラッグアンドドロップすることによりアプリケーションを選択するようにしてもよい。
 このように、制御部150は表示画面に対する側面におけるトリガ操作に基づいて分割表示情報を表示させ、当該分割表示情報に対する後続操作に基づいてそれぞれのアプリケーションのウィンドウを第1の領域および第2の領域に表示させる機能を有する。係る機能によれば、ユーザUは煩わしさを感じることなく直観的に画面分割表示の機能を利用することが可能となる。
 [2.3.2.表示制御例2]
 ところで、表示制御例1では、ウィンドウが表示されるアプリケーションが後続操作に基づいて選択されたが、トリガ操作に基づいてウィンドウが表示されるアプリケーションが選択されてもよい。すなわち、トリガ操作は、さらに画面分割表示が実行されるアプリケーションのアイコンを選択する操作でもよい。また、制御部150は、トリガ操作に基づいて選択された複数のアプリケーションのウィンドウを、表示画面における少なくとも第1の領域および第2の領域に分割して表示させてよい。
 ここで、アイコンIに対するトリガ操作は、例えばアイコンIに対する長押し操作などである。また、ここでの分割表示情報は、例えば、長押し操作が行われたアイコンIに対応するアプリケーションの表示に係る情報である。このように、アイコンIに対するトリガ操作を起点として複数のアプリケーションのウィンドウを表示させることで、アプリケーションを通常起動させる場合と同様の使用感で画面分割表示の機能を利用することが可能となる。
 以下、図4Aおよび図4Bの一例について説明する。図4Aおよび図4Bは、本実施形態に係る制御部150による複数のアプリケーションのウィンドウの表示制御の一例について説明するための図である。
 図4Aには、ディスプレイ160を備える情報処理端末10が示されている。図4A左側において、ディスプレイ160は表示画面全体にホーム画面を表示している。制御部150は、ユーザUの手HによりアプリケーションのアイコンI3に対する長押し操作が行われたことをセンサ部110が検出した場合、分割表示情報であるポップアップメニューPMをディスプレイ160に表示させる。
 図4A右側には、図4A左側でアイコンI3に対するタッチ操作に基づいて表示されたポップアップメニューPMが示されている。制御部150は、ユーザUがポップアップメニューPM内の画面分割を示すアイコンPMIに対するタッチ操作を行ったことをセンサ部110が検出すると、アイコンI3に対応するアプリケーションのウィンドウをディスプレイ160により第1の領域である上側領域UR2に表示させる。
 図4B左側には、図4A右側でアイコンPMIに対するタッチ操作に基づいて表示されたアプリケーションのウィンドウが上側領域UR2に表示されている。一方、第2の領域である下側領域LR1には、ホーム画面が表示されている。なお、上側領域UR2は、図4B左側に示される広さでなくてもよい。また、下側領域LR2には、ホーム画面以外の情報が表示されてもよい。ここで、制御部150は、ユーザUがホーム画面に表示されるアイコンI4に対しタッチ操作を行ったことをセンサ部110が検出した場合、アイコンI4に対応するアプリケーションのウィンドウを下側領域LR2に表示させる。
 図4B右側には、図4A右側でアイコンPMIに対するタッチ操作に基づくアプリケーションのウィンドウが上側領域UR3に、および、図4B左側でアイコンI4に対するタッチ操作に基づくアプリケーションのウィンドウが下側領域LR3に表示されている。なお、制御部150は、下側領域LR3にアプリケーションのウィンドウが表示される際に、第1の領域の広さを上側領域UR2から上側領域UR3へ変更してもよい。
 このように、ユーザUはアプリケーションの画面を表示画面全体に表示させる操作と比較して同様の感覚で画面分割機能を利用することが可能となる。
 なお、上述した表示制御例1および表示制御例2共に、最初はアプリケーションのウィンドウが表示画面に表示されていない例について機能の説明を行った。しかし、最初にアプリケーションのウィンドウが表示画面に表示されている場合についても、当該機能を適用してもよく、そのような場合、例えばユーザUが下側領域LRにウィンドウが表示されるアプリケーションのみを選択することで画面分割表示が実現されてもよい。
 [2.3.3.表示制御例3]
 ところで、画面分割表示において、ユーザUが片方の領域でウィンドウが表示されたアプリケーションで文字入力を利用する状況が発生し得る。当該状況に際して文字入力が実行されない、もう一方のアプリケーションのウィンドウが利便性に影響があるほどに縮小される可能性があり、ユーザUの画面分割表示における利便性が損なわれ得る。
 例えば、第1の領域に動画閲覧アプリケーションのウィンドウが表示され、第2の領域にチャットアプリケーションのウィンドウが表示されている場面について考える。ユーザUがチャットアプリケーションにおいて、メッセージを送信するために文字入力操作を開始する場合、表示画面における文字入力操作のための領域が必要となる。その際、文字入力操作のための領域を確保するために、動画閲覧アプリケーションのウィンドウが縮小されると、動画を閲覧しながらチャットすることが困難となってしまう可能性が高い。
 従って、制御部150は、表示画面におけるいずれかの領域にウィンドウが表示されたアプリケーションにおける文字入力の開始に際し、文字入力が開始されるアプリケーションのウィンドウが表示された領域と異なる領域の広さを所定範囲の広さに変更してもよい。ここで、所定範囲の広さとは、例えば文字入力を行わない領域にウィンドウが表示されるアプリケーションの利用に支障をきたさないような広さをいう。例えば、文字入力を行わない領域に対応するアプリケーションが動画閲覧アプリケーションである場合、当該所定範囲の広さは、ユーザUが動画の画面全体を見ることができる範囲の広さをいう。
 以下、図5の一例について説明する。図5は、本実施形態に係る制御部150による文字入力におけるアプリケーションのウィンドウの表示制御の一例について説明するための図である。
 図5左側には、動画閲覧アプリケーションのウィンドウが第1の領域である上側領域UR4に、また、チャットアプリケーションのウィンドウが第2の領域である下側領域LR4が表示画面上に表示されている。図5左側において、制御部150は、ユーザUが下側領域LR4におけるチャットアプリケーションで文字入力を開始する操作をセンサ部110が検出した場合、動画閲覧アプリケーションのウィンドウが表示される第1の領域を、上側領域UR4から上側領域UR5に変更する。ここで、上側領域UR5は、閲覧中の動画の画面全体が表示される広さの領域である。
 図5右側には、動画閲覧アプリケーションのウィンドウが上側領域UR5に、また、文字入力のための領域TRを含むチャットアプリケーションのウィンドウが下側領域LR5に示されている。ここで、上側領域UR5には、閲覧中の動画の画面全体が表示されている。
 このように、制御部150は画面分割表示を利用中に文字入力操作が開始される場合でもウィンドウが表示されているアプリケーションを考慮して第1の領域の広さおよび第2の領域の広さを決定する機能を有する。係る機能によれば、ユーザUが文字入力操作を行う場合に利便性を維持することが可能となる。
 [2.3.4.表示制御例4]
 上記までは、第1の領域と第2の領域の境界は自動的に決定される例について説明した。しかし、制御部150は、表示画面における第1の領域と第2の領域との境界である画面分割線を示す操作をセンサ部110が検出した場合、当該画面分割線を境界として表示画面における第1の領域および第2の領域を決定してもよい。ここで、画面分割線を示す操作としては、画面を切るような操作、例えば画面の端から反対側の画面の端へのスワイプ操作などが挙げられる。
 以下、図6が示す一例について説明する。図6は、本実施形態に係る制御部150による画面分割線を境界とする表示画面における第1の領域および第2の領域の決定制御の一例について説明するための図である。
 図6左側には、ウェブブラウザアプリケーションのウィンドウが表示画面上に表示されている。図6左側において、制御部150は、ユーザUの手Hによりディスプレイ160に対して左端から右端へ切るようなスワイプ操作が行われたことをセンサ部110が検出した場合、当該スワイプ操作が行われた箇所を第1の領域と第2の領域の境界と決定する。
 また、図6右側に示されるように、制御部150は、決定した境界に基づいて第1の領域である上側領域UR6に表示されていたブラウザアプリケーションのウィンドウを表示させる。一方、第2の領域である下側領域LR6には、ホーム画面が表示されている。なお、以後の操作は図4Bで示された操作方法と同様であるため説明を省略する。
 このように、制御部150は、画面を切るような操作などの画面分割線を示す操作に基づいて、画面分割表示を実行する機能を有する。係る機能によれば、ユーザUは表示画面上のボタンをタッチするなどの操作と比較して、より直観的に画面分割表示を利用することが可能となる。なお、図6の一例おいては、画面分割線を示す操作がディスプレイ160に対して左端から右端へ切るようなスワイプ操作であったが、勿論右端から左端へ切るようなスワイプ操作などの他の操作であってもよい。
 [2.3.5.表示制御例5]
 上記までは、最初に行われる操作として、表示画面全体にひとつのアプリケーションのウィンドウを表示される通常の画面表示が実行される操作とは異なる操作に基づいて画面分割表示が実行される例について説明した。
 ここで、表示画面上にひとつのアプリケーションのウィンドウを表示する場合について説明する。制御部150は、第1の操作であるトリガ操作と異なる第2の操作に基づいて、表示画面における単一のアプリケーションのウィンドウの画面表示に係る単一表示情報を表示画面上に表示させ、当該単一表示情報に対する第2の後続操作に基づいて、選択された単一のアプリケーションの前記ウィンドウを、表示画面に表示させてもよい。ここでの第2の後続操作は、単一画面表示が実行される前記アプリケーションを選択する操作を含む。なお、例えば、第1の操作はスライド操作で、第2の操作はダブルタップ操作である。
 図7Aを参照して、表示画面全体にひとつのアプリケーションのウィンドウを表示するための操作および表示制御の具体例について説明する。図7Aは、本実施形態に係る制御部150によるひとつのアプリケーションのウィンドウの表示制御の一例について説明するための図である。図7A左側において、ディスプレイ160は、表示画面全体にホーム画面を表示している。ここで、制御部150は、ユーザUの指Fによりディスプレイ160に対する側面におけるダブルタップ操作が行われたことをセンサ部110が検出した場合、図7A右側に示されるように、複数のアプリケーションのアイコンを含むアイコン群SIをディスプレイ160に表示させる。ここで、アイコン群SIは、ダブルタップ操作が検出された側面の位置に対応する表示画面上の高さを基準として表示されてもよい。図7A右側では、アイコン群SIがダブルタップ操作の検出位置TPに対応する高さを最上位置として表示されている。
 図7A右側において、制御部150は、アイコン群SIが含むアイコンのうちのいずれかのアイコンに対してタッチ操作が行われたことをセンサ部110が検出した場合、当該アイコンに対応するアプリケーションのウィンドウを表示画面全体に表示させてよい。
 図3Aの例と図7Aの例を比較すると、表示画面全体にひとつのアプリケーションのウィンドウを表示する場合と、複数のアプリケーションのウィンドウを表示する場合とで最初に行われる操作が異なる。しかし一方で、最初に行われる操作として、通常の画面表示が実行される操作と画面分割表示が実行される操作が同じであってもよい。最初に行われる操作が統一されることで、ユーザUは画面分割表示を特別に意識せず利用することが可能となる。
 例えば、分割表示情報は、所定のアプリケーションに係るオーバレイ画像であり、制御部150は、ユーザUによるトリガ操作に基づいて、ディスプレイ160にオーバレイ画像を表示させ、当該オーバレイ画像に対する後続操作の検出に基づいて、所定のアプリケーションのウィンドウを、第1の領域もしくは第2の領域へディスプレイ160に表示させてもよい。ここで、所定のアプリケーションに係るオーバレイ画像は、第1の領域もしくは第2の領域に表示され得る所定のアプリケーションウィンドウを示す画像である。ここで、オーバレイ画像として示されるウィンドウは、当該所定のアプリケーションにおいて所定の処理が実行された状態のウィンドウでもよい。
 ここで、ディスプレイ160に表示されたオーバレイ画像は、ユーザUによるドラッグ操作により表示画面における表示位置が変更されてよく、制御部150は、ユーザUによるオーバレイ画像に対するドラッグ操作に基づいて、所定のアプリケーションのウィンドウを、第1の領域もしくは第2の領域へディスプレイ160に表示させてもよい。具体的には、制御部150は、ユーザUがオーバレイ画像に対するドラッグ操作により表示画面における所定方向へ当該オーバレイ画像を移動させた場合、当該オーバレイ画像に対応するアプリケーションのウィンドウを第1の領域もしくは第2の領域へディスプレイ160に表示させてよい。また、一方で、制御部150は、ユーザUがオーバレイ画像に対するドラッグ操作により表示画面における他の方向へ当該オーバレイ画像を移動させた場合、当該オーバレイ画像に対応するアプリケーションを終了させてもよい。
 また、一方で、制御部150は、オーバレイ画像にタッチ操作を行ったことをセンサ部110が検出した場合、当該アプリケーションのウィンドウを表示画面全体に表示させてよい。
 以下、図7B~図7D、図8の一例について説明する。図7B~図7D、図8は、本実施形態に係る制御部150によるオーバレイ画像に基づく画面分割表示制御の一例について説明するための図である。図7B~図7Dには、ディスプレイ160を備える情報処理端末10が示されている。
 図7B左側において、ディスプレイ160は、ウェブブラウザアプリケーションのウィンドウを表示している。ここで、制御部150は、ユーザUの手Hによりディスプレイ160に対する側面におけるスライド操作が行われたことをセンサ部110が検出した場合、分割表示情報の一部であるランチャ情報群MGをディスプレイ160に表示させる。ここで、ランチャ情報群MGは、所定の処理が実行されたアプリケーションのウィンドウを表示させるための複数のランチャ情報である。なお、制御部150は、同時にアイコン群IG3も表示させてもよい。
 図7B右側には、ランチャ情報群MGおよびアイコン群IG3が表示画面上に表示されている。ここで、制御部150は、図7C左側に示されるように、ユーザUがランチャ情報群MGに対しタッチ操作を行ったことをセンサ部110が検出した場合、タッチ操作を行ったランチャに対応するアプリケーションにおいて所定の処理を実行させ、また当該アプリケーションのオーバレイ画像をディスプレイ160に表示させる。
 図7C右側には、アプリケーションのオーバレイ画像ORG11が表示画面上に表示されている。図7Cの例では、オーバレイ画像ORG11に対応するアプリケーションは、メッセージアプリケーションである。ここで、制御部150は、図7D左側に示されるように、ユーザUによるドラッグ操作によりオーバレイ画像ORG11が横方向に移動された場合、オーバレイ画像ORG11を消去してアプリケーションを終了させる。
 制御部150は、オーバレイ画像ORG11の消去およびアプリケーションを終了後、図7D右側に示されるように、他の情報を通常時の色で表示させて処理が完了する。なお、図7Dにおいて、オーバレイ画像ORG12が右方向へ移動する例について説明したが、左方向へ移動する場合においても同様の処理が行われてよい。
 また、一方、図8左側には、図7C右側に示されたように、アプリケーションのオーバレイ画像ORG21が表示画面上に表示されている。オーバレイ画像ORG21は、図7C右側に示されるオーバレイ画像ORG11と同様である。ここで、制御部150は、図8中段に示されるように、ユーザUによるドラッグ操作によりオーバレイ画像ORG21が下方向に移動された場合、図8右側に示されるように、オーバレイ画像ORG22に対応するアプリケーションのウィンドウを第2の領域である下側領域LR8へディスプレイ160に表示させる。なお、制御部150は、オーバレイ画像ORG21が上方向に移動された場合は、当該アプリケーションのウィンドウを第1の領域へディスプレイ160に表示させてよい。
 このように、制御部150は、オーバレイ画像ORGに基づいて画面分割表示を行う機能を有する。係る機能によれば、ユーザUは画面分割表示をより気軽に利用することが可能となる。
 [2.3.6.表示制御例6]
 ところで、上記までは、第1の領域および第2の領域に表示される画面の輝度については考慮されていなかった。しかし、アプリケーションの種類によっては、ウィンドウが表示される領域の画面の輝度が、他のアプリケーションと異なることが望まれ得る。例えば、動画閲覧アプリケーションは、ブラウザアプリケーションよりも、ウィンドウがより明るく表示される方がよい場合がある。従って、制御部150は、表示画面におけるいずれかの領域に対応するアプリケーションのウィンドウを、検出された照度に基づいて決定された輝度で表示させ、検出された照度に基づいて決定された輝度でウィンドウが表示される領域と異なる領域に対応するアプリケーションのウィンドウを、所定範囲の輝度で表示させてもよい。
 以下、図9が示す一例について説明する。図9は、本実施形態に係る制御部150による第1の領域および第2の領域の輝度調整処理の一例について説明するための図である。図9において、上側領域UR9および下側領域LR9にそれぞれアプリケーションのウィンドウが表示されている。
 ここで、制御部150は、第1の領域である上側領域UR9にウィンドウが表示されるアプリケーションおよび第2の領域である下側領域LR9にウィンドウが表示されるアプリケーションに係る情報を取得する。次に、制御部150は、表示画面における上側領域UR9においてウィンドウを、入力部120である照度センサが検出した照度に基づいて決定された輝度でディスプレイ160に表示させる。一方で、制御部150は、表示画面における下側領域LR9においてウィンドウを、下側領域LR9にウィンドウが表示されるアプリケーションに対応する輝度、図9の一例においては上側領域UR9と比較して低い輝度でディスプレイ160に表示させる。なお、それぞれのアプリケーションに対応する輝度は、予め規定されてよい。
 このように、制御部150は第1の領域と第2の領域とで異なる輝度で画面表示させる機能を有する。係る機能によれば、それぞれのアプリケーションを、適した輝度で利用することが可能となる。
 以上、本実施形態に係る制御部150による画面分割表示に係る具体例について説明した。なお、上記までは、ディスプレイ160に対する操作に基づく画面分割表示について説明したが、制御部150は、入力部120によるユーザUの音声認識結果に基づく画面分割表示処理を行ってもよい。例えば、制御部150は、入力部120によりユーザUの画面分割表示を利用することを示す発話が入力された場合、当該発話に基づいてアプリケーションのウィンドウを第1の領域および第2の領域へディスプレイ160に表示させてもよい。
 <<2.4.動作例>>
 続いて、図10~図14を参照して、本実施形態に係る制御部150による表示制御の動作の流れについて説明する。
 [2.4.1.動作例1]
 まず、図10を参照して、本実施形態に係る制御部150による側面におけるトリガ操作に基づく画面分割表示制御の動作の流れの一例について説明する。図10は、本実施形態に係る制御部150による側面におけるトリガ操作に基づく画面分割表示制御の動作の流れの一例について説明するための図である。
 図10を参照すると、まず、センサ部110が側面におけるトリガ操作を検出しない場合(S101:NO)、ステップS101へ復帰し、一方で、センサ部110が側面におけるトリガ操作を検出した場合(S101:YES)、制御部150は第1の領域に対応する分割表示情報をディスプレイ160に表示させる(S102)。
 次に、ステップS102で表示された分割表示情報に対する後続操作によりアプリケーションが選択されない場合(S103:NO)、ステップS103へ復帰する。一方で、ステップS102で表示された分割表示情報に対する後続操作によりアプリケーションが選択された場合(S103:YES)、制御部150は第2の領域に対応する分割表示情報をディスプレイ160に表示させる(S104)。
 次に、ステップS104で表示された分割表示情報に対する後続操作によりアプリケーションが選択されない場合(S105:NO)、ステップS105へ復帰する。一方で、ステップS104で表示された分割表示情報に対する後続操作によりアプリケーションが選択された場合(S105:YES)、制御部150はステップS103で選択されたアプリケーションのウィンドウを第1の領域へ、またステップS105で選択されたアプリケーションのウィンドウを第2の領域へディスプレイ160に表示させ(S106)、制御部150は動作を終了する。
 [2.4.2.動作例2]
 続いて、図11を参照して、本実施形態に係る制御部150による表示画面上のアイコンに対するトリガ操作に基づく画面分割表示制御の動作の流れの一例について説明する。図11は、本実施形態に係る制御部150による表示画面上のアイコンに対するトリガ操作に基づく画面分割表示制御の動作の流れの一例について説明するための図である。
 図11を参照すると、まず、センサ部110が表示画面上のアイコンIに対するトリガ操作を検出しない場合(S201:NO)、ステップS201へ復帰する。一方で、センサ部110が表示画面上のアイコンIに対するトリガ操作を検出した場合(S201:YES)、制御部150は第1の領域に対応する分割表示情報をディスプレイ160に表示させる(S202)。
 次に、ステップS202で表示された分割表示情報に対する後続操作が検出されない場合(S203:NO)、ステップS203へ復帰する。一方で、ステップS202で表示された分割表示情報に対する後続操作が検出された場合(S203:YES)、制御部150はステップS201でトリガ操作が行われたアイコンIに対応するアプリケーションのウィンドウを第1の領域へディスプレイ160に表示させる(S204)。
 次に、第2の領域で後続操作によりアプリケーションが選択されない場合(S205:NO)、ステップS205へ復帰する。一方で、第2の領域で後続操作によりアプリケーションが選択された場合(S205:YES)、制御部150はステップS205で選択されたアプリケーションのウィンドウを第2の領域へディスプレイ160に表示させ(S206)、制御部150は動作を終了する。
 [2.4.3.動作例3]
 続いて、図12を参照して、制御部150による文字入力におけるアプリケーションのウィンドウの表示制御の動作の流れの一例について説明する。図12は、本実施形態に係る制御部150による文字入力におけるアプリケーションのウィンドウの表示制御の動作の流れの一例について説明するための図である。
 図12を参照すると、まず、入力部120が第2の領域にウィンドウが表示されているアプリケーションにおいて文字入力が開始されない場合(S301:NO)、ステップS301へ復帰する。一方で、入力部120が第2の領域にウィンドウが表示されているアプリケーションにおいて文字入力が開始された場合(S301:YES)、制御部150は、第1の領域の広さを所定範囲の広さ、および当該所定範囲の広さに応じた第2の領域の広さを決定する(S302)。
 次に、制御部150は、ステップS302で決定された第2の領域内での文字入力領域を決定する(S303)。次に、制御部は、ステップS303で決定された文字入力領域に、文字入力キーボードをディスプレイ160に表示させ(S304)、制御部150は動作を終了する。
 [2.4.4.動作例4]
 続いて、図13を参照して、本実施形態に係る制御部150によるオーバレイ画像に基づく画面分割表示処理の動作の流れの一例について説明する。図13は、本実施形態に係る制御部150によるオーバレイ画像に基づく画面分割表示処理の動作の流れの一例について説明するための図である。
 図13を参照すると、まず、センサ部110が側面におけるトリガ操作を検出しない場合(S401:NO)、ステップS401へ復帰し、一方で、センサ部110が側面におけるトリガ操作を検出した場合(S401:YES)、制御部150は第1の領域に対応するランチャ情報をディスプレイ160に表示させる(S402)。
 次に、ステップS402で表示された分割表示情報に対する後続操作によりアプリケーションが選択されない場合(S403:NO)、ステップS403へ復帰する。一方で、ステップS402で表示された分割表示情報に対する後続操作によりアプリケーションが選択された場合(S403:YES)、制御部150はステップS403で選択されたアプリケーションに係るオーバレイ画像をディスプレイ160に表示させる(S404)。
 次に、ステップS404で表示されたオーバレイ画像が左方向もしくは右方向にドラッグ移動された場合(S405:YES)、制御部150は当該オーバレイ画像を消去する(S406)。次に、ステップS406でオーバレイ画像が消去されたアプリケーションを終了させて(S407)、制御部150は動作を終了する。
 一方で、ステップS404で表示されたオーバレイ画像が左方向もしくは右方向にドラッグ移動されない場合で(S405:NO)、当該オーバレイ画像が上方向もしくは下方向にもドラッグ移動されない場合は(S408:NO)、ステップS405へ復帰する。また一方で、当該オーバレイ画像が上方向もしくは下方向にもドラッグ移動された場合(S408:YES)、制御部150はオーバレイ画像がドラッグ移動された領域にステップS403で選択されたアプリケーションのウィンドウをディスプレイ160に表示させ(S409)、制御部150は動作を終了する。
 [2.4.5.動作例5]
 続いて、図14を参照して、本実施形態に係る制御部150による第1の領域および第2の領域の輝度調整に係る動作の流れの一例について説明する。図14は、本実施形態に係る制御部150による第1の領域および第2の領域の輝度調整に係る動作の流れの一例について説明するための図である。
 図14を参照すると、まず、制御部150は第1の領域および第2の領域にウィンドウが表示されるそれぞれのアプリケーションに係る情報を取得する(S501)。次に、制御部150はステップS501で取得されたアプリケーションに係る情報に基づいて、照度センサの検出結果に基づくウィンドウ画面の輝度調整を実行するアプリケーションを決定する(S502)。
 次に、制御部150はステップS502で決定されたアプリケーションのウィンドウ画面の輝度を照度センサの検出結果に基づいて調整し、ディスプレイ160に表示させる(S503)。次に、制御部150はステップS502で決定されなかった方のアプリケーションのウィンドウ画面の輝度を所定範囲の輝度で表示させ(S504)、制御部150は動作を終了する。
 <<2.5.変形例>>
 続いて、本実施形態に係る変形例について説明する。上記まで説明した制御部150による画面分割表示例は、所謂フレキシブルディスプレイにも適用が可能である。フレキシブルディスプレイを備える情報処理端末30における制御部350は、制御部150と同様であり、さらにディスプレイの折り曲げ箇所を境界として表示画面における領域を分割し、それぞれの領域にアプリケーションのウィンドウを表示させてよい。また、制御部350は、当該折り曲げ箇所により分割された領域においてトリガ操作および後続操作に基づいて、第1の領域および第2の領域にアプリケーションのウィンドウをさらに表示させてよい。なお、フレキシブルディスプレイの折り曲げは、例えば折り曲げ箇所に備えられるヒンジの回転状態などによって検出されることが可能である。
 ここで、図15Aおよび図15Bを参照して、本実施形態に係る変形例について説明する。図15Aおよび図15Bは、本実施形態に係る変形例について説明するための図である。図15Aには、フレキシブル(折り曲げ可能)であるディスプレイ360を備える情報処理端末30が示されている。図15Aにおいて、制御部150は、ブラウザアプリケーションのウィンドウをディスプレイ360に表示させている。
 ここで、制御部150は、図15A右上に示されるように、ディスプレイ360が折り畳まれ、さらに当該ディスプレイ360が開かれたことを入力部120が検知した場合、ブラウザアプリケーションのウィンドウを折り曲げられた箇所を境界として左側領域AR1に表示させてもよい。なお、左側領域AR1と異なる右側領域AR2にはホーム画面が表示されている。
 次に、図15B左上において、ユーザUの手Hによりディスプレイ360に対する右側面におけるスライド操作が行われたことをセンサ部310が検出した場合、図15Bに示されるように、分割表示情報であるアプリケーションのアイコン群IG4および領域ボックスB2をディスプレイ360の右側領域AR2へ表示させる。図15B右上において、制御部150は、ユーザUによりアプリケーションのアイコンIが2つ選択されると、それぞれのアプリケーションのウィンドウをディスプレイ360に第1の領域である上側領域UR10および第2の領域である下側領域LR10へ表示させる。
 なお、図15Bにおける右側領域AR2でのアプリケーションの選択は、図3A右側および図3B左側で示された処理と同様である。勿論、他の方法でアプリケーションが選択されてもよい。また、制御部350は、さらに他の情報を通常時の色で表示させることで、図15B下側に示されるように、右側領域AR2におけるアプリケーションのウィンドウの画面分割表示に係る処理が完了する。なお、図15Bでは、ディスプレイ360の右側面におけるスライド操作をトリガとして、ディスプレイ360の右側領域AR2の上側領域UR10、下側領域LR10に表示させるアプリケーションをユーザに選択させるために分割表示情報をディスプレイ360の右側領域AR2に表示させた。同様に、ディスプレイ360の左側面におけるスライド操作が検出された場合には、ディスプレイ360の左側領域AR1の上側領域、下側領域に表示させるアプリケーションをユーザに選択させるために分割表示情報をディスプレイ360の左側領域AR1に表示させてもよい。また、ディスプレイ360の左側領域AR1、右側領域AR2の両方の上側領域、下側領域、つまり4つの領域に表示させるアプリケーションをユーザに選択させるためのGUIとして、分割表示情報の領域ボックスB2が4つの領域を有する構成としてもよい。
 このように、フレキシブルディスプレイにおいても表示画面の一部でさらに画面分割表示が行われることで、ユーザUはより柔軟にアプリケーションを利用することが可能となる。
 <3.ハードウェア構成例>
 次に、本開示の一実施形態に係る情報処理端末10のハードウェア構成例について説明する。図16は、本開示の一実施形態に係る情報処理端末10のハードウェア構成例を示すブロック図である。図16を参照すると、情報処理端末10は、例えば、プロセッサ871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
 (プロセッサ871)
 プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
 (ROM872、RAM873)
 ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
 (ホストバス874、ブリッジ875、外部バス876、インターフェース877)
 プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
 (入力装置878)
 入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
 (出力装置879)
 出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
 (ストレージ880)
 ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
 (ドライブ881)
 ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
 (リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
 (接続ポート882)
 接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
 (外部接続機器902)
 外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
 (通信装置883)
 通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
 <4.まとめ>
 以上説明したように、本開示の一実施形態に係る情報処理端末10は、複数のアプリケーションのウィンドウの画面分割表示に係る操作を直観的に実行できる表示制御により、複数のアプリケーションのウィンドウの画面分割表示の利用における利便性の向上を可能とすることが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 トリガ操作に基づいて、表示画面における複数のアプリケーションのウィンドウの画面分割表示に係る分割表示情報を前記表示画面上に表示させ、表示された前記分割表示情報に対する後続操作に基づいて、選択された前記複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも第1の領域および第2の領域に分割して表示させる制御部、
 を備え、
 前記後続操作は、前記画面分割表示が実行される前記アプリケーションを選択する操作を含む、
 情報処理装置。
(2)
 前記分割表示情報は、前記アプリケーションの一覧を示す情報を含み、
 前記制御部は、前記アプリケーションの一覧を示す情報に対する前記後続操作に基づいて、前記選択された複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも前記第1の領域および前記第2の領域に分割して表示させる、
 前記(1)に記載の情報処理装置。
(3)
 前記制御部は、前記後続操作に基づいて前記アプリケーションが選択された場合、前記後続操作に基づいて前記選択されたアプリケーション以外のアプリケーションの一覧を示す情報を前記表示画面上に表示させる、
 前記(2)に記載の情報処理装置。
(4)
 前記アプリケーションの一覧は、前記画面分割表示に対応していないアプリケーション以外のアプリケーションの一覧であり、
 前記制御部は、前記トリガ操作に基づいて、前記画面分割表示に対応していない前記アプリケーション以外の前記アプリケーションの一覧を示す情報を前記表示画面上に表示させる、
 前記(2)または(3)に記載の情報処理装置。
(5)
 前記分割表示情報は、選択される前記アプリケーションのウィンドウが表示される領域を示す領域情報を含み、
 前記制御部は、前記後続操作に基づいて、表示される前記領域情報を更新する、
 前記(2)~(4)のいずれか1項に記載の情報処理装置。
(6)
 前記制御部は、前記領域情報における前記選択されるアプリケーションのウィンドウが表示される領域に対応する箇所を指し示す情報の表示、もしくは、前記箇所の所定の色での表示、の一方もしくは双方を実行させる、
 前記(5)に記載の情報処理装置。
(7)
 前記分割表示情報は、前記第1の領域および前記第2の領域のそれぞれに対応する基準に基づいて特定されたアプリケーションの一覧を示す情報を含み、
 前記制御部は、前記基準に基づいて特定された前記アプリケーションの一覧を示す情報に対する前記後続操作に基づいて、前記選択された複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも前記第1の領域および前記第2の領域に分割して表示させる、
 前記(2)~(6)のいずれか1項に記載の情報処理装置。
(8)
 前記トリガ操作は、さらに前記画面分割表示が実行される前記アプリケーションを選択する操作であり、
 前記制御部は、前記トリガ操作および前記後続操作に基づいて選択された前記複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも前記第1の領域および前記第2の領域に分割して表示させる、
 前記(1)に記載の情報処理装置。
(9)
 前記分割表示情報は、前記複数のアプリケーションの組み合わせを示す情報をさらに含み、
 前記制御部は、前記組み合わせを示す情報に対する前記後続操作に基づいて、前記組み合わせに対応する前記複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも前記第1の領域および前記第2の領域に分割して表示させる、
 前記(1)~(8)のいずれか1項に記載の情報処理装置。
(10)
 前記制御部は、前記後続操作の検出に基づいて、前記アプリケーションに係るオーバレイ画像を表示させ、表示された前記オーバレイ画像に対するさらなる操作の検出に基づいて、前記アプリケーションのウィンドウを、前記第1の領域もしくは前記第2の領域に表示させる、
 前記(1)~(9)のいずれか1項に記載の情報処理装置。
(11)
 前記オーバレイ画像に対するさらなる操作は、前記オーバレイ画像に対するドラッグ操作であり、
 前記制御部は、前記オーバレイ画像に対するドラッグ操作に基づいて、前記アプリケーションのウィンドウを、前記第1の領域もしくは前記第2の領域に表示させる、
 前記(10)に記載の情報処理装置。
(12)
 前記制御部は、前記オーバレイ画像に対する前記ドラッグ操作に基づいて前記オーバレイ画像が前記表示画面における所定方向へ移動された場合、前記アプリケーションのウィンドウを、前記第1の領域もしくは前記第2の領域に表示させる、
 前記(11)に記載の情報処理装置。
(13)
 前記アプリケーションに係るオーバレイ画像は、前記アプリケーションにおいて所定の処理が実行された結果を示すオーバレイ画像であり、
 前記制御部は、前記トリガ操作の検出に基づいて、前記アプリケーションにおいて所定の処理が実行された結果を示すオーバレイ画像を表示させる、
 前記(11)~(12)のいずれか1項に記載の情報処理装置。
(14)
 前記制御部は、前記表示画面におけるいずれかの領域に前記ウィンドウが表示された前記アプリケーションにおける文字入力の開始に際し、前記文字入力が開始される前記アプリケーションのウィンドウが表示された前記領域と異なる領域の広さを所定範囲の広さに変更する、
 前記(1)~(13)のいずれか1項に記載の情報処理装置。
(15)
 前記制御部は、前記表示画面におけるいずれかの領域に対応する前記アプリケーションのウィンドウを、検出された照度に基づいて決定された輝度で表示させ、前記検出された照度に基づいて決定された輝度で前記ウィンドウが表示される領域と異なる領域に対応する前記アプリケーションのウィンドウを、所定範囲の輝度で表示させる、
 前記(1)~(14)のいずれか1項に記載の情報処理装置。
(16)
 前記制御部は、前記表示画面における前記第1の領域と前記第2の領域との境界である画面分割線を示す操作が検出された場合、前記画面分割線を境界として前記表示画面における前記第1の領域および前記第2の領域を決定する、
 前記(1)~(15)のいずれか1項に記載の情報処理装置。
(17)
 前記制御部は、前記後続操作に基づいて、前記選択された複数のアプリケーションのうちの元々起動していなかったアプリケーションを起動させ、前記選択された複数のアプリケーションのウィンドウを、前記表示画面における少なくとも前記第1の領域および前記第2の領域に分割して表示させる、
 前記(1)~(16)のいずれか1項に記載の情報処理装置。
(18)
 前記制御部は、第1の操作である前記トリガ操作と異なる第2の操作に基づいて、前記表示画面における単一のアプリケーションのウィンドウの画面表示に係る単一表示情報を前記表示画面上に表示させ、表示された前記単一表示情報に対する第2の後続操作に基づいて、選択された前記単一のアプリケーションの前記ウィンドウを、前記表示画面に表示させ、
 前記第2の後続操作は、単一画面表示が実行される前記アプリケーションを選択する操作を含む、
 前記(1)~(17)のいずれか1項に記載の情報処理装置。
(19)
 前記制御部は、前記表示画面に対する側面において前記トリガ操作が検出された場合に、前記分割表示情報を前記表示画面上に表示させる、
 前記(1)~(18)のいずれか1項に記載の情報処理装置。
(20)
 前記トリガ操作は、さらに前記画面分割表示が実行される前記アプリケーションのアイコンを選択する操作であり、
 前記制御部は、前記トリガ操作に基づいて選択された前記アイコンに対応する前記アプリケーションおよび前記後続操作に基づいて選択された前記アプリケーションのうちの起動していない前記アプリケーションを起動させ、前記選択された複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも前記第1の領域および前記第2の領域に分割して表示させる、
 前記(8)に記載の情報処理装置。
(21)
 前記制御部は、前記表示画面における前記画面分割表示が実行された領域における前記トリガ操作および前記後続操作に基づいて、選択された前記複数のアプリケーションの前記ウィンドウを、前記表示画面における前記画面分割表示が実行された領域における少なくとも前記第1の領域および前記第2の領域にさらに分割して表示させる、
 前記(1)~(20)のいずれか1項に記載の情報処理装置。
(22)
 プロセッサが、
 トリガ操作に基づいて、表示画面における複数のアプリケーションのウィンドウの画面分割表示に係る分割表示情報を前記表示画面上に表示させ、表示された前記分割表示情報に対する後続操作に基づいて、選択された前記複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも第1の領域および第2の領域に分割して表示させること、
 を含み、
 前記後続操作は、画面分割表示が実行される前記アプリケーションを選択する操作を含む、
 情報処理方法。
 10  情報処理端末
 110 センサ部
 120 入力部
 130 記憶部
 150 制御部
 160 ディスプレイ
 170 特定部
 180 通信部
 20  ネットワーク

Claims (20)

  1.  トリガ操作に基づいて、表示画面における複数のアプリケーションのウィンドウの画面分割表示に係る分割表示情報を前記表示画面上に表示させ、表示された前記分割表示情報に対する後続操作に基づいて、選択された前記複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも第1の領域および第2の領域に分割して表示させる制御部、
     を備え、
     前記後続操作は、前記画面分割表示が実行される前記アプリケーションを選択する操作を含む、
     情報処理装置。
  2.  前記分割表示情報は、前記アプリケーションの一覧を示す情報を含み、
     前記制御部は、前記アプリケーションの一覧を示す情報に対する前記後続操作に基づいて、前記選択された複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも前記第1の領域および前記第2の領域に分割して表示させる、
     請求項1に記載の情報処理装置。
  3.  前記制御部は、前記後続操作に基づいて前記アプリケーションが選択された場合、前記後続操作に基づいて前記選択されたアプリケーション以外のアプリケーションの一覧を示す情報を前記表示画面上に表示させる、
     請求項2に記載の情報処理装置。
  4.  前記アプリケーションの一覧は、前記画面分割表示に対応していないアプリケーション以外のアプリケーションの一覧であり、
     前記制御部は、前記トリガ操作に基づいて、前記画面分割表示に対応していない前記アプリケーション以外の前記アプリケーションの一覧を示す情報を前記表示画面上に表示させる、
     請求項2に記載の情報処理装置。
  5.  前記分割表示情報は、選択される前記アプリケーションのウィンドウが表示される領域を示す領域情報を含み、
     前記制御部は、前記後続操作に基づいて、表示される前記領域情報を更新する、
     請求項2に記載の情報処理装置。
  6.  前記制御部は、前記領域情報における前記選択されるアプリケーションのウィンドウが表示される領域に対応する箇所を指し示す情報の表示、もしくは、前記箇所の所定の色での表示、の一方もしくは双方を実行させる、
     請求項5に記載の情報処理装置。
  7.  前記分割表示情報は、前記第1の領域および前記第2の領域のそれぞれに対応する基準に基づいて特定されたアプリケーションの一覧を示す情報を含み、
     前記制御部は、前記基準に基づいて特定された前記アプリケーションの一覧を示す情報に対する前記後続操作に基づいて、前記選択された複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも前記第1の領域および前記第2の領域に分割して表示させる、
     請求項2に記載の情報処理装置。
  8.  前記トリガ操作は、さらに前記画面分割表示が実行される前記アプリケーションを選択する操作であり、
     前記制御部は、前記トリガ操作および前記後続操作に基づいて選択された前記複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも前記第1の領域および前記第2の領域に分割して表示させる、
     請求項1に記載の情報処理装置。
  9.  前記分割表示情報は、前記複数のアプリケーションの組み合わせを示す情報をさらに含み、
     前記制御部は、前記組み合わせを示す情報に対する前記後続操作に基づいて、前記組み合わせに対応する前記複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも前記第1の領域および前記第2の領域に分割して表示させる、
     請求項1に記載の情報処理装置。
  10.  前記制御部は、前記後続操作の検出に基づいて、前記アプリケーションに係るオーバレイ画像を表示させ、表示された前記オーバレイ画像に対するさらなる操作の検出に基づいて、前記アプリケーションのウィンドウを、前記第1の領域もしくは前記第2の領域に表示させる、
     請求項1に記載の情報処理装置。
  11.  前記オーバレイ画像に対するさらなる操作は、前記オーバレイ画像に対するドラッグ操作であり、
     前記制御部は、前記オーバレイ画像に対するドラッグ操作に基づいて、前記アプリケーションのウィンドウを、前記第1の領域もしくは前記第2の領域に表示させる、
     請求項10に記載の情報処理装置。
  12.  前記制御部は、前記オーバレイ画像に対する前記ドラッグ操作に基づいて前記オーバレイ画像が前記表示画面における所定方向へ移動された場合、前記アプリケーションのウィンドウを、前記第1の領域もしくは前記第2の領域に表示させる、
     請求項11に記載の情報処理装置。
  13.  前記アプリケーションに係るオーバレイ画像は、前記アプリケーションにおいて所定の処理が実行された結果を示すオーバレイ画像であり、
     前記制御部は、前記トリガ操作の検出に基づいて、前記アプリケーションにおいて所定の処理が実行された結果を示すオーバレイ画像を表示させる、
     請求項10に記載の情報処理装置。
  14.  前記制御部は、前記表示画面におけるいずれかの領域に前記ウィンドウが表示された前記アプリケーションにおける文字入力の開始に際し、前記文字入力が開始される前記アプリケーションのウィンドウが表示された前記領域と異なる領域の広さを所定範囲の広さに変更する、
     請求項1に記載の情報処理装置。
  15.  前記制御部は、前記表示画面におけるいずれかの領域に対応する前記アプリケーションのウィンドウを、検出された照度に基づいて決定された輝度で表示させ、前記検出された照度に基づいて決定された輝度で前記ウィンドウが表示される領域と異なる領域に対応する前記アプリケーションのウィンドウを、所定範囲の輝度で表示させる、
     請求項1に記載の情報処理装置。
  16.  前記制御部は、前記表示画面における前記第1の領域と前記第2の領域との境界である画面分割線を示す操作が検出された場合、前記画面分割線を境界として前記表示画面における前記第1の領域および前記第2の領域を決定する、
     請求項1に記載の情報処理装置。
  17.  前記制御部は、前記後続操作に基づいて、前記選択された複数のアプリケーションのうちの元々起動していなかったアプリケーションを起動させ、前記選択された複数のアプリケーションのウィンドウを、前記表示画面における少なくとも前記第1の領域および前記第2の領域に分割して表示させる、
     請求項1に記載の情報処理装置。
  18.  前記制御部は、第1の操作である前記トリガ操作と異なる第2の操作に基づいて、前記表示画面における単一のアプリケーションのウィンドウの画面表示に係る単一表示情報を前記表示画面上に表示させ、表示された前記単一表示情報に対する第2の後続操作に基づいて、選択された前記単一のアプリケーションの前記ウィンドウを、前記表示画面に表示させ、
     前記第2の後続操作は、単一画面表示が実行される前記アプリケーションを選択する操作を含む、
     請求項1に記載の情報処理装置。
  19.  前記制御部は、前記表示画面における前記画面分割表示が実行された領域における前記トリガ操作および前記後続操作に基づいて、選択された前記複数のアプリケーションの前記ウィンドウを、前記表示画面における前記画面分割表示が実行された領域における少なくとも前記第1の領域および前記第2の領域にさらに分割して表示させる、
     請求項1に記載の情報処理装置。
  20.  プロセッサが、
     トリガ操作に基づいて、表示画面における複数のアプリケーションのウィンドウの画面分割表示に係る分割表示情報を前記表示画面上に表示させ、表示された前記分割表示情報に対する後続操作に基づいて、選択された前記複数のアプリケーションの前記ウィンドウを、前記表示画面における少なくとも第1の領域および第2の領域に分割して表示させること、
     を含み、
     前記後続操作は、画面分割表示が実行される前記アプリケーションを選択する操作を含む、
     情報処理方法。
PCT/JP2019/006928 2019-02-22 2019-02-22 情報処理装置及び情報処理方法 WO2020170461A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/430,647 US11789589B2 (en) 2019-02-22 2019-02-22 Information processing apparatus and information processing method for dividing display screen for display of plurality of applications
PCT/JP2019/006928 WO2020170461A1 (ja) 2019-02-22 2019-02-22 情報処理装置及び情報処理方法
JP2021501375A JP7342937B2 (ja) 2019-02-22 2019-02-22 情報処理装置及び情報処理方法
EP19915692.8A EP3929715B1 (en) 2019-02-22 2019-02-22 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/006928 WO2020170461A1 (ja) 2019-02-22 2019-02-22 情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
WO2020170461A1 true WO2020170461A1 (ja) 2020-08-27

Family

ID=72144629

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/006928 WO2020170461A1 (ja) 2019-02-22 2019-02-22 情報処理装置及び情報処理方法

Country Status (4)

Country Link
US (1) US11789589B2 (ja)
EP (1) EP3929715B1 (ja)
JP (1) JP7342937B2 (ja)
WO (1) WO2020170461A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209350A1 (ja) 2021-03-31 2022-10-06 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117806740A (zh) * 2022-09-21 2024-04-02 广州三星通信技术研究有限公司 终端的分屏应用匹配方法、装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012521595A (ja) * 2009-03-25 2012-09-13 サムスン エレクトロニクス カンパニー リミテッド 画面領域分割方法及びこれを用いた携帯端末
JP2014116004A (ja) * 2012-12-06 2014-06-26 Samsung Electronics Co Ltd ディスプレー装置及びその制御方法
US20160062552A1 (en) * 2014-08-29 2016-03-03 Samsung Electronics Co., Ltd. Window management method and electronic device supporting the same
US20160202852A1 (en) * 2013-08-22 2016-07-14 Samsung Electronics Co., Ltd. Application execution method by display device and display device thereof
JP2018535455A (ja) * 2016-10-31 2018-11-29 ベイジン シャオミ モバイル ソフトウェア カンパニーリミテッド 画面分割表示方法および装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120116905A (ko) * 2009-09-24 2012-10-23 링가이즈 인코포레이티드 사용자 정의된 애셋의 집합의 생성 및 공유를 가능화하는 컴퓨터 구현 방법
KR102044829B1 (ko) * 2012-09-25 2019-11-15 삼성전자 주식회사 휴대단말기의 분할화면 처리장치 및 방법
KR102069014B1 (ko) * 2012-09-25 2020-02-12 삼성전자 주식회사 휴대단말기의 분리화면 제어장치 및 방법
EP2741201A3 (en) 2012-12-06 2017-05-17 Samsung Electronics Co., Ltd Display device and method of controlling the same
CN104956301B (zh) 2012-12-06 2019-07-12 三星电子株式会社 显示设备和控制显示设备的方法
US10585553B2 (en) 2012-12-06 2020-03-10 Samsung Electronics Co., Ltd. Display device and method of controlling the same
KR20140087473A (ko) * 2012-12-31 2014-07-09 엘지전자 주식회사 두 개 이상의 화면을 처리하는 영상 처리 장치 및 방법
JP2014157466A (ja) 2013-02-15 2014-08-28 Sony Corp 情報処理装置及び記憶媒体
KR102153366B1 (ko) * 2013-08-30 2020-10-15 삼성전자 주식회사 전자 기기의 화면 전환 방법 및 장치
CN105468272A (zh) * 2014-09-03 2016-04-06 中兴通讯股份有限公司 界面显示方法及装置
US9830863B1 (en) * 2015-02-09 2017-11-28 Rockwell Collins, Inc. Content-based selectable area brightness control for displays
CN107273036A (zh) * 2017-06-30 2017-10-20 广东欧珀移动通信有限公司 移动终端及其分屏控制方法、计算机可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012521595A (ja) * 2009-03-25 2012-09-13 サムスン エレクトロニクス カンパニー リミテッド 画面領域分割方法及びこれを用いた携帯端末
JP2014116004A (ja) * 2012-12-06 2014-06-26 Samsung Electronics Co Ltd ディスプレー装置及びその制御方法
US20160202852A1 (en) * 2013-08-22 2016-07-14 Samsung Electronics Co., Ltd. Application execution method by display device and display device thereof
US20160062552A1 (en) * 2014-08-29 2016-03-03 Samsung Electronics Co., Ltd. Window management method and electronic device supporting the same
JP2018535455A (ja) * 2016-10-31 2018-11-29 ベイジン シャオミ モバイル ソフトウェア カンパニーリミテッド 画面分割表示方法および装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209350A1 (ja) 2021-03-31 2022-10-06 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
EP3929715A1 (en) 2021-12-29
EP3929715A4 (en) 2022-03-02
US11789589B2 (en) 2023-10-17
JPWO2020170461A1 (ja) 2021-12-16
US20220179525A1 (en) 2022-06-09
JP7342937B2 (ja) 2023-09-12
EP3929715B1 (en) 2024-02-07

Similar Documents

Publication Publication Date Title
JP7407851B2 (ja) ユーザインタフェース間をナビゲートし、制御オブジェクトと対話するためのデバイス、方法及びグラフィカルユーザインタフェース
JP6833245B2 (ja) ユーザインタフェース間をナビゲートし、制御オブジェクトと対話するためのデバイス、方法及びグラフィカルユーザインタフェース
US11054988B2 (en) Graphical user interface display method and electronic device
US10564813B2 (en) User terminal apparatus and management method of home network thereof
JP7342208B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
US9880727B2 (en) Gesture manipulations for configuring system settings
TW201617837A (zh) 一種螢幕顯示視窗的處理方法以及移動終端
EP2214088A2 (en) Information processing
KR20170058220A (ko) 전자 장치 및 이의 제어 방법
KR20130080179A (ko) 휴대용 단말기에서 아이콘 관리 방법 및 장치
US8542199B2 (en) Image processing apparatus, image processing method, and program
KR20110047816A (ko) 화상형성장치 및 화상형성장치의 타겟영역 확대 표시방법
EP3035176A1 (en) Apparatus and method for enlarging an image and controlling the enlarged image in a mobile communication terminal
KR20150095541A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
EP4348411A2 (en) Systems and methods for interacting with multiple display devices
JP5174616B2 (ja) 携帯電話
US9785333B2 (en) Display device, image processing apparatus, non-transitory computer readable medium, and display control method
JP7342937B2 (ja) 情報処理装置及び情報処理方法
CN112567325A (zh) 信息处理设备和信息处理方法
WO2023125094A1 (zh) 用户界面处理方法、装置、设备及计算机可读存储介质
US10645144B2 (en) Computer-implemented method for controlling a remote device with a local device
JP6779778B2 (ja) 表示制御装置およびその制御方法
JP2015102946A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
WO2022059386A1 (ja) 操作領域を移動する情報処理装置
JP7077024B2 (ja) 電子機器、情報処理方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19915692

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021501375

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019915692

Country of ref document: EP

Effective date: 20210922