WO2015022749A1 - Display device and display program - Google Patents

Display device and display program Download PDF

Info

Publication number
WO2015022749A1
WO2015022749A1 PCT/JP2013/071984 JP2013071984W WO2015022749A1 WO 2015022749 A1 WO2015022749 A1 WO 2015022749A1 JP 2013071984 W JP2013071984 W JP 2013071984W WO 2015022749 A1 WO2015022749 A1 WO 2015022749A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
area
display
coordinates
Prior art date
Application number
PCT/JP2013/071984
Other languages
French (fr)
Japanese (ja)
Inventor
藤本裕二
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2013/071984 priority Critical patent/WO2015022749A1/en
Publication of WO2015022749A1 publication Critical patent/WO2015022749A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Definitions

  • the present invention relates to an apparatus for performing screen display processing.
  • the window may be displayed semi-transparently.
  • a translucent window is displayed on the front side, the user can check the display contents of a portion of the window displayed on the back side that overlaps the translucent window.
  • a portable terminal that displays a character input sheet including a soft keyboard for inputting a character string on a body sheet when a screen switching instruction is detected.
  • a character input sheet is displayed so that a character string displayed on the body sheet can be visually recognized (see, for example, Patent Document 1).
  • an input device that displays a first input screen for editing a document and a second input screen for inputting characters is also known. The input device acquires a user operation by detecting an image, and further specifies which of the first input screen and the second input screen is selected using the area of the detected image (for example, , See Patent Document 2).
  • the window displayed on the back side may include a user interface to be operated by the user.
  • the user needs to perform an operation on the operation target after performing an operation such as closing the window displayed on the front surface in order to enable an operation on the window including the operation target.
  • the present invention aims to improve the convenience of a display device.
  • the display device includes a touch panel, a specifying unit, an assigning unit, and a display control unit.
  • the touch panel has a display unit and an input unit.
  • the display unit can display the first and second images on the screen so that the second image overlaps at least a part of the first image.
  • the input unit accepts an operation.
  • the specifying unit specifies a start coordinate of the operation.
  • the assigning unit assigns a part of the operation area of the touch panel to a detection area that is an area for detecting selection of the selection area.
  • the process of assigning the detection area is the first image, wherein a selection area that is an area used for selection of the process is arranged at the start coordinates, and the first image is at the start coordinates. This is performed when it is covered with the second image.
  • the display control unit performs control for displaying the detection area on the screen.
  • FIG. 1 shows a display example on the display device according to the embodiment.
  • the first window generated by the application A is displayed on the screen of a display device including a touch panel.
  • the display content of the first window is an image (first image) indicated by D1.
  • the first window includes an area used for selection of a user process.
  • an area used for selecting a user process may be referred to as a “selected area”.
  • the selection area is an area where an arbitrary user interface is arranged.
  • the user interface is realized by, for example, a display (icon, button, etc.) for receiving input from the user.
  • the display device holds information such as coordinates for specifying the area where the selected area is arranged.
  • the selection area is the button AA
  • the display device holds information such as coordinates for specifying the area where the button AA is displayed.
  • the second window is displayed on the screen by the user's operation.
  • the display content of the second window is the second image indicated by D2.
  • the selection area button BB
  • the display device also holds information such as coordinates for specifying the arranged area for the selection area included in the second window.
  • D3 shows an example of the screen when both the first window and the second window are displayed.
  • D3 in order to make the positional relationship between the button AA and the button BB easier to understand, at least a part of the second window is transparent, and the first window is visible through the second window.
  • the case where the second window is displayed in front of this window will be described.
  • an example of a translucent window will be described as an example of a window having transparency, but the first window may be visible, and the degree of transparency is not limited. Of course, it may be transparent.
  • the display device When the display device detects a touch operation on the second window displayed in the foreground, the display device specifies the start coordinates of the touch operation. When the start coordinate of the touch operation is included in the selection area in the first window, the display device determines that the user may have attempted to select the selection area in the first window, and The detection area 5 associated with the selected area in one window is generated. The detection area 5 is used to detect selection of a selection area in a window displayed on the back surface.
  • the display device displays the touch operation start coordinates in the area where the button BB is displayed in the second window. Determine if it is included. Further, the display device determines whether the start coordinate of the touch operation is included in the area where the button AA is displayed in the first window. For example, as shown in D4, it is assumed that the touch operation is started from the position where the button AA is arranged in the first window. In this case, since the start coordinates of the touch operation are included in the area where the button AA is arranged, the display device determines that there is a possibility that the user is going to select the button AA in the first window. To do. Therefore, the display device displays a detection area 5 for detecting a processing request associated with the button AA on the forefront of the screen, as indicated by D5.
  • the display device determines that the selection area associated with the detection area 5 has been selected if the end coordinates of the touch operation are included in the detection area 5. For example, when the position where the user finishes the touch operation is included in the display detection area 5 shown in D5, the display device determines that the button AA in the first window has been selected, and sets the button AA to the button AA. Perform the associated processing.
  • the display device has a detection area for detecting selection of the user interface when the user interface is arranged at the start coordinate in the window displayed behind the other window at the start coordinate of the touch operation. Is displayed in the foreground.
  • the display device determines that the user interface associated with the detection area has been selected by the user. For this reason, when the button in the window displayed on the back is the selection target, the user starts the touch operation from the display area of the selection target button, and in the detection area associated with the selection target button. By ending the touch operation, a selection target button can be selected. Therefore, the user of the display device according to the embodiment can select the user interface displayed on the back by one touch operation without ending the application displaying the window on the front.
  • the case where the user-selectable user interface is a button has been described as an example.
  • the user interface can take any form including a button.
  • the second window is translucent has been described as an example for easy understanding, but the second window is not limited to the translucent window.
  • the first window may not be visible through the second window.
  • FIG. 2 shows an example of the configuration of the display device 10.
  • the display device 10 includes a touch panel 11, a software control unit 13, and a storage unit 80.
  • the software control unit 13 includes an input control unit 20, a display control unit 30, a display component control unit 40, an application processing unit 50, a soft keyboard control unit 60, and an arrangement analysis unit 70.
  • the display component control unit 40 includes a coordinate calculation unit 41 and a notification unit 42.
  • the application processing unit 50 includes a position information generation unit 51 and a processing unit 52.
  • the soft keyboard control unit 60 includes a specifying unit 61, an input processing unit 62, an assigning unit 63, and a detecting unit 64.
  • the arrangement analysis unit 70 includes an acquisition unit 71 and an extraction unit 72.
  • the touch panel 11 includes an input unit 15 and a display unit 16.
  • the display unit 16 includes a screen and displays a window on the screen according to data input from the software control unit 13.
  • the display unit 16 can include a screen using a liquid crystal display (LCD).
  • the input unit 15 receives input from the user.
  • the input unit 15 acquires the coordinates of the input position and determines the type of touch event.
  • the DOWN event is a touch event that occurs when the input coordinates are not included in the trajectory of the touch operation that has been observed so far. For example, the DOWN event occurs when the touch operation is started.
  • the MOVE event is a touch event that occurs when input coordinates are included in the trajectory of the touch operation being observed.
  • the UP event occurs when the touch operation is finished.
  • the input unit 15 associates the coordinate information with the touch event generated at that coordinate, and outputs it to the input control unit 20.
  • the input control unit 20 outputs coordinate information and a touch event type to the display control unit 30.
  • the display control unit 30 manages the order of windows displayed on the screen. On the screen, a window generated by an application running on the display device 10 or a window displayed by the Operating System (OS) can be displayed. In addition, a plurality of windows may be displayed in an overlapping manner.
  • the display control unit 30 holds the display order of the windows being displayed. In the following description, information indicating the order in which windows are displayed may be referred to as display order data 81.
  • the display control unit 30 generates and updates the display order data 81 and records the display order data 81 in the storage unit 80.
  • the display control unit 30 When a combination of coordinates and a touch event is input from the input control unit 20, the display control unit 30 is associated with the window drawn in the foreground among the windows displayed at the input coordinates. It is determined that input to the application has been performed. When it is determined that an input to an application other than the soft keyboard has been performed, the display control unit 30 outputs a combination of identification information, input coordinates, and touch event type of the application from which the input has been detected to the notification unit 42. On the other hand, when it is determined that the input to the soft keyboard has been performed, the display control unit 30 outputs the combination of the input coordinates and the touch event type to the specifying unit 61.
  • the coordinate calculation unit 41 holds screen information and uses the position information 82 to calculate the display coordinates of the user interface.
  • the notification unit 42 determines whether there is a selected user interface based on information input from the display control unit 30 or the detection unit 64. At this time, the notification unit 42 converts the notified coordinates into a function of the height and width of the screen using information on the size of the screen. For example, the notification unit 42 can obtain a value obtained by dividing the value of the X coordinate by the maximum value in the X-axis direction on the screen included in the display device 10 as a multiple of the horizontal width of the screen. Similarly, the notification unit 42 can determine the ratio of the Y coordinate to the maximum value in the Y-axis direction on the screen.
  • the notification unit 42 determines whether the user interface has been selected by comparing the obtained value with information associated with the identifier of the application notified from the display control unit 30 in the position information 82. When the user interface is selected, the notification unit 42 outputs information for identifying the selected user interface and an application identifier to the processing unit 52.
  • the position information generation unit 51 generates information for specifying the size and display position of the user interface in the window.
  • information for specifying the size and display position of the user interface in the window may be described as position information 82.
  • the position information generation unit 51 can use the layout file used in the application when generating the position information 82.
  • the layout file includes layout information of a screen to be displayed.
  • the layout file includes information such as the size and coordinates of a user interface included in the screen and coordinates of an area used for display.
  • the method of using the layout file by the position information generation unit 51 is the same as any known method.
  • the processing unit 52 performs processing according to the selected user interface. For example, when a send button is pressed on the mail creation screen, the processing unit 52 performs a process for sending the created mail.
  • a user interface associated with the soft keyboard display such as a button associated with the start of message creation or a keyboard display button, is selected, the processing unit 52 causes the input processing unit 62 to display the soft keyboard. Request activation.
  • an application that displays a window in which a user interface (key) is arranged like a keyboard and performs an input operation in response to a touch operation on the area where the key is displayed is referred to as a “soft keyboard”.
  • a soft keyboard an application that displays a window in which a user interface (key) is arranged like a keyboard and performs an input operation in response to a touch operation on the area where the key is displayed.
  • the input processing unit 62 activates the soft keyboard in response to a request from the processing unit 52.
  • the specifying unit 61 specifies the start position of the touch operation using the combination of the input coordinates and the touch event input from the display control unit 30. For example, the specifying unit 61 sets the coordinates associated with the DOWN event as the start coordinates of the touch operation.
  • the specifying unit 61 outputs the start position of the touch operation to the detection unit 64, the acquisition unit 71, and the extraction unit 72. Furthermore, the specifying unit 61 outputs the coordinates determined to be not the start coordinates of the touch operation to the detecting unit 64.
  • the acquisition unit 71 uses the display order data 81 stored in the storage unit 80 to specify an application related to the window displayed on the back of the soft keyboard. . Further, the acquisition unit 71 acquires the display position of the user interface associated with the identified application using the display order data 81 and the position information 82.
  • the extraction unit 72 uses the information acquired by the acquisition unit 71 and the start coordinates input from the specifying unit 61 to extract a user interface displayed at a position including the start coordinates. If the user interface can be extracted, the extraction unit 72 outputs the extracted user interface information, the identifier of the application that uses the extracted user interface, and the combination of the start coordinates to the allocation unit 63. On the other hand, when there is no user interface including the start coordinates, the extraction unit 72 outputs the start coordinates to the allocation unit 63 together with information indicating that there is no user interface that may have been selected.
  • the allocation unit 63 allocates a part of the operation area of the touch panel 11 to the detection area 5 for detecting an input to the user interface notified from the extraction unit 72.
  • an area used by the user for the touch operation in the touch panel 11 is referred to as an operation area.
  • the assigning unit 63 assigns a part of the operation area of the touch panel 11 to the detection area 6 for detecting the input of each of the character candidates that can be input with the keys of the soft keyboard displayed at the start coordinates.
  • the allocation unit 63 uses any area of the touch panel 11 as an area for detecting input to the user interface in the rear window. Do not assign.
  • the allocation unit 63 notifies the detection unit 64 of information for specifying the detection region 5 and the detection region 6, information such as a user interface associated with the detection region 5 and input characters associated with the detection region 6. Further, the assigning unit 63 notifies the detection unit 64 of the identifier of the application that uses the user interface.
  • the detecting unit 64 stores the start coordinates input from the specifying unit 61. Further, the detection unit 64 identifies the processing requested by the user by comparing the end coordinates of the touch operation with the detection area 5 and the detection area 6. For example, the detection unit 64 sets the coordinate associated with the UP event among the coordinates input from the specifying unit 61 as the end coordinate of the touch operation. The detection unit 64 detects a processing request associated with the identified detection region by identifying the detection region including the end coordinates of the touch operation. In other words, the detection unit 64 is assumed to be a process in which the user selects the process associated with the detection area including the end coordinates of the touch operation.
  • the detection unit 64 When it is determined that the user interface has been selected, the detection unit 64 outputs notification information for notifying that the user interface of the application displayed on the back of the keyboard has been selected to the notification unit 42.
  • the notification information includes data in which the DOWN event is associated with the start coordinates of the touch operation, data in which the UP event is associated with the start coordinates of the touch operation, and the identifier of the application displayed on the back of the soft keyboard Is included.
  • the notification information is information for notifying that a tap operation has occurred on the user interface in the window displayed on the back. That is, when the touch operation started from the coordinates where the user interface in the back window is arranged ends in the detection area 5, the detection unit 64 selects the user interface in the window displayed on the back.
  • the detection unit 64 notifies the notification unit 42 of the same information that is generated when a tap operation on the user interface in the window displayed on the back surface occurs. .
  • the notification unit 42 refers to the position information 82 to identify a user interface associated with the notified application identifier that includes the start coordinates and end coordinates of the touch operation.
  • the notification unit 42 notifies the processing unit 52 together with the application identifier that the specified user interface has been selected.
  • the processing unit 52 When the display screen of the application is changed according to the notification from the notification unit 42, the processing unit 52 generates a new display screen and outputs it to the display unit 16 via the input control unit 20.
  • the input control unit 20 updates the display order data 81 as appropriate.
  • the detection unit 64 is associated with the detection area 6 including the end coordinates of the touch operation. Perform character input processing.
  • FIG. 3 shows an example of the hardware configuration of the display device 10.
  • the display device 10 includes a touch panel 11, a processor 91, a memory 92, and a bus 93.
  • the processor 91 operates as the software control unit 13.
  • the memory 92 is an example of the storage unit 80.
  • the bus 93 connects the touch panel 11, the processor 91, and the memory 92 so that data can be input and output.
  • the memory 92 includes a Read Only Memory (ROM) and a Random Access Memory (RAM).
  • the processor 91 reads the program recorded in the ROM and realizes the software control unit 13.
  • the processor 91 can use a RAM as appropriate.
  • FIG. 3 is an example of the display device 10, and the display device 10 may include other devices as an option.
  • the display device 10 when the display device 10 is realized as a mobile phone terminal, the display device 10 further holds a microphone, a speaker, a wireless processing circuit, an antenna, and the like. Further, a camera or the like may be mounted on the display device 10. Furthermore, the display device 10 may be realized as a tablet or a computer.
  • FIG. 4 shows an example of coordinates used in the display device 10 and an example of a window displayed on the display device 10.
  • the upper left corner of the screen is set as the origin, as indicated by W0 in FIG.
  • the X axis is set to the right from the origin
  • the Y axis is set to the downward from the origin.
  • the screen is used as an example when the length in the X-axis direction is a and the length in the Y-axis direction is b.
  • an example of the operation of the display device 10 will be described by taking the case where the display device 10 is a mobile phone terminal as an example.
  • the display device 10 may be a device other than the mobile phone terminal, and may be any device that can change the screen display by an input from the touch panel 11.
  • the display control unit 30 When the display device 10 is activated, a notification area for notifying the state of the display device 10 is displayed by the OS as indicated by W1 in FIG. At this time, the display control unit 30 generates display order data 81 when displaying the notification area.
  • the display order data 81 includes an identifier of a window displayed on the screen, data representing the window display order, coordinate data for specifying an area for displaying the window, and the like.
  • the display order data 81a shown in FIG. 5 is created when the notification area is displayed.
  • the display control unit 30 displays the notification area on the screen of the display device 10 by outputting the information of the display order data 81a and the window W1 to the display unit 16.
  • the user activates the application AP1.
  • the application AP1 is software used for mail creation
  • an example of a window displayed by the application AP1 is shown in a window W2 in FIG.
  • the display control unit 30 updates the display order data 81a to the display order data 81b in order to display the window W2 on the screen.
  • the position information generation unit 51 generates position information 82.
  • FIG. 6 shows an example of the position information 82.
  • the position information 82a illustrated in FIG. 6 associates coordinates for specifying a displayed region, an application, processing when selected, and a display name of the user interface for each user interface. For example, in the transmission button in the window W2 generated by the application AP1, the coordinates of the upper left corner are (0, 0.85b) and the coordinates of the lower right corner are (0.5a, b).
  • the position information generation unit 51 also includes information in the position information 82a for the save button, destination input area, title input area, and mail text input area.
  • the position information generation unit 51 can also refer to a layout file used to generate the window W2 as appropriate when generating the position information 82a.
  • the position information generation unit 51 uses a character string set in association with each user interface in the layout file as a display name of the user interface.
  • the display control unit 30 outputs the display order data 81b, the window W1, and the window W2 to the display unit 16. Since the window W2 of the application AP1 is displayed on the back of the notification information window W1 according to the display order data 81b, the display of the screen of the display device 10 is as shown in FIG.
  • the input unit 15 outputs the coordinates at which the input from the user is detected and the detection of the touch event to the input control unit 20.
  • the coordinates detected together with the type of the touch event are output to the input control unit 20 for the coordinates where the DOWN event is detected and the coordinates where the UP event is detected.
  • the input control unit 20 outputs a combination of information indicating the detected coordinates and the type of touch event to the display control unit 30.
  • the display control unit 30 uses the display order data 81 to specify that the window used by the application AP1 is displayed at the notified coordinates.
  • the display control unit 30 outputs the information acquired from the input control unit 20 together with the identifier of the application AP1 to the notification unit 42.
  • the notification unit 42 uses the position information 82 to specify a user interface including the coordinates notified from the display control unit 30 among the user interfaces used in the application AP1.
  • the notification unit 42 notifies the processing unit 52 that the identified user interface is selected. Here, it is assumed that the input area of the mail text is selected.
  • the processing unit 52 requests the input processing unit 62 to start a soft keyboard.
  • FIG. 8 shows an example of a soft keyboard.
  • the input processing unit 62 activates the soft keyboard and outputs information representing the display coordinates of each key included in the soft keyboard as a function of the height and width of the screen to the coordinate calculation unit 41.
  • the coordinate calculation unit 41 calculates display coordinates using information on the height and width of the screen, and generates a soft keyboard window W3 as shown in FIG.
  • the coordinate calculation unit 41 outputs information on the window W3 of the soft keyboard to the display control unit 30.
  • the display control unit 30 sets the display order for the soft keyboard. For example, it is assumed that the display control unit 30 determines to display the activated soft keyboard on the window W2 (that is, the front surface). In this case, the display control unit 30 updates the display order data 81b as indicated by the display order data 81c.
  • the coordinate calculation unit 41 acquires coordinate information for each key included in the soft keyboard and updates the position information 82.
  • position information 82b including information on each key in the soft keyboard is shown in FIG.
  • the second key from the top in the second column from the left in the soft keyboard has the coordinates of the upper left corner (0.2a, 0.7b) and the coordinates of the lower right corner (0.4a, 0.8b). Yes, used to input alphabets G, H, and I.
  • the coordinates and the usage of the key are associated with the position information 82.
  • the display control unit 30 outputs the window W3 and the display conditions for the window W3 to the display unit 16, whereby a soft keyboard is displayed on the screen.
  • a display D12 in FIG. 10 is a display example of a soft keyboard.
  • a display D12 in FIG. 10 shows an example in which the soft keyboard shown in the window W3 is activated while the display D11 is being displayed. Since the soft keyboard is translucent, it is assumed that the user of the display device 10 can visually recognize the window displayed on the back of the soft keyboard as shown in the display D12.
  • the input unit 15 outputs to the input control unit 20 a combination of coordinates for detecting the input and information for specifying the type of touch event.
  • the input unit 15 associates the coordinates of the position X and the DOWN event, and outputs them to the input control unit 20.
  • the display control unit 30 acquires a combination of coordinates and touch events from the input control unit 20, the display control unit 30 outputs the combination to the specifying unit 61.
  • the specifying unit 61 sets the coordinate associated with the DOWN event as the start coordinate of the touch operation.
  • the specifying unit 61 sets (0.35a, 0.88b) as the start coordinates.
  • the specifying unit 61 notifies the acquisition unit 71, the extraction unit 72, and the detection unit 64 of the obtained start coordinates.
  • the acquisition unit 71 acquires user interface information included in the window displayed on the back of the soft keyboard. At this time, the acquisition unit 71 appropriately uses the display order data 81c (FIG. 5) to specify that the window W2 generated by the application AP1 is displayed on the back of the window W3 of the soft keyboard. Furthermore, the acquisition unit 71 acquires the position information of the user interface included in the window W2 of the application AP1 by using the position information 82b (FIG. 9).
  • the extracting unit 72 extracts the user interface including the start coordinates (0.35a, 0.88b) input from the specifying unit 61 using the position information of the user interface acquired by the acquiring unit 71.
  • the coordinates of the upper left corner of the send button are (0, 0.85b) and the coordinates of the lower right corner are (0.5a, b).
  • the send button is extracted as a user interface including.
  • the extraction unit 72 outputs the obtained result to the allocation unit 63. Accordingly, here, the extraction unit 72 notifies the allocation unit 63 that the transmission button of the application AP1 is displayed at the touch operation start coordinates (0.35a, 0.88b).
  • the assigning unit 63 specifies a key including the coordinates notified from the extracting unit 72 using the position information 82b (FIG. 9).
  • the touch operation is started from the position X in the display D13.
  • the coordinates of the upper left corner of the key used for inputting P to S are (0.2a, 0.8b), the coordinates of the lower right corner are (0.4a, 0.9b), and the coordinates of the position X are (0. 35a, 0.88b). Therefore, the assigning unit 63 specifies that the key including the touch operation start position X is used for inputting P to S. Therefore, the assigning unit 63 assigns a part of the operation area of the touch panel 11 to the detection area 6 (6a to 6d) associated with each of the inputs P to S.
  • the allocating unit 63 also generates a detection area 5 for detecting an input to the user interface notified from the extracting unit 72.
  • the allocating unit 63 designates that the display name of the user interface associated with the detection area 5 is displayed in the detection area 5.
  • the allocation unit 63 since it is notified that there is a transmission button of the application AP1 at the start position of the touch operation, the allocation unit 63 generates the detection area 5 associated with the transmission button of the application AP1. Further, the display name “transmission” is set to be displayed in the detection area 5.
  • the allocation unit 63 notifies the detection unit 64 of information on the detection areas 5 and 6a to 6d shown in FIG.
  • the assigning unit 63 generates an image G1 for allowing the user to visually recognize the detection areas 5, 6a to 6d, and outputs the generated image G1 to the display control unit 30.
  • the display control unit 30 requests the display unit 16 to display the image G1 on the forefront of the display D13. Therefore, when the detection areas 5, 6a to 6d are displayed on the screen, the user of the display device 10 can see a display as shown in the display D14.
  • the detecting unit 64 sets the coordinates associated with the UP event among the coordinates input from the specifying unit 61 as the end coordinates of the touch operation. Next, the detection unit 64 specifies a detection area including the end coordinates of the touch operation. At this time, the detection unit 64 uses the information of the detection areas 5 and 6a to 6d notified in advance from the allocation unit 63. The detection unit 64 detects a request for an operation associated with a detection area including the end coordinates of the touch operation. That is, the detection unit 64 determines that the process associated with the detection area including the end coordinates of the touch operation is the process selected by the user. In the following description, it is assumed that the end coordinates of the touch operation are included in the detection area 5 for detecting an input to the transmission button of the application AP1.
  • the detection unit 64 determines that the transmission button of the application AP1 has been selected. Therefore, the detection unit 64 generates notification information for notifying that the transmission button of the application AP1 has been selected.
  • the detection unit 64 uses, as notification information, a combination of information indicating that a DOWN event has occurred at the start coordinates of the touch operation, information indicating that an UP event has occurred at the start coordinates, and the identifier of the application AP1. That is, the detection unit 64 notifies the notification unit 42 that an input with respect to the start coordinates of the touch operation has been observed and that the input target is the application AP1.
  • the detection part 64 uses the coordinate notified with the DOWN event from the specific
  • the notification unit 42 uses the position information 82 to identify the user interface associated with the identifier of the application notified from the detection unit 64 that includes the touch operation start coordinates. To do.
  • the notification unit 42 notifies the processing unit 52 of the identified user interface together with the application identifier.
  • the notification unit 42 notifies the processing unit 52 that the transmission button of the application AP1 has been selected.
  • the processing unit 52 performs processing according to the notification from the notification unit 42. For example, when notified that the transmission button of the application AP1 has been selected, the processing unit 52 uses the text displayed in the text input area as the text and the text displayed in the title input area as the title. Send mail to the destination. Further, the processing unit 52 performs a process for changing the display screen in accordance with the mail transmission process.
  • FIG. 13 is a flowchart for explaining an example of processing performed in the display device 10.
  • the soft keyboard is activated (steps S1 and S2).
  • the input unit 15 determines whether a touch operation on the touch panel 11 from the user has been detected (step S3).
  • the input unit 15 detects the touch operation, the input unit 15 notifies the display control unit 30 of the coordinates and the touch event at which the input is detected (Yes in step S3).
  • the display control unit 30 uses the display order data 81 to determine whether a soft keyboard is displayed at the start coordinates of the touch operation (step S4).
  • the acquisition unit 71 acquires information on the user interface displayed in the window displayed on the back of the soft keyboard (Yes in step S4, step S5).
  • the extraction unit 72 determines whether there is a user interface including start coordinates in the user interface from which the acquisition unit 71 has acquired the position (step S6).
  • the assigning unit 63 assigns the detection area 5 corresponding to the user interface and the detection area 6 corresponding to the key including the start coordinates to a part of the operation area of the touch panel 11 (step Yes in S6, step S7). Since the detection unit 64 acquires the touch event and the input coordinates detected by the input unit 15 via the input control unit 20, the display control unit 30, and the like, the coordinates when the touch operation ends and the UP event. A combination is also acquired (step S8). The detection unit 64 determines whether the detection area including the end coordinates of the touch operation is associated with the user interface in the rear window (step S9).
  • the detection unit 64 notifies the notification unit 42 of the notification information (Yes in step S9, step S9). S10).
  • the notification information includes the identifier of the application that generated the rear window, the combination of the touch operation start coordinate and the DOWN event, and the combination of the touch operation start coordinate and the UP event.
  • the notification unit 42 acquires the notification information from the detection unit 64, the user interface displayed at the start position of the touch operation is displayed in the window related to the application identified by the identifier included in the notification information (the back window). It is determined that it has been selected.
  • the notification unit 42 notifies the processing unit 52 that the user interface has been selected and information for identifying the selected user interface (step S11).
  • the processing unit 52 performs processing when the user interface notified from the notification unit 42 is selected in accordance with the notification from the notification unit 42. Thereafter, the processing after step S3 is repeated.
  • the detection unit 64 determines that the input using the soft keyboard has been selected (No in step S9). Therefore, the detection unit 64 performs a process for inputting characters associated with the detection area 6 including the end coordinates (step S14).
  • the extraction unit 72 notifies the allocation unit 63 that there is no user interface that the user may have attempted to select in the back window. Notify (No in step S6).
  • the assigning unit 63 assigns the detection area 6 corresponding to each character that can be input with the key including the start coordinates to a part of the operation area of the touch panel 11 (step S12).
  • the detection unit 64 acquires the touch event and input coordinates detected by the input unit 15 via the input control unit 20, the display control unit 30, and the like, and also acquires the combination of the coordinate and the UP event when the touch operation ends. (Step S13). Thereafter, the detection unit 64 performs a process of inputting characters associated with the detection area 6 including the end coordinates (step S14).
  • step S4 If it is determined in step S4 that the input is not to the soft keyboard, processing by the application that generated the input target window is performed (step S15). Even after the processing of step S14 or step S15 is performed, the processing after step S3 is performed.
  • step S3 when a touch operation is not detected by the input unit 15, the display control unit 30 determines whether the soft keyboard is terminated (step S16). If the soft keyboard has been terminated, the display control unit 30 terminates the process related to the soft keyboard (Yes in step S16). On the other hand, when the soft keyboard has not been terminated, the display control unit 30 waits for a notification from the input unit 15 (No in step S16).
  • the display device 10 may be selected by the user even if the user interface is not displayed in the foreground. judge. Accordingly, the display device 10 has the detection area 5 for detecting an input to the user interface that is determined to be selected by the user in order to identify the process requested by the user as the foreground. To display. For this reason, when the user wants to select a user interface in the window displayed on the back, the user interface can be selected without performing a process for changing the display order of the windows. Therefore, the user of the display device according to the embodiment can select the button displayed on the back by one touch operation without ending the application displaying the window on the front.
  • the touch operation can be any input operation including flick input.
  • the display device 10 acquires the arrangement of the user interface in the window displayed on the back surface with the start coordinate of the touch operation specified as a trigger. For this reason, even if the arrangement of the user interface of the window displayed on the back surface is changed by the user's touch operation, the display device 10 detects the detection area corresponding to the change of the arrangement of the user interface in real time. 5 can be generated.
  • the display device 10 when the information on the window displayed on the back of the soft keyboard is changed according to the input from the soft keyboard will be described.
  • the window of the application AP2 used for information retrieval is displayed on the back of the window of the soft keyboard is taken as an example.
  • the position information generation unit 51 holds a history of keywords that the user has searched using the application AP2.
  • the following description is an example and the application used shall be changed arbitrarily.
  • the window displayed in front of the application window may be other than the soft keyboard window.
  • FIG. 14 is a diagram for explaining a display example on the screen of the display device 10.
  • An example of the window of the application AP2 when no search keyword is input is shown in W4 of FIG.
  • a soft keyboard window W3 (FIG. 8) for the user to input a keyword used for the search is displayed so as to overlap the window of the application AP2. Accordingly, until the search keyword is input after the application AP is activated, the display on the display device 10 is as indicated by D21 in FIG.
  • the user inputs the first character of the search keyword using the soft keyboard.
  • the acquisition unit 71 is used in the window W4 of the application AP2 by the same processing as the procedures (5) and (6) described in the first embodiment.
  • Get user interface information Using the information acquired by the acquisition unit 71, the extraction unit 72 determines that no user interface is arranged in the area where the soft keyboard is displayed in the window W4. Therefore, the assigning unit 63 displays the detection area 6 corresponding to the character candidates that can be input using the key including the start coordinates of the user's touch processing on the screen.
  • the detection unit 64 performs an input process of characters assigned to the detection area 6 including the end coordinates of the touch process.
  • the position information generation unit 51 extracts a keyword that matches the input character of the first character from the stored search history. Further, the position information generation unit 51 arranges the same number of user interfaces as the number of obtained candidates in the window of the application AP2.
  • FIG. 15 shows an example of a user interface arrangement method.
  • FIG. 15 is an example of information used when the position information generation unit 51 changes the display of the window of the application AP2.
  • the position information generation unit 51 assigns each user interface to perform search processing using one of the extracted keywords as a search keyword.
  • the position information generation unit 51 uses the same number of rectangular user interfaces as the number of extracted keywords in the Y-axis direction from the user interface used for inputting the search keywords. Are placed side by side.
  • the position information generation unit 51 assigns the user interfaces located at positions close to the search keyword input area in descending order of possibility of being selected.
  • the prediction method of the high possibility that a keyword will be selected is arbitrary.
  • the position information generation unit 51 determines that the possibility of selection increases as the frequency of use of each keyword increases. Further, the position information generation unit 51 displays a keyword associated with the interface on the user interface in the window of the application AP2. Further, when the user interfaces 3c to 3j are selected, the processing unit 52 performs a search process using a keyword associated with the selected user interface.
  • the window W5 shows an example when “a” is input as the first character of the search keyword.
  • the window W5 shows an example in which eight search keywords whose first character is “a” are extracted. In other words, when “a” is input as the first character of the search keyword, the position information generation unit 51 changes the window display of the application AP2 from the window W4 to the window W5.
  • the position information generation unit 51 outputs data used for displaying the window W5 to the display unit 16 via the display control unit 30. At this time, even if the first character of the search keyword is input, the soft keyboard is not terminated, so that the display on the display device 10 is as shown at D22 in FIG. Further, the position information generation unit 51 updates the position information 82 according to the layout of the window W5.
  • FIG. 17 shows an example of the updated position information 82c. Note that FIG. 17 shows the user interface information included in the application AP2 in the position information 82c. Even in the position information 82c, the information on the soft keyboard is the No. of position information 82b shown in FIG. It is the same as 2a to 2t.
  • the acquisition unit 71 also acquires keyword candidates described in each user interface of the window W5 in association with the user interface associated with the keyword.
  • the extraction unit 72 uses the information acquired by the acquisition unit 71 to extract the user interface information in the window W5 including the start coordinate Y as follows.
  • Application identifier application AP2 Top left corner coordinate data: (0,0.75b) Lower right corner coordinate data: (a, 0.85b)
  • Display content apple recipe
  • the extraction unit 72 notifies the allocation unit 63 that the character string “apple record” is displayed on the user interface together with the start coordinate Y (0.35a, 0.83b).
  • the allocation unit 63 specifies the key including the coordinates notified from the extraction unit 72 using the position information 82c.
  • the start coordinate Y notified from the extraction unit 72 is (0.35a, 0.83b), and the range of keys used for inputting P to S is (0.2a, 0.8b) in the upper left corner, ( 0.4a, 0.9b) is a rectangle with the lower right corner.
  • the allocating unit 63 determines that the key including the start position of the touch operation is a key used for the input of P to S, and uses a part of the operation area of the touch panel 11 for each input of P to S. It is assigned to the associated detection area 6 (6f to 6i).
  • the assigning unit 63 also generates a detection area 5a for detecting selection of the user interface arranged at the start coordinate in the window W5.
  • the allocation unit 63 generates an image for displaying the detection areas 5a and 6f to 6i, and outputs the generated image to the display unit 16 via the display control unit 30.
  • a display example of the detection areas 5a, 6f to 6i is shown in D23 of FIG.
  • the assigning unit 63 notifies the detection unit 64 of coordinates for specifying the detection areas 5a and 6f to 6i.
  • the touch operation from the user is finished in the detection area 6f.
  • the detection method of the end of the touch operation is the same as the procedure (9) described in the first embodiment.
  • the detection unit 64 determines that “p” has been input.
  • the processing unit 52 includes “p” as the second character of the keyword used for the search in the keyword input area.
  • the position information generating unit 51 changes the display of the window of the application AP2 from the window W5 (FIG. 16) to the window W6 in FIG. 18 by the same processing as in the procedure (23).
  • the window W6 shows an example in which six search keywords starting with “ap” are extracted.
  • the position information generation unit 51 updates the position information 82c (FIG. 17) to the position information 82d using the information of the window W6.
  • FIG. 19 shows user interface information included in the application AP2 in the position information 82d. As shown in FIG. 19, in the position information 82d, the number of user interfaces associated with the keyword in the application AP2 is six as in the window W6. Further, the keywords associated with each user interface are also updated in association with the information of the window W6 in the position information 82d. Even in the position information 82d, the information on the soft keyboard is the No. of position information 82b shown in FIG. The same as 2a to 2t.
  • the specifying unit 61 sets the coordinates (0.5a, 0.72b) of the position Z notified together with the DOWN event as the start coordinates Z by the same process as in the procedure (5).
  • the acquiring unit 71 acquires the user interface information included in the window W6 using the position information 82d.
  • the extraction unit 72 uses the information acquired by the acquisition unit 71 to extract information on the user interface in the window W6 including the start coordinate Z as follows.
  • Application identifier application AP2 Upper left corner coordinate data: (0, 0.65b) Lower right corner coordinate data: (a, 0.75b) Display contents: apple pie filling
  • the extraction unit 72 notifies the allocation unit 63 that the character string “apple pie filling” is displayed on the user interface together with the start coordinate Z (0.5a, 0.72b).
  • the assigning unit 63 specifies the key including the start coordinate Z using the position information 82d.
  • the range of keys used for inputting J to L is a rectangle having (0.4a, 0.7b) as the upper left corner and (0.6a, 0.8b) as the lower right corner. Therefore, the assigning unit 63 determines that the start coordinate Z (0.5a, 0.72b) is included in the key used for inputting J to L. Therefore, the allocating unit 63 includes detection areas 6p to 6r for detecting requests for input of J, K, and L, and a detection area 5b for detecting selection of the user interface notified from the extraction unit 72. Generate. When the information of the detection area is output to the display unit 16 via the display control unit 30, the display on the screen is changed from D24 to D25 in FIG.
  • the detection unit 64 detects the end coordinates of the touch operation, similarly to the procedure (9) described in the first embodiment.
  • the detection unit 64 determines that the user interface of the application AP2 has been selected. Accordingly, the detection unit 64 provides information indicating that a DOWN event has occurred at the start coordinate Z of the touch operation, notification information including the occurrence of an UP event at the start coordinate Z, and the identifier of the application AP2, as a notification unit. Output to 42.
  • the notification unit 42 uses the position information 82d to identify the user interface associated with the identifier of the application notified from the detection unit 64 that includes the touch operation start coordinates. To do.
  • the notification unit 42 notifies the processing unit 52 that the user interface having the display name of the character string “apple pie filling” is selected by the application AP2.
  • the processing unit 52 performs a search process using the character string “apple pie filling” as a key. Further, the processing unit 52 requests the input processing unit 62 to end the soft keyboard. The input processing unit 62 requests the display control unit 30 to stop displaying the soft keyboard in response to a request from the processing unit 52. The display control unit 30 deletes the display information related to the soft keyboard from the display order data 81 and requests the display unit 16 to end the display of the soft keyboard. On the other hand, the position information generation unit 51 deletes the user interface information included in the soft keyboard from the position information 82d. When information obtained by the search of the processing unit 52 is output to the display unit 16 via the display control unit 30, the user can visually recognize the search result on the screen.
  • the acquisition unit 71 acquires the information on the arrangement of the user interface using the start of the touch operation as a trigger. Therefore, the display device 10 can identify a user interface that may have been selected in real time in response to a change in the back window. Further, in order to specify the process requested by the user, the display device 10 has a detection area for detecting an input to the user interface that is determined to be possibly selected by the user as the foreground. indicate. For this reason, the user can select the user interface displayed on the back surface by one touch operation.
  • the soft keyboard may be capable of inputting kana characters such as hiragana and katakana, converting to kanji, and may be used for inputting numbers.
  • the user interface displayed on the back of the soft keyboard can be selected by one touch operation by the same processing as described above.
  • the display order data 81, position information 82, etc. used in the above description are examples, and the position of the user interface is arbitrarily changed according to the implementation. Furthermore, information elements included in the display order data 81 and the position information 82 can be changed according to the implementation. Similarly, with respect to the information described with reference to FIGS. 12 and 15, data such as coordinates may be changed depending on the implementation, and the included information elements may be changed.
  • the layout information generated by the position information generation unit 51 can be, for example, any information that can be used to specify the position of the user interface to be displayed.
  • the coordinate calculation unit 41 displays information such as the size of each user interface. Can be held.
  • the coordinate calculation unit 41 can calculate the coordinates of each user interface using the stored information.
  • the position information generation unit 51 can hold the display position of each user interface as coordinate data instead of a function of the height or width of the screen. In this case, the coordinate calculation unit 41 uses the coordinates output from the position information generation unit 51 as the coordinates of the user interface.
  • the position information generation unit 51 can also predict the likelihood that a keyword will be used by using the length of time that has elapsed since the last use for search.
  • the display device 10 may include an arbitrary display device that can be used together with the touch panel 11 instead of the LCD. .

Abstract

The purpose of the present invention is to improve the convenience of display devices. A display device according to the present invention is provided with a touch panel, an identification unit, an allocation unit, and a display control unit. The touch panel has a display unit and an input unit. The display unit can display a first image and a second image on a screen in such a manner that the second image overlaps at least part of the first image. The input unit receives an operation. The identification unit identifies the start-point coordinates of the operation. The allocation unit allocates part of the operation region of the touch panel for use as a detection region, which is a region for detecting selection of a selection region. The allocation processing for the detection region is performed when the selection region, which is a region of the first image and is used for selecting a process, is located at the start-point coordinates and at the same time the first image is covered at the start-point coordinates by the second image. The display control unit performs control to display the detection region on the screen.

Description

表示装置および表示プログラムDisplay device and display program
 本発明は、画面の表示処理を行う装置に関する。 The present invention relates to an apparatus for performing screen display processing.
 近年、携帯電話端末やタブレットなど、表示機能を有する様々な電子機器が普及してきている。これらの電子機器において、複数のアプリケーションが動作することもある。例えば、文字の入力を受付可能なアプリケーションと、ユーザが文字の入力に使用するソフトキーボードが同時に使用されることがある。このように複数のアプリケーションが同時に動作する場合、アプリケーションごとに1つ以上のウィンドウが画面に表示されることが多い。しかし、あるアプリケーションに関するウィンドウが他のアプリケーションのウィンドウに隠されているために、ユーザの作業に支障が出ることがある。 In recent years, various electronic devices having a display function, such as mobile phone terminals and tablets, have become widespread. In these electronic devices, a plurality of applications may operate. For example, an application that can accept input of characters and a soft keyboard that a user uses to input characters may be used at the same time. When a plurality of applications operate simultaneously as described above, one or more windows are often displayed on the screen for each application. However, since a window related to one application is hidden by a window of another application, the user's work may be hindered.
 そこで、ソフトキーボードなどの一部のアプリケーションでは、ウィンドウが半透明に表示されることがある。半透明のウィンドウが前面に表示される場合、ユーザは、背面に表示されているウィンドウのうち、半透明のウィンドウに重なっている部分についても、表示内容を確認することができる。 Therefore, in some applications such as a soft keyboard, the window may be displayed semi-transparently. When a translucent window is displayed on the front side, the user can check the display contents of a portion of the window displayed on the back side that overlaps the translucent window.
 関連する技術として、画面の切り替え指示が検知されると、文字列を入力するためのソフトキーボードを含む文字入力シートを本文シートの上に重ねて表示する携帯端末が知られている。この携帯端末では、本文シートに表示される文字列が視認可能になるように、文字入力シートを表示する(例えば、特許文献1参照)。さらに、文書を編集するための第1入力画面と、文字入力を行うための第2入力画面を重畳表示する入力装置も知られている。この入力装置は、像を検知することによりユーザの操作を取得し、さらに、検知された像の面積を用いて、第1入力画面と第2入力画面のいずれが選択されたかを特定する(例えば、特許文献2参照)。 As a related technique, there is known a portable terminal that displays a character input sheet including a soft keyboard for inputting a character string on a body sheet when a screen switching instruction is detected. In this portable terminal, a character input sheet is displayed so that a character string displayed on the body sheet can be visually recognized (see, for example, Patent Document 1). Further, an input device that displays a first input screen for editing a document and a second input screen for inputting characters is also known. The input device acquires a user operation by detecting an image, and further specifies which of the first input screen and the second input screen is selected using the area of the detected image (for example, , See Patent Document 2).
特開2009-288873号公報JP 2009-288873 A 特開2010-165246号公報JP 2010-165246 A
 アプリケーションで半透明のウィンドウを使用しても、操作の対象のウィンドウが他のアプリケーションのウィンドウの背面にあるために、ユーザの作業に支障が出ることがある。例えば、背面に表示されているウィンドウに、ユーザの操作対象のユーザインタフェースなどが含まれている場合がある。この場合、ユーザは、操作対象を含むウィンドウに対する操作を可能にするために、前面に表示されているウィンドウを閉じるなどの操作を行った後で、操作対象に対する操作をする必要がある。 Even if a semi-transparent window is used in an application, the user's work may be hindered because the operation target window is behind the window of another application. For example, the window displayed on the back side may include a user interface to be operated by the user. In this case, the user needs to perform an operation on the operation target after performing an operation such as closing the window displayed on the front surface in order to enable an operation on the window including the operation target.
 本発明は、1つの側面では、表示装置の利便性を向上させることを目的とする。 In one aspect, the present invention aims to improve the convenience of a display device.
 実施形態にかかる表示装置は、タッチパネル、特定部、割り当て部、および、表示制御部を備える。タッチパネルは、表示部と入力部を有する。表示部は、第1の画像の少なくとも一部に第2の画像が重なるように、前記第1および第2の画像を画面に表示可能である。入力部は操作を受け付ける。特定部は、前記操作の開始座標を特定する。割り当て部は、前記タッチパネルの操作領域の一部を、前記選択領域の選択を検出するための領域である検出領域に割り当てる。なお、検出領域を割り当てる処理は、前記第1の画像で、処理の選択に使用される領域である選択領域が、前記開始座標に配置され、かつ、前記開始座標で前記第1の画像が前記第2の画像に覆われている場合に行われる。表示制御部は、前記検出領域を前記画面に表示するための制御を行う。 The display device according to the embodiment includes a touch panel, a specifying unit, an assigning unit, and a display control unit. The touch panel has a display unit and an input unit. The display unit can display the first and second images on the screen so that the second image overlaps at least a part of the first image. The input unit accepts an operation. The specifying unit specifies a start coordinate of the operation. The assigning unit assigns a part of the operation area of the touch panel to a detection area that is an area for detecting selection of the selection area. The process of assigning the detection area is the first image, wherein a selection area that is an area used for selection of the process is arranged at the start coordinates, and the first image is at the start coordinates. This is performed when it is covered with the second image. The display control unit performs control for displaying the detection area on the screen.
 表示装置の利便性が向上する。 * Convenience of display device is improved.
実施形態にかかる表示装置での表示例を示す図である。It is a figure which shows the example of a display with the display apparatus concerning embodiment. 表示装置の構成の例を示す図である。It is a figure which shows the example of a structure of a display apparatus. 表示装置のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a display apparatus. 座標の例と表示装置に表示されるウィンドウの例を示す図である。It is a figure which shows the example of a window displayed on the example of a coordinate, and a display apparatus. 表示順序データの例を示す図である。It is a figure which shows the example of display order data. 位置情報の例を示すテーブルである。It is a table which shows the example of position information. 表示装置での表示例を示す図である。It is a figure which shows the example of a display with a display apparatus. ソフトキーボードの例を示す図である。It is a figure which shows the example of a soft keyboard. 位置情報の例を示すテーブルである。It is a table which shows the example of position information. ソフトキーボードの表示例を示す図である。It is a figure which shows the example of a display of a soft keyboard. 表示装置で行われる処理の例を示す図である。It is a figure which shows the example of the process performed with a display apparatus. 検出領域の座標と対応付けられた処理の例を示すテーブルである。It is a table which shows the example of the process matched with the coordinate of the detection area. 表示装置で行われる処理の例を説明するフローチャートである。It is a flowchart explaining the example of the process performed with a display apparatus. 表示装置の画面への表示例を説明する図である。It is a figure explaining the example of a display on the screen of a display apparatus. ユーザインタフェースの配置方法の例を示すテーブルである。It is a table which shows the example of the arrangement | positioning method of a user interface. 表示装置の画面への表示例を説明する図である。It is a figure explaining the example of a display on the screen of a display apparatus. 位置情報の例を示すテーブルである。It is a table which shows the example of position information. 表示装置の画面への表示例を説明する図である。It is a figure explaining the example of a display on the screen of a display apparatus. 位置情報の例を示すテーブルである。It is a table which shows the example of position information.
 図1は、実施形態にかかる表示装置での表示例を示す。タッチパネルを備える表示装置の画面に、アプリケーションAによって生成された第1のウィンドウが表示されているとする。ここで、第1のウィンドウの表示内容は、D1に示す画像(第1の画像)であるものとする。さらに、第1のウィンドウ中には、ユーザの処理の選択に使用される領域が含まれているものとする。以下、ユーザの処理の選択に使用される領域を「選択領域」と記載することがある。選択領域は任意のユーザインタフェースが配置されている領域である。なお、ユーザインタフェースは、例えば、ユーザからの入力を受け付けるための表示(アイコン、ボタン等)により、実現される。また、表示装置は、選択領域が配置されている領域を特定するための座標等の情報を保持している。例えば、画像D1の例では、選択領域はボタンAAであり、表示装置は、ボタンAAが表示されている領域を特定するための座標等の情報を保持している。 FIG. 1 shows a display example on the display device according to the embodiment. It is assumed that the first window generated by the application A is displayed on the screen of a display device including a touch panel. Here, it is assumed that the display content of the first window is an image (first image) indicated by D1. Further, it is assumed that the first window includes an area used for selection of a user process. Hereinafter, an area used for selecting a user process may be referred to as a “selected area”. The selection area is an area where an arbitrary user interface is arranged. Note that the user interface is realized by, for example, a display (icon, button, etc.) for receiving input from the user. Further, the display device holds information such as coordinates for specifying the area where the selected area is arranged. For example, in the example of the image D1, the selection area is the button AA, and the display device holds information such as coordinates for specifying the area where the button AA is displayed.
 次に、ユーザの操作により、第2のウィンドウが画面に表示されたとする。ここで、第2のウィンドウの表示内容は、D2に示す第2の画像であるものとする。この例では、第2のウィンドウにも選択領域(ボタンBB)が含まれているが、第2のウィンドウには選択領域が含まれていなくても良い。また、表示装置は、第2のウィンドウ中に含まれている選択領域についても、配置された領域を特定するための座標等の情報を保持しているものとする。 Next, it is assumed that the second window is displayed on the screen by the user's operation. Here, it is assumed that the display content of the second window is the second image indicated by D2. In this example, the selection area (button BB) is also included in the second window, but the selection area may not be included in the second window. Further, the display device also holds information such as coordinates for specifying the arranged area for the selection area included in the second window.
 第1のウィンドウと第2のウィンドウの両方が表示された場合の画面の例をD3に示す。D3では、ボタンAAとボタンBBの位置関係を分かりやすくするために、第2のウィンドウの少なくとも一部が透過性を有し、第2のウィンドウを通して第1のウィンドウを視認できるように、第1のウィンドウの前面に第2のウィンドウが表示されている場合を例として示す。なお、ここでは透過性を有するウィンドウの例として半透明なウィンドウの例を説明するが、第1のウィンドウが視認可能であればよく、透過性の度合いは問わない。もちろん透明であってもよい。 D3 shows an example of the screen when both the first window and the second window are displayed. In D3, in order to make the positional relationship between the button AA and the button BB easier to understand, at least a part of the second window is transparent, and the first window is visible through the second window. As an example, the case where the second window is displayed in front of this window will be described. Here, an example of a translucent window will be described as an example of a window having transparency, but the first window may be visible, and the degree of transparency is not limited. Of course, it may be transparent.
 表示装置は最前面に表示されている第2のウィンドウへのタッチ操作を検出すると、タッチ操作の開始座標を特定する。表示装置は、タッチ操作の開始座標が第1のウィンドウ中の選択領域に含まれている場合、ユーザが第1のウィンドウ中の選択領域を選択しようとした可能性があると判定して、第1のウィンドウ中の選択領域に対応づけた検出領域5を生成する。検出領域5は、背面に表示されたウィンドウ中の選択領域の選択を検出するために使用される。 When the display device detects a touch operation on the second window displayed in the foreground, the display device specifies the start coordinates of the touch operation. When the start coordinate of the touch operation is included in the selection area in the first window, the display device determines that the user may have attempted to select the selection area in the first window, and The detection area 5 associated with the selected area in one window is generated. The detection area 5 is used to detect selection of a selection area in a window displayed on the back surface.
 例えば、D3に示す表示を画面に表示している表示装置に、ユーザがタッチ操作を行うと、表示装置は、第2のウィンドウでボタンBBが表示されている領域に、タッチ操作の開始座標が含まれているかを判定する。さらに、表示装置は、第1のウィンドウでボタンAAが表示されている領域に、タッチ操作の開始座標が含まれているかを判定する。例えば、D4に示すように、第1のウィンドウ中のボタンAAが配置されている位置からタッチ操作が開始されたとする。この場合、タッチ操作の開始座標は、ボタンAAが配置されている領域に含まれているので、表示装置は、ユーザが第1のウィンドウ中のボタンAAを選択しようとしている可能性があると判定する。そこで、表示装置は、D5に示すように、ボタンAAに対応付けられた処理の要求を検出するための検出領域5を、画面の最前面に表示する。 For example, when the user performs a touch operation on the display device displaying the display indicated by D3 on the screen, the display device displays the touch operation start coordinates in the area where the button BB is displayed in the second window. Determine if it is included. Further, the display device determines whether the start coordinate of the touch operation is included in the area where the button AA is displayed in the first window. For example, as shown in D4, it is assumed that the touch operation is started from the position where the button AA is arranged in the first window. In this case, since the start coordinates of the touch operation are included in the area where the button AA is arranged, the display device determines that there is a possibility that the user is going to select the button AA in the first window. To do. Therefore, the display device displays a detection area 5 for detecting a processing request associated with the button AA on the forefront of the screen, as indicated by D5.
 表示装置は、タッチ操作の終了座標が検出領域5に含まれていれば、検出領域5に対応付けられた選択領域が選択されたと判定する。例えば、ユーザがタッチ操作を終了した位置がD5に示す表示中の検出領域5に含まれている場合、表示装置は、第1のウィンドウ中のボタンAAが選択されたと判定して、ボタンAAに対応付けられた処理を行う。 The display device determines that the selection area associated with the detection area 5 has been selected if the end coordinates of the touch operation are included in the detection area 5. For example, when the position where the user finishes the touch operation is included in the display detection area 5 shown in D5, the display device determines that the button AA in the first window has been selected, and sets the button AA to the button AA. Perform the associated processing.
 このように、表示装置は、タッチ操作の開始座標では他のウィンドウの背面に表示されているウィンドウにおいて、ユーザインタフェースが開始座標に配置されている場合、ユーザインタフェースの選択を検出するための検出領域を最前面に表示する。また、表示装置は、タッチ操作の終了座標が検出領域に含まれていれば、検出領域に対応付けられたユーザインタフェースがユーザにより選択されたと判定する。このため、ユーザは、背面に表示されているウィンドウ中のボタンが選択対象である場合、選択対象のボタンの表示領域からタッチ操作を開始し、選択対象のボタンに対応付けられた検出領域中でタッチ操作を終了することにより、選択対象のボタンを選択できる。従って、実施形態にかかる表示装置のユーザは、前面にウィンドウを表示しているアプリケーション等の終了を行わずに、1つのタッチ操作で背面に表示されたユーザインタフェースを選択することができる。 In this way, the display device has a detection area for detecting selection of the user interface when the user interface is arranged at the start coordinate in the window displayed behind the other window at the start coordinate of the touch operation. Is displayed in the foreground. In addition, when the end coordinates of the touch operation are included in the detection area, the display device determines that the user interface associated with the detection area has been selected by the user. For this reason, when the button in the window displayed on the back is the selection target, the user starts the touch operation from the display area of the selection target button, and in the detection area associated with the selection target button. By ending the touch operation, a selection target button can be selected. Therefore, the user of the display device according to the embodiment can select the user interface displayed on the back by one touch operation without ending the application displaying the window on the front.
 なお、図1を参照しながら行った説明では、一例としてユーザが選択可能なユーザインタフェースがボタンである場合を例として説明したが、ユーザインタフェースはボタンを含む任意の形式を取ることができるものとする。さらに、上記の説明では、理解しやすくするために、第2のウィンドウが半透明である場合を例として説明したが、第2のウィンドウは半透明なウィンドウに限られない。例えば、第2のウィンドウを通して第1のウィンドウを視認できなくてもよいものとする。 In the description given with reference to FIG. 1, as an example, the case where the user-selectable user interface is a button has been described as an example. However, the user interface can take any form including a button. To do. Furthermore, in the above description, the case where the second window is translucent has been described as an example for easy understanding, but the second window is not limited to the translucent window. For example, the first window may not be visible through the second window.
 <装置構成>
 図2は、表示装置10の構成の例を示す。以下では、あるウィンドウの前面にソフトキーボードのウィンドウが表示される場合の例を説明する。表示装置10は、タッチパネル11、ソフトウェア制御部13、記憶部80を備える。ソフトウェア制御部13は、入力制御部20、表示制御部30、表示部品制御部40、アプリケーション処理部50、ソフトキーボード制御部60、配置解析部70を有する。表示部品制御部40は、座標計算部41と通知部42を有する。アプリケーション処理部50は、位置情報生成部51と処理部52を有する。ソフトキーボード制御部60は、特定部61、入力処理部62、割り当て部63、検出部64を備える。また、配置解析部70は、取得部71と抽出部72を有する。
<Device configuration>
FIG. 2 shows an example of the configuration of the display device 10. In the following, an example in which a soft keyboard window is displayed in front of a certain window will be described. The display device 10 includes a touch panel 11, a software control unit 13, and a storage unit 80. The software control unit 13 includes an input control unit 20, a display control unit 30, a display component control unit 40, an application processing unit 50, a soft keyboard control unit 60, and an arrangement analysis unit 70. The display component control unit 40 includes a coordinate calculation unit 41 and a notification unit 42. The application processing unit 50 includes a position information generation unit 51 and a processing unit 52. The soft keyboard control unit 60 includes a specifying unit 61, an input processing unit 62, an assigning unit 63, and a detecting unit 64. Further, the arrangement analysis unit 70 includes an acquisition unit 71 and an extraction unit 72.
 タッチパネル11は、入力部15と表示部16を有する。表示部16は、画面を備えており、ソフトウェア制御部13から入力されたデータに応じて、画面にウィンドウを表示する。表示部16は、liquid crystal Display(LCD)を用いた画面を備えることができる。入力部15は、ユーザからの入力を受け付ける。入力部15は、入力位置の座標の取得と、タッチイベントの種類の決定を行う。タッチイベントには、DOWNイベント、MOVEイベント、UPイベントの3種類があるものとする。DOWNイベントは、これまでに観測されているタッチ操作の軌跡に入力座標が含まれていない場合に発生するタッチイベントである。例えば、DOWNイベントは、タッチ操作の開始の際に発生する。MOVEイベントは、観測中のタッチ操作の軌跡に入力座標が含まれている場合に発生するタッチイベントである。UPイベントは、タッチ操作が終了したときに発生する。入力部15は、得られた入力座標ごとに、座標の情報と、その座標で発生したタッチイベントを対応付けて、入力制御部20に出力する。入力制御部20は、座標の情報とタッチイベントの種類を表示制御部30に出力する。 The touch panel 11 includes an input unit 15 and a display unit 16. The display unit 16 includes a screen and displays a window on the screen according to data input from the software control unit 13. The display unit 16 can include a screen using a liquid crystal display (LCD). The input unit 15 receives input from the user. The input unit 15 acquires the coordinates of the input position and determines the type of touch event. There are three types of touch events: a DOWN event, a MOVE event, and an UP event. The DOWN event is a touch event that occurs when the input coordinates are not included in the trajectory of the touch operation that has been observed so far. For example, the DOWN event occurs when the touch operation is started. The MOVE event is a touch event that occurs when input coordinates are included in the trajectory of the touch operation being observed. The UP event occurs when the touch operation is finished. For each input coordinate obtained, the input unit 15 associates the coordinate information with the touch event generated at that coordinate, and outputs it to the input control unit 20. The input control unit 20 outputs coordinate information and a touch event type to the display control unit 30.
 表示制御部30は、画面で表示されるウィンドウの順序を管理する。画面には、表示装置10で動作しているアプリケーションによって生成されたウィンドウやOperating System(OS)により表示されるウィンドウが表示され得る。また、複数のウィンドウが重ねて表示される場合もある。表示制御部30は、表示中の各ウィンドウの表示順序を保持する。以下の説明では、ウィンドウが表示されている順序を表す情報を、表示順序データ81と記載することがある。表示制御部30は、表示順序データ81の生成や更新を行い、表示順序データ81を記憶部80に記録する。 The display control unit 30 manages the order of windows displayed on the screen. On the screen, a window generated by an application running on the display device 10 or a window displayed by the Operating System (OS) can be displayed. In addition, a plurality of windows may be displayed in an overlapping manner. The display control unit 30 holds the display order of the windows being displayed. In the following description, information indicating the order in which windows are displayed may be referred to as display order data 81. The display control unit 30 generates and updates the display order data 81 and records the display order data 81 in the storage unit 80.
 表示制御部30は、入力制御部20から座標とタッチイベントの組合せを入力されると、入力された座標に表示されているウィンドウのうちで、最前面に描画されているウィンドウに対応付けられたアプリケーションへの入力が行われたと判定する。ソフトキーボード以外のアプリケーションへの入力が行われたと判定した場合、表示制御部30は、入力が検出されたアプリケーションの識別情報、入力座標、タッチイベントの種類の組合せを、通知部42に出力する。一方、ソフトキーボードへの入力が行われたと判定した場合、表示制御部30は、入力座標とタッチイベントの種類の組合せを、特定部61に出力する。 When a combination of coordinates and a touch event is input from the input control unit 20, the display control unit 30 is associated with the window drawn in the foreground among the windows displayed at the input coordinates. It is determined that input to the application has been performed. When it is determined that an input to an application other than the soft keyboard has been performed, the display control unit 30 outputs a combination of identification information, input coordinates, and touch event type of the application from which the input has been detected to the notification unit 42. On the other hand, when it is determined that the input to the soft keyboard has been performed, the display control unit 30 outputs the combination of the input coordinates and the touch event type to the specifying unit 61.
 座標計算部41は、画面の情報を保持しており、位置情報82を用いてユーザインタフェースの表示座標を計算する。通知部42は、表示制御部30や検出部64から入力された情報に基づいて、選択されたユーザインタフェースがあるかを判定する。このとき、通知部42は、画面の大きさに関する情報を用いて、通知された座標を、画面の高さや横幅の関数に変換する。例えば、通知部42は、表示装置10が備える画面でのX軸方向の最大値でX座標の値を割って得られた値を、画面の横幅の倍数として求めることができる。通知部42は、同様に、Y座標についても、画面でのY軸方向の最大値に対する比を求めることができる。通知部42は、得られた値を、位置情報82のうちで表示制御部30から通知されたアプリケーションの識別子に対応付けられた情報と比較することにより、ユーザインタフェースが選択されたかを判定する。通知部42は、ユーザインタフェースが選択された場合、選択されたユーザインタフェースを特定する情報と、アプリケーションの識別子を、処理部52に出力する。 The coordinate calculation unit 41 holds screen information and uses the position information 82 to calculate the display coordinates of the user interface. The notification unit 42 determines whether there is a selected user interface based on information input from the display control unit 30 or the detection unit 64. At this time, the notification unit 42 converts the notified coordinates into a function of the height and width of the screen using information on the size of the screen. For example, the notification unit 42 can obtain a value obtained by dividing the value of the X coordinate by the maximum value in the X-axis direction on the screen included in the display device 10 as a multiple of the horizontal width of the screen. Similarly, the notification unit 42 can determine the ratio of the Y coordinate to the maximum value in the Y-axis direction on the screen. The notification unit 42 determines whether the user interface has been selected by comparing the obtained value with information associated with the identifier of the application notified from the display control unit 30 in the position information 82. When the user interface is selected, the notification unit 42 outputs information for identifying the selected user interface and an application identifier to the processing unit 52.
 位置情報生成部51は、ウィンドウ中のユーザインタフェースの大きさや表示位置などを特定するための情報を生成する。以下の記載では、ウィンドウ中のユーザインタフェースの大きさや表示位置などを特定するための情報のことを、位置情報82と記載することがある。位置情報生成部51は、位置情報82を生成する際に、アプリケーションで使用されているレイアウトファイルを使用することができるものとする。レイアウトファイルには、表示される画面のレイアウト情報が含まれており、例えば、画面中に含まれるユーザインタフェースの大きさ、座標、表示に使用する領域の座標などの情報が含まれている。位置情報生成部51がレイアウトファイルを使用する方法は、任意の既知の方法と同様である。 The position information generation unit 51 generates information for specifying the size and display position of the user interface in the window. In the following description, information for specifying the size and display position of the user interface in the window may be described as position information 82. It is assumed that the position information generation unit 51 can use the layout file used in the application when generating the position information 82. The layout file includes layout information of a screen to be displayed. For example, the layout file includes information such as the size and coordinates of a user interface included in the screen and coordinates of an area used for display. The method of using the layout file by the position information generation unit 51 is the same as any known method.
 処理部52は、選択されたユーザインタフェースに応じた処理を行う。例えば、メール作成画面で送信ボタンが押された場合、処理部52は、作成されたメールの送信処理を行う。また、メッセージの作成開始に対応付けられたボタンや、キーボードの表示ボタンなど、ソフトキーボードの表示に対応付けられたユーザインタフェースが選択された場合、処理部52は、入力処理部62にソフトキーボードの起動を要求する。以下の説明では、キーボード状にユーザインタフェース(キー)が配置されたウィンドウを表示し、キーが表示された領域へのタッチ操作に応じて入力操作を行うアプリケーションのことを「ソフトキーボード」と記載することがある。 The processing unit 52 performs processing according to the selected user interface. For example, when a send button is pressed on the mail creation screen, the processing unit 52 performs a process for sending the created mail. When a user interface associated with the soft keyboard display, such as a button associated with the start of message creation or a keyboard display button, is selected, the processing unit 52 causes the input processing unit 62 to display the soft keyboard. Request activation. In the following description, an application that displays a window in which a user interface (key) is arranged like a keyboard and performs an input operation in response to a touch operation on the area where the key is displayed is referred to as a “soft keyboard”. Sometimes.
 入力処理部62は、処理部52からの要求に応じて、ソフトキーボードを起動させる。特定部61は、表示制御部30から入力された入力座標とタッチイベントの組合せを用いて、タッチ操作の開始位置を特定する。例えば、特定部61は、DOWNイベントと対応付けられた座標を、タッチ操作の開始座標とする。特定部61は、タッチ操作の開始位置を、検出部64、取得部71、抽出部72に出力する。さらに、特定部61は、タッチ操作の開始座標ではないと判定した座標を検出部64に出力する。 The input processing unit 62 activates the soft keyboard in response to a request from the processing unit 52. The specifying unit 61 specifies the start position of the touch operation using the combination of the input coordinates and the touch event input from the display control unit 30. For example, the specifying unit 61 sets the coordinates associated with the DOWN event as the start coordinates of the touch operation. The specifying unit 61 outputs the start position of the touch operation to the detection unit 64, the acquisition unit 71, and the extraction unit 72. Furthermore, the specifying unit 61 outputs the coordinates determined to be not the start coordinates of the touch operation to the detecting unit 64.
 取得部71は、特定部61から開始座標が通知されると、記憶部80に記憶されている表示順序データ81を用いて、ソフトキーボードの背面に表示されているウィンドウに関連するアプリケーションを特定する。さらに、取得部71は、特定したアプリケーションに対応付けられたユーザインタフェースの表示位置を、表示順序データ81と位置情報82を用いて取得する。 When the acquisition unit 71 is notified of the start coordinates from the specification unit 61, the acquisition unit 71 uses the display order data 81 stored in the storage unit 80 to specify an application related to the window displayed on the back of the soft keyboard. . Further, the acquisition unit 71 acquires the display position of the user interface associated with the identified application using the display order data 81 and the position information 82.
 抽出部72は、取得部71が取得した情報と、特定部61から入力された開始座標を用いて、開始座標を含む位置に表示されるユーザインタフェースを抽出する。抽出部72は、ユーザインタフェースを抽出できた場合、抽出したユーザインタフェースの情報、抽出したユーザインタフェースを使用するアプリケーションの識別子、開始座標の組合せを割り当て部63に出力する。一方、開始座標を含むユーザインタフェースがない場合、抽出部72は、選択された可能性のあるユーザインタフェースが無いことを示す情報とともに、開始座標を割り当て部63に出力する。 The extraction unit 72 uses the information acquired by the acquisition unit 71 and the start coordinates input from the specifying unit 61 to extract a user interface displayed at a position including the start coordinates. If the user interface can be extracted, the extraction unit 72 outputs the extracted user interface information, the identifier of the application that uses the extracted user interface, and the combination of the start coordinates to the allocation unit 63. On the other hand, when there is no user interface including the start coordinates, the extraction unit 72 outputs the start coordinates to the allocation unit 63 together with information indicating that there is no user interface that may have been selected.
 割り当て部63は、タッチパネル11の操作領域の一部を、抽出部72から通知されたユーザインタフェースへの入力を検出するための検出領域5に割り当てる。以下、タッチパネル11のうち、ユーザがタッチ操作に使用する領域のことを、操作領域と記載する。さらに、割り当て部63は、開始座標に表示されているソフトキーボードのキーで入力可能な文字の候補の各々の入力を検出するための検出領域6に、タッチパネル11の操作領域の一部を割り当てる。なお、選択された可能性のあるユーザインタフェースが無いことが通知された場合、割り当て部63は、タッチパネル11のいずれの領域も、背面のウィンドウ中のユーザインタフェースへの入力を検出するための領域に割り当てない。割り当て部63は、検出領域5と検出領域6を特定するための情報、検出領域5に対応付けたユーザインタフェース、検出領域6に対応付けた入力文字などの情報を、検出部64に通知する。さらに、割り当て部63は、ユーザインタフェースを使用するアプリケーションの識別子も、検出部64に通知する。 The allocation unit 63 allocates a part of the operation area of the touch panel 11 to the detection area 5 for detecting an input to the user interface notified from the extraction unit 72. Hereinafter, an area used by the user for the touch operation in the touch panel 11 is referred to as an operation area. Furthermore, the assigning unit 63 assigns a part of the operation area of the touch panel 11 to the detection area 6 for detecting the input of each of the character candidates that can be input with the keys of the soft keyboard displayed at the start coordinates. When it is notified that there is no user interface that may have been selected, the allocation unit 63 uses any area of the touch panel 11 as an area for detecting input to the user interface in the rear window. Do not assign. The allocation unit 63 notifies the detection unit 64 of information for specifying the detection region 5 and the detection region 6, information such as a user interface associated with the detection region 5 and input characters associated with the detection region 6. Further, the assigning unit 63 notifies the detection unit 64 of the identifier of the application that uses the user interface.
 検出部64は、特定部61から入力された開始座標を記憶している。さらに、検出部64は、タッチ操作の終了座標と検出領域5および検出領域6を比較することにより、ユーザから要求された処理を特定する。例えば、検出部64は、特定部61から入力された座標のうち、UPイベントと対応付けられた座標を、タッチ操作の終了座標とする。検出部64は、タッチ操作の終了座標が含まれている検出領域を特定することにより、特定した検出領域に対応付けられた処理の要求を検出する。すなわち、検出部64は、タッチ操作の終了座標が含まれている検出領域に対応付けられた処理を、ユーザが選択した処理であるとする。 The detecting unit 64 stores the start coordinates input from the specifying unit 61. Further, the detection unit 64 identifies the processing requested by the user by comparing the end coordinates of the touch operation with the detection area 5 and the detection area 6. For example, the detection unit 64 sets the coordinate associated with the UP event among the coordinates input from the specifying unit 61 as the end coordinate of the touch operation. The detection unit 64 detects a processing request associated with the identified detection region by identifying the detection region including the end coordinates of the touch operation. In other words, the detection unit 64 is assumed to be a process in which the user selects the process associated with the detection area including the end coordinates of the touch operation.
 ユーザインタフェースが選択されたと判定した場合、検出部64は、キーボードの背面に表示されているアプリケーションのユーザインタフェースが選択されたことを通知するための通知情報を、通知部42に出力する。ここで、通知情報には、タッチ操作の開始座標にDOWNイベントを対応付けたデータ、タッチ操作の開始座標にUPイベントを対応付けたデータ、および、ソフトキーボードの背面に表示されているアプリケーションの識別子が含まれる。換言すると、通知情報は、背面に表示されているウィンドウ中のユーザインタフェースに対するタップ操作が発生したことを通知するための情報である。つまり、背面のウィンドウ中のユーザインタフェースが配置されている座標から開始したタッチ操作が、検出領域5内で終了した場合、検出部64は、背面に表示されているウィンドウ中のユーザインタフェースが選択されたと判定する。そこで、ユーザインタフェースの選択を通知するために、検出部64は、背面に表示されているウィンドウ中のユーザインタフェースに対するタップ操作が発生した場合に発生する情報と同じ情報を、通知部42に通知する。通知部42は、位置情報82を参照することにより、通知されたアプリケーションの識別子に対応付けられているユーザインタフェースの中から、タッチ操作の開始座標および終了座標が含まれているものを特定する。通知部42は、特定したユーザインタフェースが選択されたことを、アプリケーションの識別子と共に処理部52に通知する。処理部52は、通知部42からの通知に応じてアプリケーションの表示画面が変更される場合は、新たな表示画面を生成し、入力制御部20を介して表示部16に出力する。なお、入力制御部20は、適宜、表示順序データ81を更新する。 When it is determined that the user interface has been selected, the detection unit 64 outputs notification information for notifying that the user interface of the application displayed on the back of the keyboard has been selected to the notification unit 42. Here, the notification information includes data in which the DOWN event is associated with the start coordinates of the touch operation, data in which the UP event is associated with the start coordinates of the touch operation, and the identifier of the application displayed on the back of the soft keyboard Is included. In other words, the notification information is information for notifying that a tap operation has occurred on the user interface in the window displayed on the back. That is, when the touch operation started from the coordinates where the user interface in the back window is arranged ends in the detection area 5, the detection unit 64 selects the user interface in the window displayed on the back. It is determined that Therefore, in order to notify selection of the user interface, the detection unit 64 notifies the notification unit 42 of the same information that is generated when a tap operation on the user interface in the window displayed on the back surface occurs. . The notification unit 42 refers to the position information 82 to identify a user interface associated with the notified application identifier that includes the start coordinates and end coordinates of the touch operation. The notification unit 42 notifies the processing unit 52 together with the application identifier that the specified user interface has been selected. When the display screen of the application is changed according to the notification from the notification unit 42, the processing unit 52 generates a new display screen and outputs it to the display unit 16 via the input control unit 20. The input control unit 20 updates the display order data 81 as appropriate.
 一方、ソフトキーボードのキーで入力可能な文字の候補のいずれかに対応付けられた検出領域6が選択された場合、検出部64は、タッチ操作の終了座標を含む検出領域6に対応付けられた文字の入力処理を行う。 On the other hand, when the detection area 6 associated with any of the character candidates that can be input with the keys of the soft keyboard is selected, the detection unit 64 is associated with the detection area 6 including the end coordinates of the touch operation. Perform character input processing.
 図3は、表示装置10のハードウェア構成の例を示す。表示装置10は、タッチパネル11、プロセッサ91、メモリ92、バス93を備える。プロセッサ91は、ソフトウェア制御部13として動作する。メモリ92は記憶部80の一例である。バス93は、タッチパネル11、プロセッサ91、メモリ92をデータの入出力が可能なように接続する。メモリ92は、Read Only Memory(ROM)とRandom Access Memory(RAM)を備えるものとする。プロセッサ91は、ROMに記録されているプログラムを読み込み、ソフトウェア制御部13を実現する。また、プロセッサ91は、適宜、RAMを使用することができるものとする。なお、図3は、表示装置10の一例であって、表示装置10は、オプションとして他の装置も含んでいても良い。例えば、表示装置10が携帯電話端末として実現される場合、表示装置10は、さらに、マイク、スピーカー、無線処理回路、アンテナなどを保持している。また、表示装置10にカメラ等が搭載されていても良い。さらに、表示装置10は、タブレットやコンピュータとして実現されても良い。 FIG. 3 shows an example of the hardware configuration of the display device 10. The display device 10 includes a touch panel 11, a processor 91, a memory 92, and a bus 93. The processor 91 operates as the software control unit 13. The memory 92 is an example of the storage unit 80. The bus 93 connects the touch panel 11, the processor 91, and the memory 92 so that data can be input and output. The memory 92 includes a Read Only Memory (ROM) and a Random Access Memory (RAM). The processor 91 reads the program recorded in the ROM and realizes the software control unit 13. The processor 91 can use a RAM as appropriate. FIG. 3 is an example of the display device 10, and the display device 10 may include other devices as an option. For example, when the display device 10 is realized as a mobile phone terminal, the display device 10 further holds a microphone, a speaker, a wireless processing circuit, an antenna, and the like. Further, a camera or the like may be mounted on the display device 10. Furthermore, the display device 10 may be realized as a tablet or a computer.
 <第1の実施形態>
 図4は、表示装置10で使用される座標の例と、表示装置10に表示されるウィンドウの例を示す。画面やタッチパネルでは、図4のW0に示すように、画面の左上隅を原点とするものとする。さらに、原点から右方向にX軸を設定し、原点から下方向にY軸を設定するものとする。以下の説明では、画面は、X軸方向の長さがa、Y軸方向の長さがbである場合を例として使用する。また、第1の実施形態では、表示装置10が携帯電話端末である場合を例として、表示装置10の動作の例を説明する。なお、表示装置10は、携帯電話端末以外の装置であっても良く、タッチパネル11からの入力によって画面の表示を変更することができる任意の装置とすることができる。
<First Embodiment>
FIG. 4 shows an example of coordinates used in the display device 10 and an example of a window displayed on the display device 10. In the screen and touch panel, the upper left corner of the screen is set as the origin, as indicated by W0 in FIG. Further, the X axis is set to the right from the origin, and the Y axis is set to the downward from the origin. In the following description, the screen is used as an example when the length in the X-axis direction is a and the length in the Y-axis direction is b. In the first embodiment, an example of the operation of the display device 10 will be described by taking the case where the display device 10 is a mobile phone terminal as an example. The display device 10 may be a device other than the mobile phone terminal, and may be any device that can change the screen display by an input from the touch panel 11.
 (1)表示装置10を起動すると、OSにより、図4のW1に示すように、表示装置10の状態を通知するための通知領域が表示される。このとき、表示制御部30は、通知領域の表示に際して、表示順序データ81を生成する。表示順序データ81は、画面に表示されるウィンドウの識別子、ウィンドウの表示順序を表すデータ、ウィンドウを表示する領域を特定するための座標データなどを含む。ここでは、通知領域の表示に際して、図5に示す表示順序データ81aが作成されたものとする。表示制御部30は、表示順序データ81aの情報とウィンドウW1を表示部16に出力することにより、表示装置10の画面に通知領域を表示させる。 (1) When the display device 10 is activated, a notification area for notifying the state of the display device 10 is displayed by the OS as indicated by W1 in FIG. At this time, the display control unit 30 generates display order data 81 when displaying the notification area. The display order data 81 includes an identifier of a window displayed on the screen, data representing the window display order, coordinate data for specifying an area for displaying the window, and the like. Here, it is assumed that the display order data 81a shown in FIG. 5 is created when the notification area is displayed. The display control unit 30 displays the notification area on the screen of the display device 10 by outputting the information of the display order data 81a and the window W1 to the display unit 16.
 (2)次に、ユーザがアプリケーションAP1を起動させたとする。例えば、アプリケーションAP1がメール作成に使用されるソフトウェアである場合について、アプリケーションAP1によって表示されるウィンドウの例を図4のウィンドウW2に示す。表示制御部30は、ウィンドウW2を画面に表示させるために、表示順序データ81aを表示順序データ81bに更新する。 (2) Next, it is assumed that the user activates the application AP1. For example, in the case where the application AP1 is software used for mail creation, an example of a window displayed by the application AP1 is shown in a window W2 in FIG. The display control unit 30 updates the display order data 81a to the display order data 81b in order to display the window W2 on the screen.
 さらに、位置情報生成部51は、位置情報82を生成する。図6は、位置情報82の例を示す。図6に示す位置情報82aは、ユーザインタフェースごとに、表示される領域を特定するための座標、アプリケーション、選択された場合の処理、ユーザインタフェースの表示名を対応付けている。例えば、アプリケーションAP1によって生成されるウィンドウW2中の送信ボタンでは、左上隅の座標が(0,0.85b)であり、右下隅の座標は(0.5a,b)である。位置情報生成部51は、保存ボタン、宛先入力領域、題名入力領域、メール本文の入力領域についても、同様に、情報を位置情報82aに含める。なお、位置情報生成部51は、位置情報82aの生成に際して、適宜、ウィンドウW2の生成に使用されるレイアウトファイルを参照することもできるものとする。位置情報生成部51は、レイアウトファイルにおいて個々のユーザインタフェースに対応付けて設定されている文字列を、ユーザインタフェースの表示名とする。 Furthermore, the position information generation unit 51 generates position information 82. FIG. 6 shows an example of the position information 82. The position information 82a illustrated in FIG. 6 associates coordinates for specifying a displayed region, an application, processing when selected, and a display name of the user interface for each user interface. For example, in the transmission button in the window W2 generated by the application AP1, the coordinates of the upper left corner are (0, 0.85b) and the coordinates of the lower right corner are (0.5a, b). Similarly, the position information generation unit 51 also includes information in the position information 82a for the save button, destination input area, title input area, and mail text input area. Note that the position information generation unit 51 can also refer to a layout file used to generate the window W2 as appropriate when generating the position information 82a. The position information generation unit 51 uses a character string set in association with each user interface in the layout file as a display name of the user interface.
 表示制御部30は、表示順序データ81b、ウィンドウW1、および、ウィンドウW2を表示部16に出力する。アプリケーションAP1のウィンドウW2は、表示順序データ81bに従って通知情報のウィンドウW1の背面に表示されるため、表示装置10の画面の表示は、図7に示すとおりになる。 The display control unit 30 outputs the display order data 81b, the window W1, and the window W2 to the display unit 16. Since the window W2 of the application AP1 is displayed on the back of the notification information window W1 according to the display order data 81b, the display of the screen of the display device 10 is as shown in FIG.
 (3)ユーザが、タッチ操作により、ウィンドウW2中の宛先入力領域、題名入力領域、メール本文の入力領域のいずれかを選択したとする。このとき、入力部15は、ユーザからの入力を検出した座標と、タッチイベントの検出を、入力制御部20に出力する。ここでは、DOWNイベントが検出された座標とUPイベントが検出された座標について、タッチイベントの種類とともに検出された座標が入力制御部20に出力されたものとする。入力制御部20は、検出された座標とタッチイベントの種類を示す情報の組み合わせを、表示制御部30に出力する。表示制御部30は、表示順序データ81を用いて、通知された座標にアプリケーションAP1で使用されるウィンドウが表示されていることを特定する。表示制御部30は、アプリケーションAP1の識別子ととともに、入力制御部20から取得した情報を、通知部42に出力する。通知部42は、位置情報82を用いて、アプリケーションAP1で使用されるユーザインタフェースのうち、表示制御部30から通知された座標を含むユーザインタフェースを特定する。通知部42は、特定したユーザインタフェースが選択されていることを、処理部52に通知する。ここでは、メールの本文の入力領域が選択されているものとする。処理部52は、通知部42から通知されたユーザインタフェースが入力処理に使用される領域である場合、入力処理部62に対してソフトキーボードの起動を要求する。 (3) It is assumed that the user selects any one of the destination input area, the title input area, and the mail text input area in the window W2 by a touch operation. At this time, the input unit 15 outputs the coordinates at which the input from the user is detected and the detection of the touch event to the input control unit 20. Here, it is assumed that the coordinates detected together with the type of the touch event are output to the input control unit 20 for the coordinates where the DOWN event is detected and the coordinates where the UP event is detected. The input control unit 20 outputs a combination of information indicating the detected coordinates and the type of touch event to the display control unit 30. The display control unit 30 uses the display order data 81 to specify that the window used by the application AP1 is displayed at the notified coordinates. The display control unit 30 outputs the information acquired from the input control unit 20 together with the identifier of the application AP1 to the notification unit 42. The notification unit 42 uses the position information 82 to specify a user interface including the coordinates notified from the display control unit 30 among the user interfaces used in the application AP1. The notification unit 42 notifies the processing unit 52 that the identified user interface is selected. Here, it is assumed that the input area of the mail text is selected. When the user interface notified from the notification unit 42 is an area used for input processing, the processing unit 52 requests the input processing unit 62 to start a soft keyboard.
 (4)図8は、ソフトキーボードの例である。入力処理部62は、ソフトキーボードを起動し、ソフトキーボードに含まれている各キーについての表示座標を、画面の高さおよび幅の関数として表した情報を座標計算部41に出力する。座標計算部41は、画面の高さと幅の情報を用いて表示座標を計算し、図8に示すようなソフトキーボードのウィンドウW3を生成する。座標計算部41は、表示制御部30にソフトキーボードのウィンドウW3の情報を出力する。すると、表示制御部30は、ソフトキーボードについての表示順序を設定する。例えば、表示制御部30は、起動されたソフトキーボードを、ウィンドウW2の上(すなわち、前面)に表示することを決定したとする。この場合、表示制御部30は、表示順序データ81bを表示順序データ81cに示すように更新する。 (4) FIG. 8 shows an example of a soft keyboard. The input processing unit 62 activates the soft keyboard and outputs information representing the display coordinates of each key included in the soft keyboard as a function of the height and width of the screen to the coordinate calculation unit 41. The coordinate calculation unit 41 calculates display coordinates using information on the height and width of the screen, and generates a soft keyboard window W3 as shown in FIG. The coordinate calculation unit 41 outputs information on the window W3 of the soft keyboard to the display control unit 30. Then, the display control unit 30 sets the display order for the soft keyboard. For example, it is assumed that the display control unit 30 determines to display the activated soft keyboard on the window W2 (that is, the front surface). In this case, the display control unit 30 updates the display order data 81b as indicated by the display order data 81c.
 座標計算部41は、ソフトキーボードに含まれている各キーについての座標の情報を取得し、位置情報82を更新する。ソフトキーボード中の各キーに関する情報を含む位置情報82bの例を図9に示す。例えば、ソフトキーボード中の左から2列目の上から2番目のキーは、左上隅の座標が(0.2a,0.7b)、右下隅の座標が(0.4a,0.8b)であり、アルファベットのG、H、Iの入力に使用される。同様に、ソフトキーボード中の各キーについて、位置情報82に、座標とそのキーの用途が対応付けられている。 The coordinate calculation unit 41 acquires coordinate information for each key included in the soft keyboard and updates the position information 82. An example of position information 82b including information on each key in the soft keyboard is shown in FIG. For example, the second key from the top in the second column from the left in the soft keyboard has the coordinates of the upper left corner (0.2a, 0.7b) and the coordinates of the lower right corner (0.4a, 0.8b). Yes, used to input alphabets G, H, and I. Similarly, for each key in the soft keyboard, the coordinates and the usage of the key are associated with the position information 82.
 表示制御部30が表示部16にウィンドウW3とウィンドウW3についての表示条件を出力することにより、画面にソフトキーボードが表示される。図10の表示D12は、ソフトキーボードの表示例である。図10の表示D12は、ウィンドウW3に示すソフトキーボードが、表示D11の表示中に起動された場合の例を示す。なお、ソフトキーボードは半透明であるため、表示D12に示すように、表示装置10のユーザはソフトキーボードの背面に表示されているウィンドウを視認することができるものとする。 The display control unit 30 outputs the window W3 and the display conditions for the window W3 to the display unit 16, whereby a soft keyboard is displayed on the screen. A display D12 in FIG. 10 is a display example of a soft keyboard. A display D12 in FIG. 10 shows an example in which the soft keyboard shown in the window W3 is activated while the display D11 is being displayed. Since the soft keyboard is translucent, it is assumed that the user of the display device 10 can visually recognize the window displayed on the back of the soft keyboard as shown in the display D12.
 (5)図11の表示D13に示すように、位置Xから、ユーザのタッチ操作が開始されたとする。以下の説明では、位置Xの座標が(0.35a,0.88b)であるとする。入力部15は、入力を検出した座標と、タッチイベントの種類を特定する情報の組み合わせを、入力制御部20に出力する。ここでは、入力部15は、位置Xの座標とDOWNイベントを関連付けて、入力制御部20に出力する。表示制御部30は、座標とタッチイベントの組み合わせを入力制御部20から取得すると、特定部61に出力する。特定部61は、タッチイベントの種類がDOWNイベントである場合、DOWNイベントに対応付けられた座標をタッチ操作の開始座標とする。ここでは、特定部61は(0.35a,0.88b)を開始座標とする。特定部61は、得られた開始座標を取得部71、抽出部72、検出部64に通知する。 (5) It is assumed that the user's touch operation is started from the position X as shown in the display D13 in FIG. In the following description, it is assumed that the coordinates of the position X are (0.35a, 0.88b). The input unit 15 outputs to the input control unit 20 a combination of coordinates for detecting the input and information for specifying the type of touch event. Here, the input unit 15 associates the coordinates of the position X and the DOWN event, and outputs them to the input control unit 20. When the display control unit 30 acquires a combination of coordinates and touch events from the input control unit 20, the display control unit 30 outputs the combination to the specifying unit 61. When the type of the touch event is a DOWN event, the specifying unit 61 sets the coordinate associated with the DOWN event as the start coordinate of the touch operation. Here, the specifying unit 61 sets (0.35a, 0.88b) as the start coordinates. The specifying unit 61 notifies the acquisition unit 71, the extraction unit 72, and the detection unit 64 of the obtained start coordinates.
 (6)取得部71は、ソフトキーボードの背面に表示されているウィンドウに含まれるユーザインタフェースの情報を取得する。このとき、取得部71は、適宜、表示順序データ81c(図5)を使用することにより、ソフトキーボードのウィンドウW3の背面にアプリケーションAP1によって生成されたウィンドウW2が表示されていることを特定する。さらに、取得部71は、位置情報82b(図9)を用いることにより、アプリケーションAP1のウィンドウW2に含まれているユーザインタフェースの位置情報を取得する。 (6) The acquisition unit 71 acquires user interface information included in the window displayed on the back of the soft keyboard. At this time, the acquisition unit 71 appropriately uses the display order data 81c (FIG. 5) to specify that the window W2 generated by the application AP1 is displayed on the back of the window W3 of the soft keyboard. Furthermore, the acquisition unit 71 acquires the position information of the user interface included in the window W2 of the application AP1 by using the position information 82b (FIG. 9).
 (7)抽出部72は、取得部71が取得したユーザインタフェースの位置情報を用いて、特定部61から入力された開始座標(0.35a,0.88b)を含むユーザインタフェースを抽出する。図11の表示D13の例では、送信ボタンの左上隅の座標は(0,0.85b)で、右下隅の座標は(0.5a,b)であるので、抽出部72は、開始座標を含むユーザインタフェースとして送信ボタンを抽出する。抽出部72は、得られた結果を割り当て部63に出力する。従って、ここでは、抽出部72は、アプリケーションAP1の送信ボタンがタッチ操作の開始座標(0.35a,0.88b)に表示されていることを、割り当て部63に通知する。 (7) The extracting unit 72 extracts the user interface including the start coordinates (0.35a, 0.88b) input from the specifying unit 61 using the position information of the user interface acquired by the acquiring unit 71. In the example of display D13 in FIG. 11, the coordinates of the upper left corner of the send button are (0, 0.85b) and the coordinates of the lower right corner are (0.5a, b). The send button is extracted as a user interface including. The extraction unit 72 outputs the obtained result to the allocation unit 63. Accordingly, here, the extraction unit 72 notifies the allocation unit 63 that the transmission button of the application AP1 is displayed at the touch operation start coordinates (0.35a, 0.88b).
 (8)割り当て部63は、位置情報82b(図9)を用いて、抽出部72から通知された座標を含むキーを特定する。ここで、表示D13においてタッチ操作が位置Xから開始されている。P~Sの入力に用いられるキーの左上隅の座標は(0.2a,0.8b)、右下隅の座標は(0.4a,0.9b)であり、位置Xの座標は(0.35a,0.88b)である。そこで、割り当て部63は、タッチ操作の開始位置Xを含むキーがP~Sの入力に使用されることを特定する。そこで、割り当て部63は、タッチパネル11の操作領域の一部を、P~Sの各々の入力に対応付けられた検出領域6(6a~6d)に割り当てる。 (8) The assigning unit 63 specifies a key including the coordinates notified from the extracting unit 72 using the position information 82b (FIG. 9). Here, the touch operation is started from the position X in the display D13. The coordinates of the upper left corner of the key used for inputting P to S are (0.2a, 0.8b), the coordinates of the lower right corner are (0.4a, 0.9b), and the coordinates of the position X are (0. 35a, 0.88b). Therefore, the assigning unit 63 specifies that the key including the touch operation start position X is used for inputting P to S. Therefore, the assigning unit 63 assigns a part of the operation area of the touch panel 11 to the detection area 6 (6a to 6d) associated with each of the inputs P to S.
 さらに、割り当て部63は、抽出部72から通知されたユーザインタフェースへの入力を検出するための検出領域5も生成する。なお、検出領域5の生成に際して、割り当て部63は、検出領域5に対応付けられたユーザインタフェースの表示名を検出領域5に表示するように指定するものとする。ここでは手順(7)で、タッチ操作の開始位置にアプリケーションAP1の送信ボタンがあることが通知されているので、割り当て部63は、アプリケーションAP1の送信ボタンに対応付けた検出領域5を生成する。さらに、検出領域5に「送信」という表示名を表示するように設定する。割り当て部63が生成した検出領域5、6a~6dに対応する処理と、検出領域5、6a~6dに割り当てられている領域の座標の関係の例を図12に示す。割り当て部63は、図12に示す検出領域5、6a~6dの情報を、検出部64に通知する。 Furthermore, the allocating unit 63 also generates a detection area 5 for detecting an input to the user interface notified from the extracting unit 72. When generating the detection area 5, the allocating unit 63 designates that the display name of the user interface associated with the detection area 5 is displayed in the detection area 5. Here, in step (7), since it is notified that there is a transmission button of the application AP1 at the start position of the touch operation, the allocation unit 63 generates the detection area 5 associated with the transmission button of the application AP1. Further, the display name “transmission” is set to be displayed in the detection area 5. FIG. 12 shows an example of the relationship between the processing corresponding to the detection areas 5, 6a to 6d generated by the assigning unit 63 and the coordinates of the areas assigned to the detection areas 5, 6a to 6d. The allocation unit 63 notifies the detection unit 64 of information on the detection areas 5 and 6a to 6d shown in FIG.
 さらに、割り当て部63は、検出領域5、6a~6dをユーザに視認させるための画像G1を生成し、表示制御部30に出力する。表示制御部30は、表示D13の最前面に画像G1を表示することを表示部16に要求する。このため、検出領域5、6a~6dが画面に表示されると、表示装置10のユーザは、表示D14に示すような表示を見ることができる。 Furthermore, the assigning unit 63 generates an image G1 for allowing the user to visually recognize the detection areas 5, 6a to 6d, and outputs the generated image G1 to the display control unit 30. The display control unit 30 requests the display unit 16 to display the image G1 on the forefront of the display D13. Therefore, when the detection areas 5, 6a to 6d are displayed on the screen, the user of the display device 10 can see a display as shown in the display D14.
 (9)ユーザが入力位置を移動させると、入力部15で新たに観測された入力位置とタッチイベントの組み合わせが、手順(5)と同様に、特定部61に通知される。特定部61は、通知された組み合わせに含まれているタッチイベントがDOWNイベントではない場合、通知された組み合わせの情報を検出部64に出力する。 (9) When the user moves the input position, the combination of the input position newly observed by the input unit 15 and the touch event is notified to the specifying unit 61 as in the procedure (5). When the touch event included in the notified combination is not a DOWN event, the specifying unit 61 outputs the notified combination information to the detection unit 64.
 検出部64は、特定部61から入力された座標のうち、UPイベントに対応付けられた座標を、タッチ操作の終了座標とする。次に、検出部64は、タッチ操作の終了座標が含まれている検出領域を特定する。このとき、検出部64は、予め割り当て部63から通知されている検出領域5、6a~6dの情報を用いるものとする。検出部64は、タッチ操作の終了座標を含む検出領域に対応付けられた操作の要求を検出する。すなわち、検出部64は、タッチ操作の終了座標が含まれている検出領域に対応付けられた処理を、ユーザによって選択された処理に決定する。以下の説明では、タッチ操作の終了座標は、アプリケーションAP1の送信ボタンへの入力を検出するための検出領域5に含まれているとする。 The detecting unit 64 sets the coordinates associated with the UP event among the coordinates input from the specifying unit 61 as the end coordinates of the touch operation. Next, the detection unit 64 specifies a detection area including the end coordinates of the touch operation. At this time, the detection unit 64 uses the information of the detection areas 5 and 6a to 6d notified in advance from the allocation unit 63. The detection unit 64 detects a request for an operation associated with a detection area including the end coordinates of the touch operation. That is, the detection unit 64 determines that the process associated with the detection area including the end coordinates of the touch operation is the process selected by the user. In the following description, it is assumed that the end coordinates of the touch operation are included in the detection area 5 for detecting an input to the transmission button of the application AP1.
 (10)終了座標が検出領域5に含まれている場合、検出部64は、アプリケーションAP1の送信ボタンが選択されたと判定する。そこで、検出部64は、アプリケーションAP1の送信ボタンが選択されたことを通知するための通知情報を生成する。検出部64は、タッチ操作の開始座標でDOWNイベントが発生したことを表す情報、開始座標でUPイベントが発生したことを表す情報、および、アプリケーションAP1の識別子の組合せを通知情報とする。すなわち、検出部64は、タッチ操作の開始座標に対する入力が観測されたことと、入力の対象はアプリケーションAP1であることを、通知部42に通知する。なお、検出部64はタッチ操作の開始座標として、手順(5)で特定部61からDOWNイベントとともに通知された座標を使用する。 (10) When the end coordinates are included in the detection area 5, the detection unit 64 determines that the transmission button of the application AP1 has been selected. Therefore, the detection unit 64 generates notification information for notifying that the transmission button of the application AP1 has been selected. The detection unit 64 uses, as notification information, a combination of information indicating that a DOWN event has occurred at the start coordinates of the touch operation, information indicating that an UP event has occurred at the start coordinates, and the identifier of the application AP1. That is, the detection unit 64 notifies the notification unit 42 that an input with respect to the start coordinates of the touch operation has been observed and that the input target is the application AP1. In addition, the detection part 64 uses the coordinate notified with the DOWN event from the specific | specification part 61 by the procedure (5) as a start coordinate of touch operation.
 (11)通知部42は、位置情報82を用いて、検出部64から通知されたアプリケーションの識別子に対応付けられているユーザインタフェースのうちで、タッチ操作の開始座標が含まれているものを特定する。通知部42は、特定したユーザインタフェースを、アプリケーションの識別子と共に処理部52に通知する。ここでは、通知部42は、アプリケーションAP1の送信ボタンが選択されたことを、処理部52に通知する。 (11) The notification unit 42 uses the position information 82 to identify the user interface associated with the identifier of the application notified from the detection unit 64 that includes the touch operation start coordinates. To do. The notification unit 42 notifies the processing unit 52 of the identified user interface together with the application identifier. Here, the notification unit 42 notifies the processing unit 52 that the transmission button of the application AP1 has been selected.
 (12)処理部52は、通知部42からの通知に応じて処理を行う。例えば、アプリケーションAP1の送信ボタンが選択されたことが通知されると、処理部52は、本文入力領域に表示されている文字列を本文、題名入力領域に表示されている文字列を題名としたメールを宛先に向けて送信する。さらに、処理部52は、メールの送信処理に伴って表示画面を変更するための処理を行う。 (12) The processing unit 52 performs processing according to the notification from the notification unit 42. For example, when notified that the transmission button of the application AP1 has been selected, the processing unit 52 uses the text displayed in the text input area as the text and the text displayed in the title input area as the title. Send mail to the destination. Further, the processing unit 52 performs a process for changing the display screen in accordance with the mail transmission process.
 図13は、表示装置10で行われる処理の例を説明するフローチャートである。表示装置10でアプリケーションが起動された後、ソフトキーボードを呼び出すための操作が行われると、ソフトキーボードが起動される(ステップS1、S2)。入力部15は、ユーザからのタッチパネル11へのタッチ操作を検出したかを判定する(ステップS3)。入力部15は、タッチ操作を検出すると、入力を検出した座標とタッチイベントを、入力制御部20を介して表示制御部30に通知する(ステップS3でYes)。表示制御部30は、表示順序データ81を用いて、タッチ操作の開始座標にソフトキーボードが表示されているかを判定する(ステップS4)。開始座標にソフトキーボードが表示されている場合、取得部71は、ソフトキーボードの背面に表示されているウィンドウにおいて表示されているユーザインタフェースの情報を取得する(ステップS4でYes、ステップS5)。抽出部72は、取得部71が位置を取得したユーザインタフェースの中に、開始座標を含むユーザインタフェースがあるかを判定する(ステップS6)。 FIG. 13 is a flowchart for explaining an example of processing performed in the display device 10. When an operation for calling a soft keyboard is performed after the application is activated on the display device 10, the soft keyboard is activated (steps S1 and S2). The input unit 15 determines whether a touch operation on the touch panel 11 from the user has been detected (step S3). When the input unit 15 detects the touch operation, the input unit 15 notifies the display control unit 30 of the coordinates and the touch event at which the input is detected (Yes in step S3). The display control unit 30 uses the display order data 81 to determine whether a soft keyboard is displayed at the start coordinates of the touch operation (step S4). When the soft keyboard is displayed at the start coordinates, the acquisition unit 71 acquires information on the user interface displayed in the window displayed on the back of the soft keyboard (Yes in step S4, step S5). The extraction unit 72 determines whether there is a user interface including start coordinates in the user interface from which the acquisition unit 71 has acquired the position (step S6).
 開始座標を含むユーザインタフェースがある場合、割り当て部63は、タッチパネル11の操作領域の一部に、ユーザインタフェースに対応する検出領域5と、開始座標を含むキーに対応する検出領域6を割り当てる(ステップS6でYes、ステップS7)。検出部64は、入力部15で検出されたタッチイベントと入力座標を、入力制御部20、表示制御部30などを介して取得しているので、タッチ操作が終了したときの座標とUPイベントの組み合わせも取得する(ステップS8)。検出部64は、タッチ操作の終了座標を含む検出領域が、背面のウィンドウ中のユーザインタフェースに対応付けられているかを判定する(ステップS9)。 When there is a user interface including the start coordinates, the assigning unit 63 assigns the detection area 5 corresponding to the user interface and the detection area 6 corresponding to the key including the start coordinates to a part of the operation area of the touch panel 11 (step Yes in S6, step S7). Since the detection unit 64 acquires the touch event and the input coordinates detected by the input unit 15 via the input control unit 20, the display control unit 30, and the like, the coordinates when the touch operation ends and the UP event. A combination is also acquired (step S8). The detection unit 64 determines whether the detection area including the end coordinates of the touch operation is associated with the user interface in the rear window (step S9).
 背面のウィンドウ中のユーザインタフェースに対応付けられた検出領域5に、タッチ操作の終了座標が含まれている場合、検出部64は、通知部42に通知情報を通知する(ステップS9でYes、ステップS10)。ここで、通知情報は、背面のウィンドウを生成したアプリケーションの識別子、タッチ操作の開始座標とDOWNイベントの組み合わせ、および、タッチ操作の開始座標とUPイベントの組み合わせを含む。通知部42は、検出部64から通知情報を取得すると、通知情報に含まれている識別子で識別されるアプリケーションに関するウィンドウ(背面のウィンドウ)において、タッチ操作の開始位置に表示されているユーザインタフェースが選択されたと判定する。そこで、通知部42は、処理部52に、ユーザインタフェースが選択されたことと、選択されたユーザインタフェースを識別する情報を通知する(ステップS11)。処理部52は、通知部42からの通知に従って、通知部42から通知されたユーザインタフェースが選択された場合の処理を行う。その後、ステップS3以降の処理が繰り返される。 When the detection region 5 associated with the user interface in the rear window includes the end coordinates of the touch operation, the detection unit 64 notifies the notification unit 42 of the notification information (Yes in step S9, step S9). S10). Here, the notification information includes the identifier of the application that generated the rear window, the combination of the touch operation start coordinate and the DOWN event, and the combination of the touch operation start coordinate and the UP event. When the notification unit 42 acquires the notification information from the detection unit 64, the user interface displayed at the start position of the touch operation is displayed in the window related to the application identified by the identifier included in the notification information (the back window). It is determined that it has been selected. Therefore, the notification unit 42 notifies the processing unit 52 that the user interface has been selected and information for identifying the selected user interface (step S11). The processing unit 52 performs processing when the user interface notified from the notification unit 42 is selected in accordance with the notification from the notification unit 42. Thereafter, the processing after step S3 is repeated.
 一方、タッチ操作の終了座標を含む検出領域が、背面のウィンドウ中のユーザインタフェースに対応付けられていない場合、検出部64は、ソフトキーボードによる入力が選択されたと判定する(ステップS9でNo)。そこで、検出部64は、終了座標を含む検出領域6に対応付けられた文字の入力処理を行う(ステップS14)。 On the other hand, when the detection area including the end coordinates of the touch operation is not associated with the user interface in the rear window, the detection unit 64 determines that the input using the soft keyboard has been selected (No in step S9). Therefore, the detection unit 64 performs a process for inputting characters associated with the detection area 6 including the end coordinates (step S14).
 背面に表示されているウィンドウでは、開始座標にユーザインタフェースが配置されていない場合、抽出部72は、ユーザが選択しようとした可能性のあるユーザインタフェースが背面のウィンドウにないことを割り当て部63に通知する(ステップS6でNo)。すると、割り当て部63は、タッチパネル11の操作領域の一部に、開始座標を含むキーで入力可能な文字の各々に対応する検出領域6を割り当てる(ステップS12)。検出部64は、入力部15で検出されたタッチイベントと入力座標を、入力制御部20、表示制御部30などを介して取得し、タッチ操作が終了したときの座標とUPイベントの組み合わせも取得する(ステップS13)。その後、検出部64は、終了座標を含む検出領域6に対応付けられた文字の入力処理を行う(ステップS14)。 In the window displayed on the back, when the user interface is not arranged at the start coordinate, the extraction unit 72 notifies the allocation unit 63 that there is no user interface that the user may have attempted to select in the back window. Notify (No in step S6). Then, the assigning unit 63 assigns the detection area 6 corresponding to each character that can be input with the key including the start coordinates to a part of the operation area of the touch panel 11 (step S12). The detection unit 64 acquires the touch event and input coordinates detected by the input unit 15 via the input control unit 20, the display control unit 30, and the like, and also acquires the combination of the coordinate and the UP event when the touch operation ends. (Step S13). Thereafter, the detection unit 64 performs a process of inputting characters associated with the detection area 6 including the end coordinates (step S14).
 なお、ステップS4において、ソフトキーボードへの入力ではないと判定された場合、入力対象となったウィンドウを生成したアプリケーションによる処理が行われる(ステップS15)。ステップS14かステップS15の処理が行われた後も、ステップS3以降の処理が行われる。 If it is determined in step S4 that the input is not to the soft keyboard, processing by the application that generated the input target window is performed (step S15). Even after the processing of step S14 or step S15 is performed, the processing after step S3 is performed.
 ステップS3において、入力部15でタッチ操作が検出されていない場合、表示制御部30は、ソフトキーボードが終了されているかを判定する(ステップS16)。ソフトキーボードが終了されている場合、表示制御部30は、ソフトキーボードに関する処理を終了する(ステップS16でYes)。一方、ソフトキーボードが終了されていない場合、表示制御部30は、入力部15からの通知があるまで待機する(ステップS16でNo)。 In step S3, when a touch operation is not detected by the input unit 15, the display control unit 30 determines whether the soft keyboard is terminated (step S16). If the soft keyboard has been terminated, the display control unit 30 terminates the process related to the soft keyboard (Yes in step S16). On the other hand, when the soft keyboard has not been terminated, the display control unit 30 waits for a notification from the input unit 15 (No in step S16).
 このように、表示装置10は、タッチ操作の開始座標に対応付けられたユーザインタフェースがある場合、そのユーザインタフェースが最前面に表示されていなくても、ユーザが選択しようとした可能性があると判定する。そこで、表示装置10は、ユーザが要求している処理を特定するために、ユーザが選択しようとした可能性があると判定されたユーザインタフェースへの入力を検出するための検出領域5を最前面に表示する。このため、ユーザは、背面に表示されているウィンドウ中のユーザインタフェースを選択したい場合、ウィンドウの表示順序を変更するための処理を行わずに、選択対象のユーザインタフェースを選択することができる。従って、実施形態にかかる表示装置のユーザは、前面にウィンドウを表示しているアプリケーション等の終了を行わずに、1つのタッチ操作で背面に表示されたボタンを選択することができる。なお、タッチ操作は、フリック入力を含む任意の入力操作とすることができる。 Thus, when there is a user interface associated with the start coordinates of the touch operation, the display device 10 may be selected by the user even if the user interface is not displayed in the foreground. judge. Accordingly, the display device 10 has the detection area 5 for detecting an input to the user interface that is determined to be selected by the user in order to identify the process requested by the user as the foreground. To display. For this reason, when the user wants to select a user interface in the window displayed on the back, the user interface can be selected without performing a process for changing the display order of the windows. Therefore, the user of the display device according to the embodiment can select the button displayed on the back by one touch operation without ending the application displaying the window on the front. The touch operation can be any input operation including flick input.
 <第2の実施形態>
 表示装置10は、第1の実施形態で説明したように、タッチ操作の開始座標が特定されたことをトリガとして、背面に表示されているウィンドウ中のユーザインタフェースの配置を取得する。このため、ユーザのタッチ操作により、背面に表示されているウィンドウのユーザインタフェースの配置が変更される場合であっても、表示装置10では、ユーザインタフェースの配置の変更にリアルタイムに対応して検出領域5の生成をすることができる。
<Second Embodiment>
As described in the first embodiment, the display device 10 acquires the arrangement of the user interface in the window displayed on the back surface with the start coordinate of the touch operation specified as a trigger. For this reason, even if the arrangement of the user interface of the window displayed on the back surface is changed by the user's touch operation, the display device 10 detects the detection area corresponding to the change of the arrangement of the user interface in real time. 5 can be generated.
 第2の実施形態では、ソフトキーボードからの入力に応じて、ソフトキーボードの背面に表示されているウィンドウの情報が変更される場合での表示装置10の動作の例を説明する。以下、情報検索に使用されるアプリケーションAP2のウィンドウがソフトキーボードのウィンドウの背面に表示される場合を例とする。以下の説明では、位置情報生成部51は、アプリケーションAP2を用いてユーザが検索したことのあるキーワードの履歴を保持しているものとする。なお、以下の説明は一例であり、使用されるアプリケーションは任意に変更されることがあるものとする。また、アプリケーションのウィンドウの前面に表示されるウィンドウはソフトキーボードのウィンドウ以外のものであってもよい。 In the second embodiment, an example of the operation of the display device 10 when the information on the window displayed on the back of the soft keyboard is changed according to the input from the soft keyboard will be described. Hereinafter, the case where the window of the application AP2 used for information retrieval is displayed on the back of the window of the soft keyboard is taken as an example. In the following description, it is assumed that the position information generation unit 51 holds a history of keywords that the user has searched using the application AP2. In addition, the following description is an example and the application used shall be changed arbitrarily. The window displayed in front of the application window may be other than the soft keyboard window.
 (21)図14は、表示装置10の画面への表示例を説明する図である。検索のキーワードが入力されていないときのアプリケーションAP2のウィンドウの例を図14のW4に示す。アプリケーションAP2が起動されると、検索に使用するキーワードをユーザが入力するためのソフトキーボードのウィンドウW3(図8)が、アプリケーションAP2のウィンドウに重ねて表示されるものとする。従って、アプリケーションAPが起動された後で、検索キーワードが入力されるまでの間は、表示装置10での表示は図14のD21に示すようになる。 (21) FIG. 14 is a diagram for explaining a display example on the screen of the display device 10. An example of the window of the application AP2 when no search keyword is input is shown in W4 of FIG. When the application AP2 is activated, a soft keyboard window W3 (FIG. 8) for the user to input a keyword used for the search is displayed so as to overlap the window of the application AP2. Accordingly, until the search keyword is input after the application AP is activated, the display on the display device 10 is as indicated by D21 in FIG.
 (22)ユーザがソフトキーボードを用いて検索のキーワードの1文字目を入力する。1文字目の入力のためのタッチ操作が開始されると、第1の実施形態で説明した手順(5)、(6)と同様の処理により、取得部71は、アプリケーションAP2のウィンドウW4で使用されているユーザインタフェースの情報を取得する。抽出部72は、取得部71が取得した情報を用いて、ウィンドウW4では、ソフトキーボードが表示されている領域中にユーザインタフェースは配置されていないと判定する。このため、割り当て部63は、ユーザのタッチ処理の開始座標を含むキーを用いて入力可能な文字の候補に対応する検出領域6を、画面に表示する。検出部64は、タッチ処理の終了座標を含む検出領域6に割り当てられた文字の入力処理を行う。 (22) The user inputs the first character of the search keyword using the soft keyboard. When the touch operation for inputting the first character is started, the acquisition unit 71 is used in the window W4 of the application AP2 by the same processing as the procedures (5) and (6) described in the first embodiment. Get user interface information. Using the information acquired by the acquisition unit 71, the extraction unit 72 determines that no user interface is arranged in the area where the soft keyboard is displayed in the window W4. Therefore, the assigning unit 63 displays the detection area 6 corresponding to the character candidates that can be input using the key including the start coordinates of the user's touch processing on the screen. The detection unit 64 performs an input process of characters assigned to the detection area 6 including the end coordinates of the touch process.
 (23)位置情報生成部51は、記憶している検索履歴のうちで、1文字目が入力された文字と一致するキーワードを抽出する。さらに、位置情報生成部51は、得られた候補の数と同数のユーザインタフェースをアプリケーションAP2のウィンドウ中に配置する。 (23) The position information generation unit 51 extracts a keyword that matches the input character of the first character from the stored search history. Further, the position information generation unit 51 arranges the same number of user interfaces as the number of obtained candidates in the window of the application AP2.
 図15は、ユーザインタフェースの配置方法の例を示す。図15は、位置情報生成部51がアプリケーションAP2のウィンドウの表示を変更するときに使用する情報の例である。位置情報生成部51は、各ユーザインタフェースに、候補として抽出したキーワードの1つを検索のキーワードとした検索処理の実施を割り当てる。図15に示す配置方法を使用する場合、位置情報生成部51は、検索用のキーワードの入力に使用されているユーザインタフェースから、Y軸方向に、抽出したキーワードの数と同数の矩形のユーザインタフェースを並べて配置する。位置情報生成部51は、選択される可能性の高いものから順に、検索キーワードの入力領域に近い位置にあるユーザインタフェースに割り当てる。キーワードが選択される可能性の高さの予測方法は任意である。ここでは、一例として、位置情報生成部51は、個々のキーワードの使用頻度が高くなるほど、選択される可能性が高いと判定するものとする。また、位置情報生成部51は、アプリケーションAP2のウィンドウ中のユーザインタフェースに、そのインタフェースに対応付けたキーワードを表示させる。さらに、3c~3jのユーザインタフェースが選択された場合、処理部52は、選択されたユーザインタフェースに対応付けられたキーワードを用いて、検索処理を行う。 FIG. 15 shows an example of a user interface arrangement method. FIG. 15 is an example of information used when the position information generation unit 51 changes the display of the window of the application AP2. The position information generation unit 51 assigns each user interface to perform search processing using one of the extracted keywords as a search keyword. When the arrangement method shown in FIG. 15 is used, the position information generation unit 51 uses the same number of rectangular user interfaces as the number of extracted keywords in the Y-axis direction from the user interface used for inputting the search keywords. Are placed side by side. The position information generation unit 51 assigns the user interfaces located at positions close to the search keyword input area in descending order of possibility of being selected. The prediction method of the high possibility that a keyword will be selected is arbitrary. Here, as an example, it is assumed that the position information generation unit 51 determines that the possibility of selection increases as the frequency of use of each keyword increases. Further, the position information generation unit 51 displays a keyword associated with the interface on the user interface in the window of the application AP2. Further, when the user interfaces 3c to 3j are selected, the processing unit 52 performs a search process using a keyword associated with the selected user interface.
 図16のウィンドウW5は、位置情報生成部51が生成するアプリケーションAP2のウィンドウの例である。ウィンドウW5は、検索キーワードの1文字目として「a」が入力された場合の例を示す。なお、ウィンドウW5は、検索キーワードのうち、1文字目が「a」であるものは、8個抽出された場合の例を示している。換言すると、検索キーワードの1文字目として「a」が入力されたことにより、位置情報生成部51は、アプリケーションAP2のウィンドウの表示を、ウィンドウW4からウィンドウW5に変更する。 16 is an example of a window of the application AP2 generated by the position information generation unit 51. The window W5 shows an example when “a” is input as the first character of the search keyword. The window W5 shows an example in which eight search keywords whose first character is “a” are extracted. In other words, when “a” is input as the first character of the search keyword, the position information generation unit 51 changes the window display of the application AP2 from the window W4 to the window W5.
 (24)位置情報生成部51は、ウィンドウW5の表示に使用するデータを、表示制御部30を介して表示部16に出力する。このとき、検索キーワードの1文字目が入力されてもソフトキーボードは終了されていないので、表示装置10での表示は、図16のD22に示すようになる。さらに、位置情報生成部51は、ウィンドウW5のレイアウトに応じて、位置情報82を更新する。図17に、更新された位置情報82cの例を示す。なお、図17では、位置情報82cのうち、アプリケーションAP2に含まれているユーザインタフェースの情報を示している。なお、位置情報82cでも、ソフトキーボードの情報は、図9に示す位置情報82bのNo.2a~2tと同様であるものとする。 (24) The position information generation unit 51 outputs data used for displaying the window W5 to the display unit 16 via the display control unit 30. At this time, even if the first character of the search keyword is input, the soft keyboard is not terminated, so that the display on the display device 10 is as shown at D22 in FIG. Further, the position information generation unit 51 updates the position information 82 according to the layout of the window W5. FIG. 17 shows an example of the updated position information 82c. Note that FIG. 17 shows the user interface information included in the application AP2 in the position information 82c. Even in the position information 82c, the information on the soft keyboard is the No. of position information 82b shown in FIG. It is the same as 2a to 2t.
 (25)表示部16の画面の表示が図16のD22に示す通りであるときに、ユーザが検索キーワードの2文字目を入力するために、位置Yから、タッチ操作を開始したとする。以下、位置Yの座標は(0.35a,0.83b)であるとする。すると、第1の実施形態で説明した手順(5)と同様の処理により、特定部61は、DOWNイベントとともに通知された位置Yの座標(0.35a,0.83b)を開始座標Yとする。取得部71は、第1の実施形態の手順(6)と同様の処理により、アプリケーションAP2のウィンドウW5中に含まれているユーザインタフェースの情報を取得する。なお、このとき、取得部71は、ウィンドウW5の各ユーザインタフェースに記載されているキーワードの候補も、そのキーワードが対応付けられているユーザインタフェースに対応付けて取得する。抽出部72は、取得部71で取得された情報を用いて、開始座標Yを含むウィンドウW5中のユーザインタフェースの情報を以下のように抽出する。
   アプリケーションの識別子:アプリケーションAP2
   左上隅の座標データ   :(0,0.75b)
   右下隅の座標データ   :(a,0.85b)
   表示内容        :apple recipe
抽出部72は、開始座標Y(0.35a,0.83b)とともに、ユーザインタフェースに「apple recipe」の文字列が表示されていることを割り当て部63に通知する。
(25) It is assumed that when the display on the display unit 16 is as indicated by D22 in FIG. 16, the user starts the touch operation from the position Y in order to input the second character of the search keyword. Hereinafter, it is assumed that the coordinates of the position Y are (0.35a, 0.83b). Then, the specifying unit 61 sets the coordinates (0.35a, 0.83b) of the position Y notified together with the DOWN event as the start coordinates Y by the same process as the procedure (5) described in the first embodiment. . The acquisition unit 71 acquires the user interface information included in the window W5 of the application AP2 by the same process as the procedure (6) of the first embodiment. At this time, the acquisition unit 71 also acquires keyword candidates described in each user interface of the window W5 in association with the user interface associated with the keyword. Using the information acquired by the acquisition unit 71, the extraction unit 72 extracts the user interface information in the window W5 including the start coordinate Y as follows.
Application identifier: application AP2
Top left corner coordinate data: (0,0.75b)
Lower right corner coordinate data: (a, 0.85b)
Display content: apple recipe
The extraction unit 72 notifies the allocation unit 63 that the character string “apple record” is displayed on the user interface together with the start coordinate Y (0.35a, 0.83b).
 (26)割り当て部63は、位置情報82cを用いて、抽出部72から通知された座標を含むキーを特定する。抽出部72から通知された開始座標Yは(0.35a,0.83b)であり、P~Sの入力に使用されるキーの範囲は(0.2a,0.8b)を左上隅、(0.4a,0.9b)を右下隅とする矩形である。従って、割り当て部63は、タッチ操作の開始位置を含むキーがP~Sの入力に使用されるキーであると判定し、タッチパネル11の操作領域の一部を、P~Sの各々の入力に対応付けられた検出領域6(6f~6i)に割り当てる。さらに、割り当て部63は、ウィンドウW5での開始座標に配置されているユーザインタフェースの選択を検出するための検出領域5aも生成する。割り当て部63は、検出領域5a、6f~6iを表示するための画像を生成し、表示制御部30を介して表示部16に出力する。検出領域5a、6f~6iの表示例を、図16のD23に示す。さらに、割り当て部63は、検出領域5a、6f~6iを特定するための座標を検出部64に通知する。 (26) The allocation unit 63 specifies the key including the coordinates notified from the extraction unit 72 using the position information 82c. The start coordinate Y notified from the extraction unit 72 is (0.35a, 0.83b), and the range of keys used for inputting P to S is (0.2a, 0.8b) in the upper left corner, ( 0.4a, 0.9b) is a rectangle with the lower right corner. Accordingly, the allocating unit 63 determines that the key including the start position of the touch operation is a key used for the input of P to S, and uses a part of the operation area of the touch panel 11 for each input of P to S. It is assigned to the associated detection area 6 (6f to 6i). Furthermore, the assigning unit 63 also generates a detection area 5a for detecting selection of the user interface arranged at the start coordinate in the window W5. The allocation unit 63 generates an image for displaying the detection areas 5a and 6f to 6i, and outputs the generated image to the display unit 16 via the display control unit 30. A display example of the detection areas 5a, 6f to 6i is shown in D23 of FIG. Furthermore, the assigning unit 63 notifies the detection unit 64 of coordinates for specifying the detection areas 5a and 6f to 6i.
 (27)ユーザからのタッチ操作が検出領域6f中で終了したとする。なお、タッチ操作の終了の検出方法は、第1の実施形態で説明した手順(9)と同様である。すると、検出部64は、「p」が入力されたと判定する。処理部52は、検索に使用するキーワードの2文字目として「p」を、キーワードの入力領域に含める。さらに、位置情報生成部51は、手順(23)と同様の処理により、アプリケーションAP2のウィンドウの表示を、ウィンドウW5(図16)から、図18中のウィンドウW6に変更する。なお、ウィンドウW6は、検索キーワードのうち、「ap」から始まるものが6個抽出された場合の例を示している。 (27) It is assumed that the touch operation from the user is finished in the detection area 6f. Note that the detection method of the end of the touch operation is the same as the procedure (9) described in the first embodiment. Then, the detection unit 64 determines that “p” has been input. The processing unit 52 includes “p” as the second character of the keyword used for the search in the keyword input area. Further, the position information generating unit 51 changes the display of the window of the application AP2 from the window W5 (FIG. 16) to the window W6 in FIG. 18 by the same processing as in the procedure (23). The window W6 shows an example in which six search keywords starting with “ap” are extracted.
 (28)位置情報生成部51がウィンドウW6のデータを表示制御部30に出力すると、手順(24)と同様の処理により、画面の表示が、図16のD23から図18のD24に変更される。位置情報生成部51は、ウィンドウW6の情報を用いて、位置情報82c(図17)を位置情報82dに更新する。図19では、位置情報82dのうち、アプリケーションAP2に含まれているユーザインタフェースの情報を示している。図19に示すように、位置情報82dでは、アプリケーションAP2でキーワードに関連付けられているユーザインタフェースの数が、ウィンドウW6と同様に、6個になっている。さらに、各ユーザインタフェースに対応付けられているキーワードも、位置情報82dでは、ウィンドウW6の情報に対応付けて更新されている。なお、位置情報82dでも、ソフトキーボードの情報は、図9に示す位置情報82bのNo.2a~2tと同様である。 (28) When the position information generation unit 51 outputs the data of the window W6 to the display control unit 30, the display on the screen is changed from D23 in FIG. 16 to D24 in FIG. 18 by the same processing as the procedure (24). . The position information generation unit 51 updates the position information 82c (FIG. 17) to the position information 82d using the information of the window W6. FIG. 19 shows user interface information included in the application AP2 in the position information 82d. As shown in FIG. 19, in the position information 82d, the number of user interfaces associated with the keyword in the application AP2 is six as in the window W6. Further, the keywords associated with each user interface are also updated in association with the information of the window W6 in the position information 82d. Even in the position information 82d, the information on the soft keyboard is the No. of position information 82b shown in FIG. The same as 2a to 2t.
 (29)画面の表示が図18のD24に示す通りであるときに、ユーザが位置Zから、タッチ操作を開始したとする。以下、位置Zの座標は(0.5a,0.72b)であるとする。特定部61は手順(5)と同様の処理により、DOWNイベントとともに通知された位置Zの座標(0.5a,0.72b)を開始座標Zとする。取得部71は、手順(25)と同様に、位置情報82dを用いてウィンドウW6中に含まれているユーザインタフェースの情報を取得する。抽出部72は、取得部71で取得された情報を用いて、開始座標Zを含むウィンドウW6中のユーザインタフェースの情報を以下のように抽出する。
   アプリケーションの識別子:アプリケーションAP2
   左上隅の座標データ   :(0,0.65b)
   右下隅の座標データ   :(a,0.75b)
   表示内容        :apple pie filling
抽出部72は、開始座標Z(0.5a,0.72b)とともに、ユーザインタフェースに「apple pie filling」の文字列が表示されていることを割り当て部63に通知する。
(29) It is assumed that the user starts a touch operation from the position Z when the display on the screen is as indicated by D24 in FIG. Hereinafter, it is assumed that the coordinates of the position Z are (0.5a, 0.72b). The specifying unit 61 sets the coordinates (0.5a, 0.72b) of the position Z notified together with the DOWN event as the start coordinates Z by the same process as in the procedure (5). Similar to the procedure (25), the acquiring unit 71 acquires the user interface information included in the window W6 using the position information 82d. The extraction unit 72 uses the information acquired by the acquisition unit 71 to extract information on the user interface in the window W6 including the start coordinate Z as follows.
Application identifier: application AP2
Upper left corner coordinate data: (0, 0.65b)
Lower right corner coordinate data: (a, 0.75b)
Display contents: apple pie filling
The extraction unit 72 notifies the allocation unit 63 that the character string “apple pie filling” is displayed on the user interface together with the start coordinate Z (0.5a, 0.72b).
 (30)割り当て部63は、位置情報82dを用いて、開始座標Zが含まれているキーを特定する。ここで、J~Lの入力に使用されるキーの範囲は(0.4a,0.7b)を左上隅、(0.6a,0.8b)を右下隅とする矩形である。従って、割り当て部63は、開始座標Z(0.5a,0.72b)がJ~Lの入力に使用されるキーに含まれていると判定する。そこで、割り当て部63は、J、K、Lの各々の入力の要求を検出するための検出領域6p~6rと、抽出部72から通知されたユーザインタフェースの選択を検出するための検出領域5bを生成する。検出領域の情報が表示制御部30を介して表示部16に出力されることにより、画面の表示は、図18のD24からD25に変更される。 (30) The assigning unit 63 specifies the key including the start coordinate Z using the position information 82d. Here, the range of keys used for inputting J to L is a rectangle having (0.4a, 0.7b) as the upper left corner and (0.6a, 0.8b) as the lower right corner. Therefore, the assigning unit 63 determines that the start coordinate Z (0.5a, 0.72b) is included in the key used for inputting J to L. Therefore, the allocating unit 63 includes detection areas 6p to 6r for detecting requests for input of J, K, and L, and a detection area 5b for detecting selection of the user interface notified from the extraction unit 72. Generate. When the information of the detection area is output to the display unit 16 via the display control unit 30, the display on the screen is changed from D24 to D25 in FIG.
 (31)ユーザからのタッチ操作が検出領域5b中で終了したとする。検出部64は、第1の実施形態で説明した手順(9)と同様に、タッチ操作の終了座標を検出する。検出領域5bでタッチ操作が終了した場合、検出部64は、アプリケーションAP2のユーザインタフェースが選択されたと判定する。そこで、検出部64は、タッチ操作の開始座標ZでDOWNイベントが発生したことを表す情報と、開始座標ZでUPイベントが発生したこと、および、アプリケーションAP2の識別子を含む通知情報を、通知部42に出力する。 (31) It is assumed that the touch operation from the user is finished in the detection area 5b. The detection unit 64 detects the end coordinates of the touch operation, similarly to the procedure (9) described in the first embodiment. When the touch operation is completed in the detection area 5b, the detection unit 64 determines that the user interface of the application AP2 has been selected. Accordingly, the detection unit 64 provides information indicating that a DOWN event has occurred at the start coordinate Z of the touch operation, notification information including the occurrence of an UP event at the start coordinate Z, and the identifier of the application AP2, as a notification unit. Output to 42.
 (32)通知部42は、位置情報82dを用いて、検出部64から通知されたアプリケーションの識別子に対応付けられているユーザインタフェースのうちで、タッチ操作の開始座標が含まれているものを特定する。ここでは、通知部42は、アプリケーションAP2で「apple pie filling」という文字列を表示名とするユーザインタフェースが選択されたことを処理部52に通知する。 (32) The notification unit 42 uses the position information 82d to identify the user interface associated with the identifier of the application notified from the detection unit 64 that includes the touch operation start coordinates. To do. Here, the notification unit 42 notifies the processing unit 52 that the user interface having the display name of the character string “apple pie filling” is selected by the application AP2.
 (33)処理部52は、通知部42からの通知に応じて、「apple pie filling」という文字列をキーとした検索処理を実施する。さらに、処理部52は、ソフトキーボードの終了を入力処理部62に要求する。入力処理部62は、処理部52の要求に応じてソフトキーボードの表示の停止を表示制御部30に求める。表示制御部30は、表示順序データ81からソフトキーボードに関連する表示の情報を削除し、表示部16にソフトキーボードの表示の終了を求める。一方、位置情報生成部51は、ソフトキーボードに含まれているユーザインタフェースの情報を、位置情報82dから削除する。処理部52の検索によって得られた情報が表示制御部30を介して表示部16に出力されると、ユーザは、画面で検索結果を視認できる。 (33) In response to the notification from the notification unit 42, the processing unit 52 performs a search process using the character string “apple pie filling” as a key. Further, the processing unit 52 requests the input processing unit 62 to end the soft keyboard. The input processing unit 62 requests the display control unit 30 to stop displaying the soft keyboard in response to a request from the processing unit 52. The display control unit 30 deletes the display information related to the soft keyboard from the display order data 81 and requests the display unit 16 to end the display of the soft keyboard. On the other hand, the position information generation unit 51 deletes the user interface information included in the soft keyboard from the position information 82d. When information obtained by the search of the processing unit 52 is output to the display unit 16 via the display control unit 30, the user can visually recognize the search result on the screen.
 このように、背面に表示されているウィンドウのユーザインタフェースの配置が変更される場合であっても、取得部71では、タッチ操作の開始をトリガとして、ユーザインタフェースの配置の情報を取得する。このため、表示装置10は、背面のウィンドウの変化にリアルタイムに対応して、選択された可能性のあるユーザインタフェースを特定できる。さらに、表示装置10は、ユーザが要求している処理を特定するために、ユーザが選択しようとした可能性があると判定されたユーザインタフェースへの入力を検出するための検出領域を最前面に表示する。このため、ユーザは、1つのタッチ操作で背面に表示されたユーザインタフェースを選択することができる。 As described above, even when the arrangement of the user interface of the window displayed on the back surface is changed, the acquisition unit 71 acquires the information on the arrangement of the user interface using the start of the touch operation as a trigger. Therefore, the display device 10 can identify a user interface that may have been selected in real time in response to a change in the back window. Further, in order to specify the process requested by the user, the display device 10 has a detection area for detecting an input to the user interface that is determined to be possibly selected by the user as the foreground. indicate. For this reason, the user can select the user interface displayed on the back surface by one touch operation.
 <その他>
 なお、本発明は上記の実施形態に限られるものではなく、様々に変形可能である。以下にその例をいくつか述べる。
<Others>
The present invention is not limited to the above-described embodiment, and can be variously modified. Some examples are described below.
 上記の説明では、一例として、アルファベットの入力に使用するソフトキーボードの背面に、ユーザインタフェースを含むウィンドウが表示されている場合を用いて説明したが、ソフトキーボードの種類は任意である。例えば、ソフトキーボードは、平仮名、片仮名などのかな文字の入力や、漢字への変換に対応できるものでもよく、また、数字の入力に使用されるものであっても良い。いずれの場合も上記の説明と同様の処理により、ソフトキーボードの背面に表示されているユーザインタフェースを1つのタッチ操作で選択することができる。 In the above description, as an example, a case where a window including a user interface is displayed on the back of a soft keyboard used for alphabet input is described, but the type of the soft keyboard is arbitrary. For example, the soft keyboard may be capable of inputting kana characters such as hiragana and katakana, converting to kanji, and may be used for inputting numbers. In any case, the user interface displayed on the back of the soft keyboard can be selected by one touch operation by the same processing as described above.
 以上の説明に使用した表示順序データ81、位置情報82などは一例であり、ユーザインタフェースの位置は、実装に応じて任意に変更されるものとする。さらに、表示順序データ81や位置情報82に含まれている情報要素も、実装に応じて変更され得る。同様に、図12や図15を用いて説明した情報についても、実装に応じて座標などのデータが変更されることがあり、含まれる情報要素が変更されることもある。 The display order data 81, position information 82, etc. used in the above description are examples, and the position of the user interface is arbitrarily changed according to the implementation. Furthermore, information elements included in the display order data 81 and the position information 82 can be changed according to the implementation. Similarly, with respect to the information described with reference to FIGS. 12 and 15, data such as coordinates may be changed depending on the implementation, and the included information elements may be changed.
 さらに、位置情報生成部51が生成するレイアウトの情報は、例えば、表示するユーザインタフェースの位置の特定に使用可能な任意の情報とすることができる。位置情報生成部51が生成したレイアウトには、ユーザインタフェース間の位置関係はあるが個々のユーザインタフェースの大きさが含まれていない場合、座標計算部41が各ユーザインタフェースの大きさなどの情報を保持することができる。座標計算部41は、保持している情報を用いて、各ユーザインタフェースの座標を計算できる。また、位置情報生成部51が各ユーザインタフェースの表示位置を画面の高さや幅の関数ではなく、座標データとして保持することもできる。この場合、座標計算部41は、位置情報生成部51から出力された座標をユーザインタフェースの座標として使用する。 Furthermore, the layout information generated by the position information generation unit 51 can be, for example, any information that can be used to specify the position of the user interface to be displayed. When the layout generated by the position information generation unit 51 has a positional relationship between user interfaces but does not include the size of each user interface, the coordinate calculation unit 41 displays information such as the size of each user interface. Can be held. The coordinate calculation unit 41 can calculate the coordinates of each user interface using the stored information. Further, the position information generation unit 51 can hold the display position of each user interface as coordinate data instead of a function of the height or width of the screen. In this case, the coordinate calculation unit 41 uses the coordinates output from the position information generation unit 51 as the coordinates of the user interface.
 位置情報生成部51は、最後に検索に使用されてから経過した時間の長さなどを用いて、キーワードが使用される可能性の高さを予測することもできるものとする。 It is assumed that the position information generation unit 51 can also predict the likelihood that a keyword will be used by using the length of time that has elapsed since the last use for search.
 なお、表示装置10が表示デバイスとしてLCDを備えている場合を例として説明したが、表示装置10は、LCDの代わりに、タッチパネル11と併用可能な任意の表示デバイスを備えることもできるものとする。 In addition, although the case where the display device 10 includes an LCD as a display device has been described as an example, the display device 10 may include an arbitrary display device that can be used together with the touch panel 11 instead of the LCD. .
   5、6 検出領域
  10 表示装置
  11 タッチパネル
  13 ソフトウェア制御部
  15 入力部
  16 表示部
  20 入力制御部
  30 表示制御部
  40 表示部品制御部
  41 座標計算部
  42 通知部
  50 アプリケーション処理部
  51 位置情報生成部
  52 処理部
  60 ソフトキーボード制御部
  61 特定部
  62 入力処理部
  63 割り当て部
  64 検出部
  70 配置解析部
  71 取得部
  72 抽出部
  80 記憶部
  81 表示順序データ
  82 位置情報
  91 プロセッサ
  92 メモリ
  93 バス
5, 6 Detection area 10 Display device 11 Touch panel 13 Software control unit 15 Input unit 16 Display unit 20 Input control unit 30 Display control unit 40 Display component control unit 41 Coordinate calculation unit 42 Notification unit 50 Application processing unit 51 Position information generation unit 52 Processing unit 60 Soft keyboard control unit 61 Identification unit 62 Input processing unit 63 Assignment unit 64 Detection unit 70 Placement analysis unit 71 Acquisition unit 72 Extraction unit 80 Storage unit 81 Display order data 82 Position information 91 Processor 92 Memory 93 Bus

Claims (11)

  1.  第1の画像の少なくとも一部に第2の画像が重なるように、前記第1および第2の画像を画面に表示可能な表示部と、操作を受け付ける入力部と、を有するタッチパネルと、
     前記操作の開始座標を特定する特定部と、
     前記第1の画像で、処理の選択に使用される領域である選択領域が、前記開始座標に配置され、かつ、前記開始座標で前記第1の画像が前記第2の画像に覆われている場合、前記タッチパネルの操作領域の一部を、前記選択領域の選択を検出するための領域である検出領域に割り当てる割り当て部と、
     前記検出領域を前記画面に表示するための制御を行う表示制御部
     を備えることを特徴とする表示装置。
    A touch panel having a display unit capable of displaying the first and second images on a screen and an input unit for receiving an operation so that the second image overlaps at least a part of the first image;
    A specifying unit for specifying the start coordinates of the operation;
    In the first image, a selection area that is an area used for selection of processing is arranged at the start coordinates, and the first image is covered with the second image at the start coordinates. An allocation unit that allocates a part of the operation area of the touch panel to a detection area that is an area for detecting selection of the selection area;
    A display device comprising: a display control unit that performs control for displaying the detection area on the screen.
  2.  前記第1および第2の画像に対応付けられた処理を行う処理部と、
     前記操作が前記検出領域内で終了すると、前記選択領域が選択されたことを前記処理部に通知する通知部、
     をさらに備え、
     前記選択領域が選択されたことが通知されると、前記処理部は、前記選択領域に対応付けられた処理を行う
     ことを特徴とする請求項1に記載の表示装置。
    A processing unit that performs processing associated with the first and second images;
    When the operation ends in the detection area, a notification unit that notifies the processing unit that the selection area has been selected,
    Further comprising
    The display device according to claim 1, wherein when the selection area is notified that the selection area is selected, the processing unit performs a process associated with the selection area.
  3.  前記第2の画像で、前記第2の画像に関連した処理に対応付けられた領域である第1の領域が前記開始座標に配置されている場合、前記割り当て部は、前記タッチパネルの操作領域の前記検出領域とは異なる一部を、前記第1の領域の選択を検出するための第2の領域に割り当て、
     前記表示制御部は、前記検出領域と前記第2の領域を、前記画面に表示するための制御を行う
     ことを特徴とする請求項1または2に記載の表示装置。
    In the second image, when the first area, which is the area associated with the process related to the second image, is arranged at the start coordinates, the assigning unit Assigning a portion different from the detection area to a second area for detecting selection of the first area;
    The display device according to claim 1, wherein the display control unit performs control for displaying the detection area and the second area on the screen.
  4.  前記操作の終了座標を検出する検出部
     をさらに備え、
     前記検出部は、前記操作が前記検出領域で終了すると、前記第1の画像中の前記開始座標で前記操作が開始したことと、前記第1の画像中の前記開始座標で前記操作が終了したことを表す通知情報を、前記通知部に出力し、
     前記通知部は、前記通知情報が入力されると、前記選択領域が選択されたことを前記処理部に通知する
     ことを特徴とする請求項2または3に記載の表示装置。
    A detection unit for detecting end coordinates of the operation;
    When the operation ends in the detection area, the detection unit starts the operation at the start coordinate in the first image, and ends the operation at the start coordinate in the first image. Output notification information indicating that to the notification unit,
    The display device according to claim 2 or 3, wherein when the notification information is input, the notification unit notifies the processing unit that the selection area has been selected.
  5.  前記操作が開始されると、前記選択領域の座標を取得する取得部、
     をさらに備え、
     前記第2の画像中の前記第1の領域が選択されると、前記処理部は、前記第1の画像の編集処理を行い、
     第1の操作に起因する編集処理により、前記第1の画像が第3の画像に変更された後に、第2の操作が発生すると、前記特定部は、前記第2の操作の開始座標を特定し、
     前記取得部は、前記第3の画像内の選択領域の座標を取得し、
     前記割り当て部は、前記第2の操作の開始座標が前記第3の画像内の選択領域に含まれており、かつ、前記第2の操作の開始座標で、前記第3の画像が前記第2の画像に覆われている場合、前記検出領域の割り当てを行う
     ことを特徴とする請求項3または4に記載の表示装置。
    When the operation is started, an acquisition unit that acquires the coordinates of the selection region;
    Further comprising
    When the first region in the second image is selected, the processing unit performs an editing process on the first image,
    When the second operation occurs after the first image is changed to the third image by the editing process resulting from the first operation, the specifying unit specifies the start coordinates of the second operation. And
    The obtaining unit obtains coordinates of a selected region in the third image;
    The assigning unit includes a start coordinate of the second operation included in a selection area in the third image, and the third image is the second coordinate of the second operation. 5. The display device according to claim 3, wherein the detection area is allocated when the image is covered with an image.
  6.  前記第2の画像は透過性を有し、前記第1の画像の前記選択領域が視認可能であることを特徴とする請求項1乃至5に記載の表示装置。 6. The display device according to claim 1, wherein the second image has transparency, and the selection area of the first image is visible.
  7.  表示部と入力部とを有するタッチパネルを備える表示装置に、
     前記表示部の画面に、第1の画像の少なくとも一部に第2の画像が重なるように、前記第1および第2の画像を表示し、
     前記入力部への操作を受け付け、
     前記操作の開始座標を特定し、
     前記第1の画像で、処理の選択に使用される領域である選択領域が、前記開始座標に配置され、かつ、前記開始座標で前記第1の画像が前記第2の画像に覆われている場合、前記タッチパネルの操作領域の一部を、前記選択領域の選択を検出するための領域である検出領域に割り当て、
     前記検出領域を前記画面に表示する
     処理を行わせることを特徴とする表示プログラム。
    In a display device including a touch panel having a display unit and an input unit,
    Displaying the first and second images on the screen of the display unit such that the second image overlaps at least part of the first image;
    Accepts operations to the input unit,
    Identify the starting coordinates of the operation,
    In the first image, a selection area that is an area used for selection of processing is arranged at the start coordinates, and the first image is covered with the second image at the start coordinates. A part of the operation area of the touch panel is allocated to a detection area that is an area for detecting selection of the selection area,
    A display program for performing a process of displaying the detection area on the screen.
  8.  前記操作が前記検出領域内で終了すると、前記選択領域に対応付けられた処理を前記表示装置に行わせる
     ことを特徴とする請求項7に記載の表示プログラム。
    The display program according to claim 7, wherein when the operation is finished in the detection area, the display apparatus performs processing associated with the selection area.
  9.  前記第2の画像で、前記第2の画像に関連した処理に対応付けられた領域である第1の領域が前記開始座標に配置されている場合、前記タッチパネルの操作領域の前記検出領域とは異なる一部を、前記第1の領域の選択を検出するための第2の領域に割り当て、
     前記検出領域と前記第2の領域を、前記画面に表示する
     処理をさらに行わせることを特徴とする請求項7または8に記載の表示プログラム。
    In the second image, when the first area that is an area associated with the process related to the second image is arranged at the start coordinate, the detection area of the operation area of the touch panel is Assigning a different portion to a second region for detecting selection of the first region;
    The display program according to claim 7 or 8, further comprising a process of displaying the detection area and the second area on the screen.
  10.  前記操作の終了座標を検出し、
     前記操作が前記検出領域で終了すると、前記第1の画像中の前記開始座標で前記操作が開始し、かつ、前記第1の画像中の前記開始座標で前記操作が終了した場合と同じ処理を、前記表示装置に行わせる
     ことを特徴とする請求項8または9に記載の表示プログラム。
    Detecting the end coordinates of the operation;
    When the operation ends in the detection area, the same processing as when the operation starts at the start coordinates in the first image and ends at the start coordinates in the first image is performed. The display program according to claim 8, wherein the display program is executed by the display device.
  11.  前記第2の画像中の前記第1の領域が選択されると、前記第1の画像の編集を行い、
     第1の操作に起因する編集処理により、前記第1の画像が第3の画像に変更された後に、第2の操作が発生すると、前記第2の操作の開始座標を特定し、
     前記第3の画像内の選択領域の座標を取得し、
     前記第2の操作の開始座標が前記第3の画像内の選択領域に含まれており、かつ、前記第2の操作の開始座標で、前記第3の画像が前記第2の画像に覆われている場合、前記検出領域の割り当てを行う
     処理をさらに行わせることを特徴とする請求項9または10に記載の表示プログラム。
    When the first region in the second image is selected, the first image is edited,
    When the second operation occurs after the first image is changed to the third image by the editing process resulting from the first operation, the start coordinates of the second operation are specified,
    Obtaining the coordinates of the selected region in the third image;
    The start coordinates of the second operation are included in the selected area in the third image, and the third image is covered with the second image at the start coordinates of the second operation. 11. The display program according to claim 9, further comprising a process of allocating the detection area.
PCT/JP2013/071984 2013-08-15 2013-08-15 Display device and display program WO2015022749A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/071984 WO2015022749A1 (en) 2013-08-15 2013-08-15 Display device and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/071984 WO2015022749A1 (en) 2013-08-15 2013-08-15 Display device and display program

Publications (1)

Publication Number Publication Date
WO2015022749A1 true WO2015022749A1 (en) 2015-02-19

Family

ID=52468149

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/071984 WO2015022749A1 (en) 2013-08-15 2013-08-15 Display device and display program

Country Status (1)

Country Link
WO (1) WO2015022749A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259217A (en) * 1993-03-02 1994-09-16 Toshiba Corp Multiwindow system
JPH10340177A (en) * 1997-06-06 1998-12-22 Matsushita Electric Ind Co Ltd Image selection display device and recording medium recording image selection display processing program
JP2009110350A (en) * 2007-10-31 2009-05-21 Brother Ind Ltd Help display device and program
JP2009187052A (en) * 2008-02-01 2009-08-20 Ricoh Co Ltd Information processing method and information processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259217A (en) * 1993-03-02 1994-09-16 Toshiba Corp Multiwindow system
JPH10340177A (en) * 1997-06-06 1998-12-22 Matsushita Electric Ind Co Ltd Image selection display device and recording medium recording image selection display processing program
JP2009110350A (en) * 2007-10-31 2009-05-21 Brother Ind Ltd Help display device and program
JP2009187052A (en) * 2008-02-01 2009-08-20 Ricoh Co Ltd Information processing method and information processor

Similar Documents

Publication Publication Date Title
US11079908B2 (en) Method and apparatus for adding icon to interface of android system, and mobile terminal
US20200142554A1 (en) Page navigation in desktop launcher
JP5570632B2 (en) Display device and character input method thereof
KR100703771B1 (en) Apparatus and method for displaying input panel
TWI626591B (en) System and method for switching applications
US20150339018A1 (en) User terminal device and method for providing information thereof
CN103593116A (en) Method and device for displaying and controlling portable terminal toolbar
WO2016107462A1 (en) Information input method and device, and smart terminal
US20110126087A1 (en) Graphical user interface for non mouse-based activation of links
JP5861710B2 (en) Portable electronic device and key display program
CN108700999B (en) User interface display method and terminal
CN106503061B (en) Group message display method and mobile terminal
CN105549837A (en) Method and device for displaying contact items of contact list based on touch-screen apparatus
US20140245214A1 (en) Enabling search in a touchscreen device
WO2015022749A1 (en) Display device and display program
JP2013197992A (en) Character input unit and character input method
EP3065032A1 (en) Word prediction input method and terminal
JP2010055434A (en) Display apparatus
JP2011134131A (en) Content display device
JP2016143284A (en) Information processing apparatus, information processing system, information processing method, and program
JP2010097401A (en) Character input device, character input method and character input program
JP2017212483A (en) Interface, character input guide method and program
TWI604367B (en) A complex input method and a device
JP2017157025A (en) Display operation device and program
JP5529325B2 (en) Display device and display method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13891491

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13891491

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP