WO2010143842A2 - Ui 제공방법 및 이를 적용한 디스플레이 장치 - Google Patents

Ui 제공방법 및 이를 적용한 디스플레이 장치 Download PDF

Info

Publication number
WO2010143842A2
WO2010143842A2 PCT/KR2010/003600 KR2010003600W WO2010143842A2 WO 2010143842 A2 WO2010143842 A2 WO 2010143842A2 KR 2010003600 W KR2010003600 W KR 2010003600W WO 2010143842 A2 WO2010143842 A2 WO 2010143842A2
Authority
WO
WIPO (PCT)
Prior art keywords
screen keyboard
application
screen
input
keyboard
Prior art date
Application number
PCT/KR2010/003600
Other languages
English (en)
French (fr)
Other versions
WO2010143842A3 (ko
Inventor
곽지영
권장윤
전진영
황상웅
윤지선
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to JP2012514877A priority Critical patent/JP5681174B2/ja
Priority to EP10786325.0A priority patent/EP2442217B1/en
Priority to US13/377,393 priority patent/US9389783B2/en
Priority to CN201080025906.9A priority patent/CN102460365B/zh
Publication of WO2010143842A2 publication Critical patent/WO2010143842A2/ko
Publication of WO2010143842A3 publication Critical patent/WO2010143842A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to a UI providing method and a display device using the same, and more particularly, to a UI providing method for using an on-screen keyboard used in a touch screen in an application and a display device applying the same.
  • a touch screen is applied as a user interface device of a display device.
  • the touch screen does not use a keyboard, and when a person's hand or an object touches a character or a specific location on the screen (screen), the input data can be directly inputted on the screen so that the location can be detected and processed by the stored software. Speak the screen that allows you to receive.
  • Touch screens have become a popular user interface device since they can be operated easily and intuitively.
  • the on-screen keyboard refers to a keyboard provided on the touch screen. That is, the on-screen keyboard displays an image of the keyboard on the touch screen and receives the same input as the keyboard through the touch screen. Therefore, using the on-screen keyboard, the user can use the keyboard through the touch screen even if there is no separate keyboard.
  • the present invention has been made to solve the above problems, an object of the present invention, based on the user's operation on the on-screen keyboard, a UI for selecting an application that is the input target of the on-screen keyboard from a plurality of applications It is to provide a method and a display device applying the same.
  • a method for providing a UI includes: displaying an on-screen keyboard on a screen; Displaying a plurality of applications on a screen; And selecting an application, which is an input target of the on-screen keyboard, from among the plurality of applications, based on a user's manipulation of the on-screen keyboard.
  • the method may further include displaying an indicator on the screen indicating that the selected application is an input target of the on-screen keyboard.
  • the displaying step may display an indicator in the form of a line connecting the selected application and the on-screen keyboard.
  • the method may further include displaying an end button for receiving a command for terminating a connection state between the selected application and the on-screen keyboard when an operation of touching the indicator is input.
  • the selecting step may select an application displayed at a position nearest to the on-screen keyboard as an application to be input to the on-screen keyboard.
  • the first operation may be an operation of touching an automatic connection button included in the on-screen keyboard.
  • the selecting step may select an application to be an input target of the on-screen keyboard according to a third operation of the user input after the second operation is input. have.
  • the second operation may be an operation of touching a manual connection button included in the on-screen keyboard.
  • the third operation is an operation of dragging and dropping a specific icon included in the on-screen keyboard to a specific application
  • the selecting step includes an on-screen keyboard of the specific application located at a point where the drag and drop ends. It can also be selected as an application to be input.
  • the third operation is an operation of touching an area on which the on-screen keyboard is displayed and an area on which a specific application is displayed, and the selecting step includes an application to be input to the on-screen keyboard. You can also choose.
  • the display direction of the selected application is different from the display direction of the on-screen keyboard, the display direction of the on-screen keyboard or the selected application is changed so that the display direction of the selected application matches the display direction of the on-screen keyboard. It may further comprise a.
  • the display device a touch screen for receiving a user's touch, and displays the on-screen keyboard and a plurality of applications; And a controller configured to select an application, which is an input target of the on-screen keyboard, from among the plurality of applications, based on a user's manipulation of the on-screen keyboard input through the touch screen.
  • the controller may control an indicator to be displayed on the touch screen indicating that the selected application is an input target of the on-screen keyboard.
  • controller may display an indicator in the form of a line connecting the selected application and the on-screen keyboard to each other.
  • the controller may control to display an end button for receiving a command for terminating a connection state between the selected application and the on-screen keyboard when an operation for touching the indicator is input through the touch screen.
  • the controller may select an application displayed at a position closest to the on-screen keyboard as an application to be input to the on-screen keyboard.
  • the first operation may be an operation of touching an automatic connection button included in the on-screen keyboard.
  • the controller may select an application to be an input target of the on-screen keyboard according to a third operation of the user input after the second operation is input when the second operation is input to the on-screen keyboard. .
  • the second operation may be an operation of touching a manual connection button included in the on-screen keyboard.
  • the third operation may be an operation of dragging and dropping a specific icon included in the on-screen keyboard to a specific application, and the controller may control the specific application located at a point where the drag and drop ends. It can also be selected as the application to be input.
  • the third operation is an operation of touching an area on which the on-screen keyboard is displayed and an area on which a specific application is displayed, and the controller selects the particular application touched together as an application to be input to the on-screen keyboard. It may be.
  • the controller may be configured such that the display direction of the selected application coincides with the display direction of the on-screen keyboard. You can also change the display direction.
  • the UI providing method the step of displaying the command input means on the screen; Displaying a plurality of applications on a screen; And selecting an application, which is an input target of the command input means, from the plurality of applications, based on a user's manipulation of the command input means.
  • the display device a touch screen for receiving a user's touch, and displays a command input means and a plurality of applications; And a controller configured to select an application, which is an input target of the command input means, from among the plurality of applications, based on a user's manipulation of the command input means input through the touch screen.
  • a UI providing method for selecting an application, which is an input target of an on-screen keyboard, from among a plurality of applications, and a display apparatus applying the same may be provided based on a user's manipulation of the on-screen keyboard.
  • the user can easily use the on-screen keyboard on a screen in which a plurality of applications are displayed at the same time.
  • the application to be input and the on-screen keyboard are displayed to be connected to each other, the user can easily check which application and the on-screen keyboard are connected.
  • FIG. 1 is a diagram illustrating a screen on which a first application, a second application, and an on-screen keyboard are displayed, according to an embodiment of the present invention
  • FIG. 2 is a view showing a connectable surface of a first application and an on-screen keyboard according to one embodiment of the present invention
  • 3 to 5 illustrate three types of the first application and the on-screen keyboard may be connected to each other;
  • FIG. 6 is a diagram illustrating a user touching an auto-connect button according to an embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a result screen in which a display device selects a second application as an input target of an on-screen keyboard according to one embodiment of the present invention
  • FIG. 8 is a diagram illustrating a user touching a manual connection button according to one embodiment of the present invention.
  • FIG. 9 is a diagram illustrating a user dragging and dropping a connection icon to an area where a first application is displayed according to an embodiment of the present invention.
  • FIG. 10 is a view showing a result screen in which a display device selects a first application as an input target of an on-screen keyboard according to an embodiment of the present invention
  • FIG. 11 is a diagram for a user touching a region where a first application is displayed and an region where an on-screen keyboard is displayed according to another embodiment of the present invention.
  • FIG. 12 is a diagram illustrating a user touching an autoconnect button when the display direction of the first application and the display direction of the on-screen keyboard are different according to one embodiment of the present invention
  • FIG. 13 illustrates a result screen when a display device selects a first application as an input target of an on-screen keyboard when the display direction of the first application is different from the display direction of the on-screen keyboard, according to an exemplary embodiment.
  • FIG. 14 is a diagram illustrating a screen in which a display direction of a first application is rotated 90 degrees in a counterclockwise direction, according to an embodiment of the present invention
  • 15 is a view illustrating a user touching a line indicator in accordance with an embodiment of the present invention.
  • 16 is a diagram illustrating a screen displaying an end button on an indicator according to an embodiment of the present invention.
  • 17 is a diagram illustrating a user touching an end button 600 according to an embodiment of the present invention.
  • 18 is a diagram illustrating a screen in which the connection between the first application 110 and the on-screen keyboard 150 is terminated according to an embodiment of the present invention.
  • FIG. 19 is a diagram illustrating a case where two users use the table top 700 according to an embodiment of the present invention.
  • 21 is a block diagram of a display device to which the present invention is applicable.
  • FIG. 1 is a diagram illustrating a screen on which a first application 110, a second application 120, and an on-screen keyboard 150 are displayed according to an embodiment of the present invention.
  • the first application 110 displayed on the screen of the display apparatus 100 may be connected to the on-screen keyboard 150. That is, the text input target of the on-screen keyboard 150 becomes the first application 110.
  • the display apparatus 100 includes a touch screen.
  • the on-screen keyboard 150 includes a text input key button 155, a manual connection button 160, an automatic connection button 170, an end button 180, and a connection icon 190. Is displayed on the screen.
  • the letter input key button 155 is displayed with buttons for inputting a letter.
  • the character input key button 155 may include key buttons in the same arrangement as the key buttons of the hardware keyboard, or may include key buttons that are simplified.
  • the user may input a desired character by touching a portion where the character input key button 155 is displayed.
  • the manual connection button 160 is a button for manually selecting an application that is an input target of the on-screen keyboard 150.
  • the display apparatus 100 selects an application to be an input target of the on-screen keyboard 150 according to a user's manipulation.
  • the display apparatus 100 may display the first application 110. Is selected as an input target of the on-screen keyboard 150. Then, as shown in FIG. 1, the connection icon 190 of the on-screen keyboard 150 and the connection icon 115 of the first application 110 are connected to each other by the indicator 195 in the form of a line.
  • the display apparatus 100 may manually connect the application with the on-screen keyboard 150 using dual touch. Specifically, after the manual connection button 160 is touched, when the user touches the area where the on-screen keyboard 150 is displayed while touching the area where the first application 110 is displayed, the display apparatus 100 is turned on. The first application 110 of the screen keyboard 150 is selected as an input target.
  • the user's manipulation of manually connecting the on-screen keyboard 150 and the application may be performed in various forms.
  • the automatic connection button 170 is a button for receiving a command for automatically connecting the on-screen keyboard 150 with an application.
  • the display apparatus 100 selects an application displayed on the closest position from the on-screen keyboard 150 as an application to be input to the on-screen keyboard 150. Done.
  • the end button 180 is a button for receiving a command to end the use of the on-screen keyboard 150.
  • connection icon 190 serves as a connection point connected to the application through the line indicator 195.
  • connection icon 190 serves as a drag and drop operation during manual connection, and serves as a connection medium for selecting an application to be connected to the on-screen keyboard 150.
  • the linear indicator 195 connects the application to be input with the on-screen keyboard 150. Accordingly, the linear indicator 195 visually confirms which application the on-screen keyboard 150 selects as an input target. In FIG. 1, since the linear indicator 195 connects the connection icon 115 of the first application 110 and the connection icon 190 of the on-screen keyboard 150, the first application 110 is on-screen. It can be seen that the keyboard 150 has been selected as the connection target.
  • the indicator 195 has been described as being in the form of a line, any form may be used as long as it visually confirms which application the on-screen keyboard 150 is connected to.
  • the display apparatus 100 may display an end button for receiving a command for terminating a connection state between the first application 110 and the on-screen keyboard 150. have.
  • the user can easily select an application to be input from among a plurality of applications.
  • FIGS. 2 to 5 is a view showing a connectable surface of the first application 110 and the on-screen keyboard 150 according to an embodiment of the present invention.
  • the first application 110 may have a left side 116, a bottom side 117, and a right side 118 connected to the on-screen keyboard 150.
  • the on-screen keyboard 150 may have a right surface 156, an upper surface 157, and a left surface 158 connected to the first application 110.
  • 3 to 5 illustrate three types of the first application 110 and the on-screen keyboard 150 may be connected to each other.
  • the bottom surface 117 of the first application 110 is connected to the top surface 157 of the on-screen keyboard 150.
  • the right surface 118 of the first application 110 is connected to the left surface 158 of the on-screen keyboard 150.
  • the left surface 116 of the first application 110 is connected to the right surface 156 of the on-screen keyboard 150.
  • the upper surface of the first application 110 and the lower surface of the on-screen keyboard 150 may not be connected to each other.
  • the upper surface of the first application 110 and the lower surface of the on-screen keyboard 150 is connected, there is no practical use because the first application 110 is covered by the user's arm when the user uses the on-screen keyboard 150. Because.
  • the on-screen keyboard 150 may be connected in three types as shown in FIGS. 3 to 5.
  • FIG. 6 is a diagram illustrating a user touching an autoconnect button 170 according to an embodiment of the present invention.
  • the display apparatus 100 inputs an application displayed on the closest position from the on-screen keyboard 150 to an input target of the on-screen keyboard 150. It is selected as the application to be made.
  • the display apparatus 100 uses the second application 120 as an input target of the on-screen keyboard 150. Choose.
  • FIG. 7 is a diagram illustrating a result screen in which the display apparatus 100 selects the second application 120 as an input target of the on-screen keyboard 150, according to an exemplary embodiment.
  • the display apparatus 100 connects the connection icon 125 of the second application 120 and the connection icon 190 of the on-screen keyboard 150 with a line indicator 195. You can see that. This is to visually confirm that the second application 120 is the input target of the on-screen keyboard 150.
  • the user can easily select the application that is the input target of the on-screen keyboard 150 by touching the automatic connection button 170.
  • FIG. 8 is a diagram illustrating a user touching a manual connection button 160 according to an embodiment of the present invention. As illustrated in FIG. 8, when the user touches the manual connection button 160, the display apparatus 100 may select an application that is an input target of the on-screen keyboard 150 according to a user's operation. do.
  • FIG. 9 is a diagram for a user dragging and dropping a connection icon 190 to an area where the first application 110 is displayed, according to an exemplary embodiment. As illustrated in FIG. 9, after the manual connection button 160 is touched, when the user drags and drops the connection icon 190 to the first application 110, the display apparatus 100 may display the first application 110. ) Is selected as the input target of the on-screen keyboard 150.
  • FIG. 10 is a diagram illustrating a result screen in which the display apparatus 100 selects the first application 110 as an input target of the on-screen keyboard 150, according to an exemplary embodiment.
  • the display apparatus 100 connects the connection icon 115 of the first application 110 and the connection icon 190 of the on-screen keyboard 150 with a line indicator 195. You can see that. This is to visually confirm that the first application 110 is the input target of the on-screen keyboard 150.
  • FIG. 11 illustrates that a user touches an area where the first application 110 is displayed and an area where the on-screen keyboard 150 is displayed according to another embodiment of the present invention.
  • the display apparatus 100 is displayed. Selects the first application 110 of the on-screen keyboard 150 as an input target. Then, as shown in FIG. 10, the display apparatus 100 connects the connection icon 115 of the first application 110 and the connection icon 190 of the on-screen keyboard 150 to a line indicator 195. .
  • the user can input a specific type of operation after touching the manual connection button 160, thereby selecting a desired application as an input target of the on-screen keyboard 150.
  • FIG 12 illustrates that the user touches the auto-connect button 170 when the display direction of the first application 110 and the display direction of the on-screen keyboard 150 are different according to an embodiment of the present invention. Drawing.
  • the first application 110 is displayed with the bottom side facing the left side of the screen, and the on-screen keyboard 150 is displayed with the bottom side facing the bottom of the screen.
  • the display apparatus 100 selects the first application 110 as an input target of the on-screen keyboard 150.
  • FIG. 13 illustrates that when the display direction of the first application 110 and the display direction of the on-screen keyboard 150 are different from each other, the display apparatus 100 turns on the first application 110 according to an exemplary embodiment.
  • the result screen selected as the input target of the screen keyboard 150 is shown.
  • the display apparatus 100 connects the connection icon 115 of the first application 110 and the connection icon 190 of the on-screen keyboard 150 with a line indicator 195. You can see that.
  • the display apparatus 100 changes the display direction of the first application 110 so that the display direction of the first application 110 matches the display direction of the on-screen keyboard 150.
  • FIG. 14 is a diagram illustrating a screen in which a display direction of the first application 110 is rotated 90 degrees in a counterclockwise direction according to an embodiment of the present invention. As shown in FIG. 14, when the display direction of the first application 110 is rotated 90 degrees counterclockwise, the display direction of the first application 110 coincides with the display direction of the on-screen keyboard 150.
  • the display apparatus 100 has been described as rotating the application, but of course, the on-screen keyboard may also be rotated. That is, the display apparatus 100 changes the display direction of the on-screen keyboard 150 or the first application 110 so that the display direction of the first application 110 matches the display direction of the on-screen keyboard 150. Done.
  • the user can more conveniently use the on-screen keyboard 150 to input text into the first application 110.
  • FIG. 15 is a diagram illustrating a user touching a line indicator 195 according to an embodiment of the present invention.
  • FIG. 16 is a diagram illustrating a screen displaying an end button 600 on an indicator 195 according to an embodiment of the present invention.
  • the display apparatus 100 recognizes the command as displaying a finish button 600 on the indicator 195.
  • the display apparatus 100 displays the end button 600 on the indicator 195.
  • 17 is a diagram illustrating a user touching an end button 600 according to an embodiment of the present invention.
  • 18 is a diagram illustrating a screen in which the connection between the first application 110 and the on-screen keyboard 150 is terminated according to an embodiment of the present invention.
  • the display apparatus 100 ends the connection between the first application 110 and the on-screen keyboard 150.
  • the display apparatus 100 removes the indicator 195 connecting the first application 110 and the on-screen keyboard 150 from the screen.
  • the user may terminate the connection between the first application 110 and the on-screen keyboard 150.
  • FIG. 19 is a diagram illustrating a case where two users use the table top 700 according to an embodiment of the present invention.
  • the user A and the user B have a first on-screen keyboard 710, a second on-screen keyboard 720, a third application 720, a fourth application 725, and a fifth application ( 727 is used to display the tabletop 700.
  • the user A is using the first on-screen keyboard 710 in connection with the third application 720, and the user B uses the second on-screen keyboard 715 for the fourth application 725. You can see that it is connected to and used.
  • the user can easily select an input target of the on-screen keyboard from among a plurality of applications, and intuitively check the selected application.
  • a plurality of users may use a plurality of on-screen keyboards, respectively.
  • the display device is described as being a table top 700 in the present embodiment, any display device having a touch screen may be applied.
  • the display device may be a smart board, a TV, a tablet, or the like.
  • FIG. 20 is a flowchart provided to explain a UI providing method according to an embodiment of the present invention.
  • the display apparatus 100 displays a plurality of applications on the screen (S810).
  • the on-screen keyboard is displayed on the screen (S820).
  • the display apparatus 100 selects an application at the closest position as an input target of the on-screen keyboard (S835).
  • the display apparatus 100 displays a line type indicator for connecting the selected application to the on-screen keyboard.
  • the display apparatus 100 selects an application that is an input target of the on-screen keyboard 150 according to a user's manipulation. Therefore, after that, the display apparatus 100 receives an operation of dragging and dropping the connection icon from the user (S843). In operation S846, the display apparatus 100 selects an application of a position where the connection icon is dragged and dropped as the input target of the on-screen keyboard. In operation S850, the display apparatus 100 displays an indicator in the form of a line connecting the selected application and the on-screen keyboard.
  • the steps S840, S843, and S846 related to the manual connection process have been described above in detail with reference to FIGS. 8 to 10.
  • the display apparatus 100 may use a manual connection method for selecting a specific application as an input target of the on-screen keyboard using the dual touch method.
  • the display apparatus 100 may provide a UI providing method for selecting an application that is an input target of the on-screen keyboard from among a plurality of applications.
  • the display device includes a touch screen 910, a function block 920, and a controller 930.
  • the touch screen 910 receives a user's touch and displays an on-screen keyboard and a plurality of applications. For example, as shown in FIG. 1, the touch screen 910 displays a plurality of applications and an on-screen keyboard together on the screen.
  • the function block 820 performs an inherent function of the display apparatus 100. If the display device 100 is a tabletop, the function block 810 performs a tabletop function, and if the display device 100 is a smart board, the function block 810 functions as a smart board required for a digital conference. To perform.
  • the controller 930 By performing the steps of the flowchart illustrated in FIG. 20 described above, the controller 930 based on a user's manipulation of the on-screen keyboard input through the touch screen, an application that is an input target of the on-screen keyboard from among a plurality of applications. Select. In addition, the controller 930 implements the functions of the display apparatus 100 described with reference to FIGS. 1 to 19.
  • the display apparatus 100 selects and connects an input target of the on-screen keyboard, but any command input means displayed on the touch screen other than the on-screen keyboard may be applied.
  • any command input means displayed on the touch screen other than the on-screen keyboard may be applied.
  • a touch wheel, a touch direction input means, a touch numeric keypad, etc. may be applied to other types of command input means in addition to the on-screen keyboard.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

UI 제공방법 및 이를 적용한 디스플레이 장치가 제공된다. 본 UI 제공방법은, 온스크린 키보드에 대한 사용자의 조작에 기초하여, 복수개의 어플리케이션 중에서 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택한다. 이에 따라, 사용자는 복수의 어플리케이션이 동시에 표시된 화면에서 온스크린 키보드를 쉽게 사용할 수 있게 된다.

Description

UI 제공방법 및 이를 적용한 디스플레이 장치
본 발명은 UI 제공방법 및 이를 적용한 디스플레이 장치에 관한 것으로, 더욱 상세하게는, 터치스크린에서 이용되는 온스크린 키보드를 어플리케이션에서 사용하기 위한 UI 제공방법 및 이를 적용한 디스플레이 장치에 관한 것이다.
최근 디스플레이 장치의 사용자 인터페이스 장치로 터치스크린이 적용되는 경우가 늘고 있다. 터치 스크린은 키보드를 사용하지 않고, 화면(스크린)에 나타난 문자나 특정 위치에 사람의 손 또는 물체가 닿으면, 그 위치를 파악하여 저장된 소프트웨어에 의해 특정 처리를 할 수 있도록, 화면에서 직접 입력자료를 받을 수 있게 한 화면을 말한다. 터치스크린은 사용자가 쉽고 직관적으로 조작할 수 있기 때문에, 최근 각광받는 사용자 인터페이스 장치가 되고 있다.
온스크린 키보드는 터치스크린 상에 제공되는 키보드를 의미한다. 즉, 온스크린 키보드는 터치 스크린에 키보드의 영상이 디스플레이되고, 터치스크린을 통해 키보드와 동일한 입력을 입력받는다. 따라서, 온스크린 키보드를 이용하면, 사용자는 별도의 키보드가 없더라도 터치스크린을 통해 키보드를 이용할 수 있게 된다.
하지만, 복수개의 어플리케이션이 동시에 실행될 경우, 사용자는 온스크린 키보드가 어떤 어플리케이션에서 사용되고 있는지 알기 어려운 경우가 발생한다. 따라서, 사용자가 온스크린 키보드를 더욱 쉽게 사용할 수 있게 하는 방안의 모색이 요청된다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 온스크린 키보드에 대한 사용자의 조작에 기초하여, 복수개의 어플리케이션 중에서 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택하는 UI 제공방법 및 이를 적용한 디스플레이 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, UI 제공방법은, 온스크린 키보드를 화면에 표시하는 단계; 복수개의 어플리케이션을 화면에 표시하는 단계; 및 상기 온스크린 키보드에 대한 사용자의 조작에 기초하여, 상기 복수개의 어플리케이션 중에서 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택하는 단계;를 포함한다.
그리고, 상기 선택된 어플리케이션이 상기 온스크린 키보드의 입력 대상임을 나타내는 인디케이터(indicator)를 화면에 표시하는 단계;를 더 포함한다.
또한, 상기 표시단계는, 상기 선택된 어플리케이션과 상기 온스크린 키보드를 서로 연결하는 선 형태의 인디케이터를 표시할 수도 있다.
그리고, 상기 인디케이터를 터치하는 조작이 입력되면, 상기 선택된 어플리케이션과 상기 온스크린 키보드의 연결상태를 종료하는 명령을 입력받기 위한 종료버튼을 표시하는 단계;를 더 포함할 수도 있다.
또한, 상기 선택단계는, 상기 온스크린 키보드에 대해 제1 조작이 입력되면, 상기 온스크린 키보드로부터 가장 가까운 위치에 표시된 어플리케이션을 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택할 수도 있다.
그리고, 상기 제1 조작은, 상기 온스크린 키보드에 포함된 자동연결 버튼을 터치하는 조작일 수도 있다.
또한, 상기 선택단계는, 상기 온스크린 키보드에 대해 제2 조작이 입력되면, 상기 제2 조작이 입력된 후에 입력되는 사용자의 제3 조작에 따라 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택할 수도 있다.
그리고, 상기 제2 조작은, 상기 온스크린 키보드에 포함된 수동연결 버튼을 터치하는 조작일 수도 있다.
또한, 상기 제3 조작은, 상기 온스크린 키보드에 포함된 특정 아이콘을 특정 어플리케이션까지 드래그 앤 드랍하는 조작이고, 상기 선택단계는, 상기 드래그 앤 드랍이 종료된 지점에 위치한 상기 특정 어플리케이션을 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택할 수도 있다.
그리고, 상기 제3 조작은, 상기 온스크린 키보드가 표시된 영역과 특정 어플리케이션이 표시된 영역을 함께 터치하는 조작이고, 상기 선택단계는, 상기 함께 터치된 특정 어플리케이션을 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택할 수도 있다.
또한, 상기 선택된 어플리케이션의 표시방향이 상기 온스크린 키보드의 표시방향과 다른 경우, 상기 선택된 어플리케이션의 표시방향이 상기 온스크린 키보드의 표시방향과 일치되도록 상기 온스크린 키보드 또는 상기 선택된 어플리케이션의 표시방향을 변경하는 단계;를 더 포함할 수도 있다.
한편, 본 발명의 일 실시예에 따른, 디스플레이 장치는, 사용자의 터치를 입력받고, 온스크린 키보드 및 복수개의 어플리케이션을 디스플레이하는 터치스크린; 상기 터치스크린을 통해 입력된 상기 온스크린 키보드에 대한 사용자의 조작에 기초하여, 상기 복수개의 어플리케이션 중에서 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택하는 제어부;를 포함한다.
그리고, 상기 제어부는, 상기 선택된 어플리케이션이 상기 온스크린 키보드의 입력 대상임을 나타내는 인디케이터(indicator)가 상기 터치스크린에 표시되도록 제어할 수도 있다.
또한, 상기 제어부는, 상기 선택된 어플리케이션과 상기 온스크린 키보드를 서로 연결하는 선 형태의 인디케이터를 표시할 수도 있다.
그리고, 상기 제어부는, 상기 터치스크린을 통해 상기 인디케이터를 터치하는 조작이 입력되면, 상기 선택된 어플리케이션과 상기 온스크린 키보드의 연결상태를 종료하는 명령을 입력받기 위한 종료버튼이 표시되도록 제어할 수도 있다.
또한, 상기 제어부는, 상기 온스크린 키보드에 대해 제1 조작이 입력되면, 상기 온스크린 키보드로부터 가장 가까운 위치에 표시된 어플리케이션을 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택할 수도 있다.
그리고, 상기 제1 조작은, 상기 온스크린 키보드에 포함된 자동연결 버튼을 터치하는 조작일 수도 있다.
또한, 상기 제어부는, 상기 온스크린 키보드에 대해 제2 조작이 입력되면, 상기 제2 조작이 입력된 후에 입력되는 사용자의 제3 조작에 따라 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택할 수도 있다.
그리고, 상기 제2 조작은, 상기 온스크린 키보드에 포함된 수동연결 버튼을 터치하는 조작일 수도 있다.
또한, 상기 제3 조작은, 상기 온스크린 키보드에 포함된 특정 아이콘을 특정 어플리케이션까지 드래그 앤 드랍하는 조작이고, 상기 제어부는, 상기 드래그 앤 드랍이 종료된 지점에 위치한 상기 특정 어플리케이션을 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택할 수도 있다.
그리고, 상기 제3 조작은, 상기 온스크린 키보드가 표시된 영역과 특정 어플리케이션이 표시된 영역을 함께 터치하는 조작이고, 상기 제어부는, 상기 함께 터치된 특정 어플리케이션을 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택할 수도 있다.
또한, 상기 제어부는, 상기 선택된 어플리케이션의 표시방향이 상기 온스크린 키보드의 표시방향과 다른 경우, 상기 선택된 어플리케이션의 표시방향이 상기 온스크린 키보드의 표시방향과 일치되도록 상기 온스크린 키보드 또는 상기 선택된 어플리케이션의 표시방향을 변경할 수도 있다.
한편, 본 발명의 일 실시예에 따른, UI 제공방법은, 명령입력수단을 화면에 표시하는 단계; 복수개의 어플리케이션을 화면에 표시하는 단계; 및 상기 명령입력수단에 대한 사용자의 조작에 기초하여, 상기 복수개의 어플리케이션 중에서 상기 명령입력수단의 입력 대상이 되는 어플리케이션을 선택하는 단계;를 포함한다.
한편, 본 발명의 일 실시예에 따른, 디스플레이 장치는, 사용자의 터치를 입력받고, 명령입력수단 및 복수개의 어플리케이션을 디스플레이하는 터치스크린; 상기 터치스크린을 통해 입력된 상기 명령입력수단에 대한 사용자의 조작에 기초하여, 상기 복수개의 어플리케이션 중에서 상기 명령입력수단의 입력 대상이 되는 어플리케이션을 선택하는 제어부;를 포함한다.
본 발명의 다양한 실시예들에 따르면, 온스크린 키보드에 대한 사용자의 조작에 기초하여, 복수개의 어플리케이션 중에서 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택하는 UI 제공방법 및 이를 적용한 디스플레이 장치를 제공할 수 있게 되어, 사용자는 복수의 어플리케이션이 동시에 표시된 화면에서 온스크린 키보드를 쉽게 사용할 수 있게 된다.
특히, 입력 대상이 되는 어플리케이션과 온스크린 키보드가 서로 연결되어 있음이 표시되기 때문에, 사용자는 어떤 어플리케이션과 온스크린 키보드가 연결되어 있는지 쉽게 확인할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른, 제1 어플리케이션, 제2 어플리케이션 및 온스크린 키보드가 표시된 화면을 도시한 도면,
도 2는 본 발명의 일 실시예에 따른, 제1 어플리케이션과 온스크린 키보드의 연결 가능 면을 표시한 도면,
도 3 내지 도 5는 제1 어플리케이션과 온스크린 키보드가 서로 연결될 수 있는 3가지 유형을 도시한 도면,
도 6은 본 발명의 일 실시예에 따른, 사용자가 자동연결 버튼을 터치하는 것을 도시한 도면,
도 7은 본 발명의 일 실시예에 따른, 디스플레이 장치가 제2 어플리케이션을 온스크린 키보드의 입력 대상으로 선택한 결과화면을 도시한 도면,
도 8은 본 발명의 일 실시예에 따른, 사용자가 수동연결 버튼을 터치하는 것을 도시한 도면,
도 9는 본 발명의 일 실시예에 따른, 사용자가 연결 아이콘을 제1 어플리케이션이 표시된 영역으로 드래그 앤 드랍(drag & drop)하는 것을 도시한 도면,
도 10은 본 발명의 일 실시예에 따른, 디스플레이 장치가 제1 어플리케이션을 온스크린 키보드의 입력 대상으로 선택한 결과화면을 도시한 도면,
도 11은 본 발명의 다른 실시예에 따른, 사용자가 제1 어플리케이션이 표시된 영역과 온스크린 키보드가 표시된 영역을 함께 터치하는 것을 도시한 도면,
도 12는 본 발명의 일 실시예에 따른, 제1 어플리케이션의 표시방향과 온스크린 키보드의 표시방향이 서로 다른 경우, 사용자가 자동연결 버튼을 터치하는 것을 도시한 도면,
도 13은 본 발명의 일 실시예에 따른, 제1 어플리케이션의 표시방향과 온스크린 키보드의 표시방향이 서로 다른 경우, 디스플레이 장치가 제1 어플리케이션을 온스크린 키보드의 입력 대상으로 선택한 결과화면을 도시한 도면,
도 14는 본 발명의 일 실시예에 따른, 제1 어플리케이션의 표시방향을 반시계 방향으로 90도 회전시킨 화면을 도시한 도면,
도 15는 본 발명의 일 실시예에 따른, 사용자가 선 형태의 인디케이터를 터치하는 것을 도시한 도면,
도 16은 본 발명의 일 실시예에 따른, 인디케이터 상에 종료 버튼이 표시된 화면을 도시한 도면,
도 17은 본 발명의 일 실시예에 따른, 사용자가 종료버튼(600)을 터치하는 것을 도시한 도면,
도 18은 본 발명의 일 실시예에 따른, 제1 어플리케이션(110)과 온스크린 키보드(150)의 연결이 종료된 화면을 도시한 도면,
도 19는 본 발명의 일 실시예에 따른, 2명의 사용자가 테이블 탑(700)을 사용하는 경우에 대해 도시한 도면,
도 20은 본발명의 일 실시예에 따른, UI 제공방법을 설명하기 위해 제공되는 흐름도,
도 21은 본 발명이 적용가능한 디스플레이 장치의 블럭도이다.
이하에서는 도면을 참조하여 본 발명을 더욱 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른, 제1 어플리케이션(110), 제2 어플리케이션(120) 및 온스크린 키보드(150)가 표시된 화면을 도시한 도면이다.
도 1에 도시된 바와 같이, 디스플레이 장치(100)의 화면에 표시된 제1 어플리케이션(110)은 온스크린 키보드(150)와 연결되어 있는 것을 확인할 수 있다. 즉, 온스크린 키보드(150)의 텍스트 입력 대상은 제1 어플리케이션(110)이 된다.
따라서, 사용자가 제1 어플리케이션(110)의 URL 입력란(113)을 선택한 후에 온스크린 키보드(150)로 문자를 입력하면, 입력된 문자가 제1 어플리케이션(110)의 URL 입력란(113)에 입력된다. 이와 같이, 온스크린 키보드를 구현하기 위해, 디스플레이 장치(100)는 터치 스크린을 구비한다.
도 1에 도시된 바와 같이, 온스크린 키보드(150)는 문자입력 키버튼(155), 수동연결 버튼(160), 자동연결 버튼(170), 종료버튼(180) 및 연결 아이콘(190)을 포함하는 형태로 화면에 표시된다.
문자입력 키버튼(155)은 문자를 입력하기 위한 버튼들이 표시된다. 문자입력 키버튼(155)은 하드웨어 키보드의 키버튼들과 동일한 배열의 키버튼들을 포함할 수도 있고, 그보다 간소화된 키버튼들을 포함할 수도 있다. 그리고, 사용자는 문자입력 키버튼(155)이 표시된 부분을 터치하여 원하는 문자를 입력할 수 있다.
수동연결 버튼(160)은 온스크린 키보드(150)의 입력대상이 되는 어플리케이션을 수동으로 선택하게 설정하는 버튼이다. 수동연결 버튼(160)이 터치되면, 디스플레이 장치(100)는 그 후에 입력되는 사용자의 조작에 따라 온스크린 키보드(150)의 입력 대상이 되는 어플리케이션을 선택하게 된다.
구체적으로, 수동연결 버튼(160)이 터치된 후에, 사용자가 연결 아이콘(190)을 제1 어플리케이션(110)까지 드래그 앤 드랍하는 조작이 입력되면, 디스플레이 장치(100)는 제1 어플리케이션(110)을 온스크린 키보드(150)의 입력대상으로 선택한다. 그러면, 도 1에 도시된 바와 같이, 온스크린 키보드(150)의 연결 아이콘(190)과 제1 어플리케이션(110)의 연결 아이콘(115)은 선 형태의 인디케이터(195)로 서로 연결된다.
다른 예로, 디스플레이 장치(100)는 듀얼터치를 이용하여 수동으로 온스크린 키보드(150)와 어플리케이션을 연결할 수도 있다. 구체적으로, 수동연결 버튼(160)이 터치된 후에, 사용자가 제1 어플리케이션(110)이 표시된 영역을 터치한 상태에서 온스크린 키보드(150)가 표시된 영역을 터치하면, 디스플레이 장치(100)는 온스크린 키보드(150)의 제1 어플리케이션(110)을 입력대상으로 선택한다.
상술한 2가지 방법 이외에도, 온스크린 키보드(150)와 어플리케이션을 수동으로 연결하는 사용자의 조작은 다양한 형태로 이루어질 수 있음은 물론이다.
자동연결 버튼(170)은 온스크린 키보드(150)를 어플리케이션과 자동으로 연결하기 위한 명령을 입력받는 버튼이다. 사용자가 자동연결 버튼(170)을 터치하는 조작이 입력되면, 디스플레이 장치(100)는 온스크린 키보드(150)로부터 가장 가까운 위치에 표시된 어플리케이션을 온스크린 키보드(150)의 입력 대상이 되는 어플리케이션으로 선택하게 된다.
종료버튼(180)은 온스크린 키보드(150)의 사용을 종료하는 명령을 입력받기 위한 버튼이다.
연결 아이콘(190)은 어플리케이션과 선 형태의 인디케이터(195)를 통해 연결되는 연결지점 역할을 한다. 또한, 연결 아이콘(190)은 수동 연결시 드래그 앤 드랍 조작의 대상이 되어, 온스크린 키보드(150)와 연결될 어플리케이션을 선택하기 위한 연결 매개의 역할을 수행한다.
선 형태의 인디케이터(195)는 입력 대상이 되는 어플리케이션과 온스크린 키보드(150)를 서로 연결시켜준다. 따라서, 선 형태의 인디케이터(195)는 온스크린 키보드(150)가 어느 어플리케이션을 입력대상으로 선택하였는지를 시각적으로 확인시켜주는 역할을 한다. 도 1에서는 선 형태의 인디케이터(195)가 제1 어플리케이션(110)의 연결 아이콘(115)과 온스크린 키보드(150)의 연결 아이콘(190)을 연결하고 있으므로, 제1 어플리케이션(110)이 온스크린 키보드(150)의 연결대상으로 선택되었다는 것을 확인할 수 있다.
또한, 인디케이터(195)는 선 형태인 것으로 설명하였으나, 이외에도 온스크린 키보드(150)가 어느 어플리케이션에 연결되어 있는지를 시각적으로 확인시켜주는 것이라면 어떤 형태가 되더라도 무방하다.
또한, 인디케이터(195)를 터치하는 조작이 입력되면, 디스플레이 장치(100)는 제1 어플리케이션(110)과 온스크린 키보드(150)의 연결상태를 종료하는 명령을 입력받기 위한 종료버튼을 표시할 수도 있다.
이와 같이, 온스크린 키보드(150)의 자동연결 및 수동연결을 이용하여, 사용자는 복수개의 어플리케이션 중 입력의 대상이 될 어플리케이션을 쉽게 선택할 수 있게 된다.
이하에서는, 도 2 내지 도 5를 참고하여, 어플리케이션과 온스크린 키보드(150)가 연결되는 유형에 대해 설명한다. 도 2는 본 발명의 일 실시예에 따른, 제1 어플리케이션(110)과 온스크린 키보드(150)의 연결 가능 면을 표시한 도면이다.
도 2에 도시된 바와 같이, 제1 어플리케이션(110)은 좌면(116), 하면(117), 및 우면(118)이 온스크린 키보드(150)와 연결될 수 있다. 그리고, 온스크린 키보드(150)는 우면(156), 상면(157),및 좌면(158)이 제1 어플리케이션(110)과 연결될 수 있다.
도 3 내지 도 5는 제1 어플리케이션(110)과 온스크린 키보드(150)가 서로 연결될 수 있는 3가지 유형을 도시한 도면이다.
도 3에 도시된 바와 같이, 제1 어플리케이션(110)의 하면(117)은 온스크린 키보드(150)의 상면(157)과 연결된다. 그리고, 도 4에 도시된 바와 같이, 제1 어플리케이션(110)의 우면(118)은 온스크린 키보드(150)의 좌면(158)과 연결된다. 또한, 도 5에 도시된 바와 같이, 제1 어플리케이션(110)의 좌면(116)은 온스크린 키보드(150)의 우면(156)과 연결된다.
반면, 제1 어플리케이션(110)의 상면과 온스크린 키보드(150)의 하면은 서로 연결될 수 없다. 제1 어플리케이션(110)의 상면과 온스크린 키보드(150)의 하면이 연결되면, 사용자가 온스크린 키보드(150)를 사용할 때 제1 어플리케이션(110)이 사용자의 팔에 의해 가려지기 때문에 실용성이 없기 때문이다.
따라서, 온스크린 키보드(150)는 도 3 내지 도 5에 도시된 바와 같이 3가지 유형으로 연결될 수 있다.
이하에서는, 도 6 내지 도 18을 참고하여, 온스크린 키보드(150)를 어플리케이션에 연결 개시 및 종료하는 과정을 설명한다. 일단, 도 6 및 도 7을 참고하여, 어플리케이션과 온스크린 키보드(150)가 자동 연결되는 과정을 설명한다.
도 6은 본 발명의 일 실시예에 따른, 사용자가 자동연결 버튼(170)을 터치하는 것을 도시한 도면이다. 도 6에 도시된 바와 같이, 사용자가 자동연결 버튼(170)을 터치하면, 디스플레이 장치(100)는 온스크린 키보드(150)로부터 가장 가까운 위치에 표시된 어플리케이션을 온스크린 키보드(150)의 입력 대상이 되는 어플리케이션으로 선택하게 된다. 도 6에서는 제1 어플리케이션(110)보다 제2 어플리케이션(120)이 온스크린 키보드(150)에 가깝기 때문에, 디스플레이 장치(100)는 제2 어플리케이션(120)을 온스크린 키보드(150)의 입력 대상으로 선택한다.
도 7은 본 발명의 일 실시예에 따른, 디스플레이 장치(100)가 제2 어플리케이션(120)을 온스크린 키보드(150)의 입력 대상으로 선택한 결과화면을 도시한 도면이다. 도 7에 도시된 바와 같이, 디스플레이 장치(100)는 제2 어플리케이션(120)의 연결 아이콘(125)과 온스크린 키보드(150)의 연결 아이콘(190)을 선 형태의 인디케이터(195)로 연결한 것을 확인할 수 있다. 이는 제2 어플리케이션(120)이 온스크린 키보드(150)의 입력 대상이라는 것을 시각적으로 확인시켜주기 위한 것이다.
이와 같이, 사용자는 자동연결 버튼(170)을 터치하여, 온스크린 키보드(150)의 입력 대상이 되는 어플리케이션을 쉽게 선택할 수 있게 된다.
이하에서는, 도 8 내지 도 11을 참고하여, 어플리케이션과 온스크린 키보드(150)가 수동 연결되는 과정을 설명한다.
도 8은 본 발명의 일 실시예에 따른, 사용자가 수동연결 버튼(160)을 터치하는 것을 도시한 도면이다. 도 8에 도시된 바와 같이, 사용자가 수동연결 버튼(160)을 터치하면, 디스플레이 장치(100)는 그 후에 입력되는 사용자의 조작에 따라 온스크린 키보드(150)의 입력 대상이 되는 어플리케이션을 선택하게 된다.
도 9는 본 발명의 일 실시예에 따른, 사용자가 연결 아이콘(190)을 제1 어플리케이션(110)이 표시된 영역으로 드래그 앤 드랍(drag & drop)하는 것을 도시한 도면이다. 도 9에 도시된 바와 같이, 수동연결 버튼(160)이 터치된 후에, 사용자가 연결 아이콘(190)을 제1 어플리케이션(110)까지 드래그 앤 드랍하면, 디스플레이 장치(100)는 제1 어플리케이션(110)을 온스크린 키보드(150)의 입력대상으로 선택한다.
도 10은 본 발명의 일 실시예에 따른, 디스플레이 장치(100)가 제1 어플리케이션(110)을 온스크린 키보드(150)의 입력 대상으로 선택한 결과화면을 도시한 도면이다. 도 10에 도시된 바와 같이, 디스플레이 장치(100)는 제1 어플리케이션(110)의 연결 아이콘(115)과 온스크린 키보드(150)의 연결 아이콘(190)을 선 형태의 인디케이터(195)로 연결한 것을 확인할 수 있다. 이는 제1 어플리케이션(110)이 온스크린 키보드(150)의 입력 대상이라는 것을 시각적으로 확인시켜주기 위한 것이다.
한편, 디스플레이 장치(100)는 듀얼터치를 이용하여 수동으로 온스크린 키보드(150)와 어플리케이션을 연결할 수도 있다. 도 11은 본 발명의 다른 실시예에 따른, 사용자가 제1 어플리케이션(110)이 표시된 영역과 온스크린 키보드(150)가 표시된 영역을 함께 터치하는 것을 도시한 도면이다.
도 11에 도시된 바와 같이, 수동연결 버튼(160)이 터치된 후에, 사용자가 제1 어플리케이션(110)이 표시된 영역과 온스크린 키보드(150)가 표시된 영역을 함께 터치하면, 디스플레이 장치(100)는 온스크린 키보드(150)의 제1 어플리케이션(110)을 입력대상으로 선택한다. 그러면, 도 10과 같이, 디스플레이 장치(100)는 제1 어플리케이션(110)의 연결 아이콘(115)과 온스크린 키보드(150)의 연결 아이콘(190)을 선 형태의 인디케이터(195)로 연결하게 된다.
상술한 바와 같이, 사용자는 수동연결 버튼(160)을 터치한 후에 특정 유형의 조작을 입력하여, 원하는 어플리케이션을 온스크린 키보드(150)의 입력대상으로 선택할 수 있게 된다.
이하에서는, 도 12 내지 도 14를 참고하여, 어플리케이션의 표시방향과 온스크린 키보드(150)의 표시방향이 서로 다른 경우, 어플리케이션의 표시방향을 변경하는 과정에 대해 설명한다.
도 12는 본 발명의 일 실시예에 따른, 제1 어플리케이션(110)의 표시방향과 온스크린 키보드(150)의 표시방향이 서로 다른 경우, 사용자가 자동연결 버튼(170)을 터치하는 것을 도시한 도면이다.
도 12에 도시된 바와 같이, 제1 어플리케이션(110)은 아래쪽 면이 화면의 왼쪽을 향하도록 표시되어 있고, 온스크린 키보드(150)는 아래쪽 면이 화면의 아래쪽을 향하도록 표시되어 있다. 그리고, 사용자가 자동연결 버튼(170)을 터치하면, 디스플레이 장치(100)는 제1 어플리케이션(110)을 온스크린 키보드(150)의 입력대상으로 선택한다.
도 13은 본 발명의 일 실시예에 따른, 제1 어플리케이션(110)의 표시방향과 온스크린 키보드(150)의 표시방향이 서로 다른 경우, 디스플레이 장치(100)가 제1 어플리케이션(110)을 온스크린 키보드(150)의 입력 대상으로 선택한 결과화면을 도시한 도면이다.
도 13에 도시된 바와 같이, 디스플레이 장치(100)는 제1 어플리케이션(110)의 연결 아이콘(115)과 온스크린 키보드(150)의 연결 아이콘(190)을 선 형태의 인디케이터(195)로 연결한 것을 확인할 수 있다.
하지만, 도 13에 도시된 바와 같이, 제1 어플리케이션(110)의 표시방향과 온스크린 키보드(150)의 표시 방향이 서로 일치하지 않기 때문에, 사용자가 온스크린 키보드(150)를 사용하면서 제1 어플리케이션(110)의 화면을 확인하기 어렵다는 문제가 있다. 따라서, 디스플레이 장치(100)는 제1 어플리케이션(110)의 표시방향이 온스크린 키보드(150)의 표시방향과 일치되도록 제1 어플리케이션(110)의 표시방향을 변경한다.
도 14는 본 발명의 일 실시예에 따른, 제1 어플리케이션(110)의 표시방향을 반시계 방향으로 90도 회전시킨 화면을 도시한 도면이다. 도 14에 도시된 바와 같이, 제1 어플리케이션(110)의 표시방향을 반시계 방향으로 90도 회전시키면 제1 어플리케이션(110)의 표시방향과 온스크린 키보드(150)의 표시방향이 일치된다.
한편 본 실시예에서는, 디스플레이 장치(100)가 어플리케이션을 회전시키는 것으로 설명하였으나, 온스크린 키보드를 회전시킬 수도 있음은 물론이다. 즉, 디스플레이 장치(100)는, 제1 어플리케이션(110)의 표시방향이 온스크린 키보드(150)의 표시방향과 일치되도록, 온스크린 키보드(150) 또는 제1 어플리케이션(110)의 표시방향을 변경하게 된다.
이에 따라, 사용자는 더욱 편리하게 제1 어플리케이션(110)에 문자를 입력하기 위해 온스크린 키보드(150)를 이용할 수 있게 된다.
이하에서는, 도 15 내지 도 18을 참고하여, 어플리케이션과 온스크린 키보드(150)의 연결을 종료시키는 과정에 대해 설명한다.
도 15는 본 발명의 일 실시예에 따른, 사용자가 선 형태의 인디케이터(195)를 터치하는 것을 도시한 도면이다. 도 16은 본 발명의 일 실시예에 따른, 인디케이터(195) 상에 종료 버튼(600)이 표시된 화면을 도시한 도면이다.
도 15에 도시된 바와 같이, 사용자가 선 형태의 인디케이터(195)를 터치하면, 디스플레이 장치(100)는 인디케이터(195) 상에 종료 버튼(600)을 표시하기 위한 명령으로 인식한다. 따라서, 도 16에 도시된 바와 같이, 디스플레이 장치(100)는 인디케이터(195) 상에 종료 버튼(600)을 표시한다.
도 17은 본 발명의 일 실시예에 따른, 사용자가 종료버튼(600)을 터치하는 것을 도시한 도면이다. 그리고, 도 18은 본 발명의 일 실시예에 따른, 제1 어플리케이션(110)과 온스크린 키보드(150)의 연결이 종료된 화면을 도시한 도면이다.
도 17에 도시된 바와 같이, 사용자가 종료버튼(600)을 터치하면, 디스플레이 장치(100)는 제1 어플리케이션(110)과 온스크린 키보드(150)의 연결을 종료한다. 따라서, 도 18과 같이, 디스플레이 장치(100)는 제1 어플리케이션(110)과 온스크린 키보드(150)를 연결하고 있던 인디케이터(195)를 화면에서 제거하게 된다.
이와 같은 과정을 통해, 사용자는 제1 어플리케이션(110)과 온스크린 키보드(150)의 연결을 종료할 수 있다.
이하에서는, 도 19를 참고하여 다수의 사용자가 복수개의 어플리케이션 및 복수개의 온스크린 키보드를 사용하는 경우에 대해 설명한다. 도 19는 본 발명의 일 실시예에 따른, 2명의 사용자가 테이블 탑(700)을 사용하는 경우에 대해 도시한 도면이다.
도 19에 도시된 바와 같이, 사용자 A와 사용자 B가 제1 온스크린 키보드(710), 제2 온스크린 키보드(720), 제3 어플리케이션(720), 제4 어플리케이션(725) 및 제5 어플리케이션(727)을 화면에 띄운 상태로 테이블탑(700)을 이용하고 있다.
도 19에서 확인할 수 있듯이, 사용자 A는 제1 온스크린 키보드(710)를 제3 어플리케이션(720)과 연결하여 사용하고 있고, 사용자 B는 제2 온스크린 키보드(715)를 제4 어플리케이션(725)에 연결하여 사용하고 있는 것을 확인할 수 있다.
이와 같이, 사용자는 복수의 어플리케이션 중에서 온스크린 키보드의 입력대상을 쉽게 선택할 수 있으며, 선택된 어플리케이션을 직관적으로 확인할 수 있게 된다. 또한, 복수의 사용자가 복수의 온스크린 키보드를 각각 이용할 수도 있게 된다.
한편, 본 실시예에서는 디스플레이 장치가 테이블 탑(700)인 것으로 설명하였으나, 이외에 터치스크린이 장착된 디스플레이 장치라면 어느 것이라도 적용될 수 있음은 물론이다. 예를 들어, 디스플레이 장치는 스마트 보드, TV, 타블렛 등이 될 수도 있다.
지금까지, 도 1 내지 도 19를 참고하여, 복수의 어플리케이션 중에서 온스크린 키보드의 입력 대상을 선택하는 UI 제공방법에 대해 설명하였다. 이하에서는, 지금까지 설명한 UI 제공방법에 대해 도 20을 참고하여 상세히 설명한다. 도 20은 본발명의 일 실시예에 따른, UI 제공방법을 설명하기 위해 제공되는 흐름도이다.
일단, 디스플레이 장치(100)는 복수개의 어플리케이션을 화면에 표시한다(S810). 그리고, 온스크린 키보드를 화면에 표시한다(S820).
그 후에, 사용자가 온스크린 키보드에 포함된 자동연결 버튼을 터치하면(S830-Y), 디스플레이 장치(100)는 가장 근접한 위치의 어플리케이션을 온스크린 키보드의 입력 대상으로 선택한다(S835). 그리고, 디스플레이 장치(100)는 선택된 어플리케이션과 온스크린 키보드를 연결하는 선 형태의 인디케이터를 표시하게 된다(S850). 자동 연결과 관련된 S830, S835, 및 S850 단계에 관련하여는, 도 6 및 도 7을 참고하여 앞서 상세히 설명한 바 있다.
반면, 사용자가 수동연결 버튼을 터치한 경우(S840-Y), 디스플레이 장치(100)는 그 후에 입력되는 사용자의 조작에 따라 온스크린 키보드(150)의 입력 대상이 되는 어플리케이션을 선택하게 된다. 따라서, 그 후에, 디스플레이 장치(100)는 사용자로부터 연결 아이콘을 드래그 앤 드랍하는 조작을 입력받는다(S843). 그리고, 디스플레이 장치(100)는 연결 아이콘이 드래그 앤 드랍된 위치의 어플리케이션을 온스크린 키보드의 입력 대상으로 선택하게 된다(S846). 그리고, 디스플레이 장치(100)는 선택된 어플리케이션과 온스크린 키보드를 연결하는 선 형태의 인디케이터를 표시한다(S850). 이와 같은, 수동 연결 과정에 관한 S840, S843, S846 단계에 관하여는 도 8 내지 도 10을 참고하여 앞서 상세히 설명한 바 있다. 또한, 도 11에 도시된 바와 같이, 디스플레이 장치(100)는 듀얼 터치 방식을 이용하여 특정 어플리케이션을 온스크린 키보드의 입력 대상으로 선택하는 수동연결 방식이 적용될 수도 있다.
상술한 바와 같이, 디스플레이 장치(100)는 복수의 어플리케이션 중 온스크린 키보드의 입력대상이 되는 어플리케이션을 선택하기 위한 UI 제공방법을 제공할 수 있게 된다.
한편, 도 21은 본 발명이 적용가능한 디스플레이 장치의 블럭도를 도시하였다. 도 21에 도시된 바와 같이, 디스플레이 장치는 터치스크린(910), 기능 블럭(920), 및 제어부(930)를 구비한다.
터치 스크린(910)은 사용자의 터치를 입력받고, 온스크린 키보드 및 복수개의 어플리케이션을 디스플레이한다. 예를 들어, 도 1에 도시된 바와 같이, 터치스크린(910)은 화면에 다수의 어플리케이션과 온스크린 키보드를 함께 표시한다.
기능 블럭(820)은 디스플레이 장치(100) 본연의 기능을 수행한다. 만약, 디스플레이 장치(100)가 테이블탑인 경우 기능 블럭(810)은 테이블탑 기능을 수행하고, 디스플레이 장치(100)가 스마트 보드인 경우 기능 블럭(810)은 디지털 회의에 필요한 스마트 보드의 기능을 수행한다.
제어부(930)는 전술한 도 20에 도시된 흐름도의 단계들을 수행함으로써, 터치스크린을 통해 입력된 온스크린 키보드에 대한 사용자의 조작에 기초하여, 복수개의 어플리케이션 중에서 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택한다. 이외에도, 제어부(930)는 도 1 내지 도 19를 참고하여 설명한 디스플레이 장치(100)의 기능들을 구현한다.
한편, 본 실시예에서는 디스플레이 장치(100)가 온스크린 키보드의 입력대상을 선택 및 연결하는 것으로 설명하였으나, 온스크린 키보드 이외에도 터치스크린 상에 표시되는 명령입력수단이라면 어떤 것이라도 적용될 수 있음은 물론이다. 예를 들어, 온스크린 키보드 이외에 다른 종류의 명령입력수단으로 터치휠, 터치 방향입력수단, 터치 숫자키패드 등이 적용될 수도 있음은 물론이다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (24)

  1. 온스크린 키보드를 화면에 표시하는 단계;
    복수개의 어플리케이션을 화면에 표시하는 단계; 및
    상기 온스크린 키보드에 대한 사용자의 조작에 기초하여, 상기 복수개의 어플리케이션 중에서 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택하는 단계;를 포함하는 UI 제공방법.
  2. 제1항에 있어서,
    상기 선택된 어플리케이션이 상기 온스크린 키보드의 입력 대상임을 나타내는 인디케이터(indicator)를 화면에 표시하는 단계;를 더 포함하는 UI 제공방법.
  3. 제2항에 있어서,
    상기 표시단계는,
    상기 선택된 어플리케이션과 상기 온스크린 키보드를 서로 연결하는 선 형태의 인디케이터를 표시하는 것을 특징으로 하는 UI 제공방법.
  4. 제2항에 있어서,
    상기 인디케이터를 터치하는 조작이 입력되면, 상기 선택된 어플리케이션과 상기 온스크린 키보드의 연결상태를 종료하는 명령을 입력받기 위한 종료버튼을 표시하는 단계;를 더 포함하는 것을 특징으로 하는 UI 제공방법.
  5. 제1항에 있어서,
    상기 선택단계는,
    상기 온스크린 키보드에 대해 제1 조작이 입력되면, 상기 온스크린 키보드로부터 가장 가까운 위치에 표시된 어플리케이션을 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택하는 것을 특징으로 하는 UI 제공방법.
  6. 제5항에 있어서,
    상기 제1 조작은,
    상기 온스크린 키보드에 포함된 자동연결 버튼을 터치하는 조작인 것을 특징으로 하는 UI 제공방법.
  7. 제1항에 있어서,
    상기 선택단계는,
    상기 온스크린 키보드에 대해 제2 조작이 입력되면, 상기 제2 조작이 입력된 후에 입력되는 사용자의 제3 조작에 따라 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택하는 것을 특징으로 하는 UI 제공방법.
  8. 제7항에 있어서,
    상기 제2 조작은,
    상기 온스크린 키보드에 포함된 수동연결 버튼을 터치하는 조작인 것을 특징으로 하는 UI 제공방법.
  9. 제7항에 있어서,
    상기 제3 조작은,
    상기 온스크린 키보드에 포함된 특정 아이콘을 특정 어플리케이션까지 드래그 앤 드랍하는 조작이고,
    상기 선택단계는,
    상기 드래그 앤 드랍이 종료된 지점에 위치한 상기 특정 어플리케이션을 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택하는 것을 특징으로 하는 UI 제공방법.
  10. 제7항에 있어서,
    상기 제3 조작은,
    상기 온스크린 키보드가 표시된 영역과 특정 어플리케이션이 표시된 영역을 함께 터치하는 조작이고,
    상기 선택단계는,
    상기 함께 터치된 특정 어플리케이션을 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택하는 것을 특징으로 하는 UI 제공방법.
  11. 제1항에 있어서,
    상기 선택된 어플리케이션의 표시방향이 상기 온스크린 키보드의 표시방향과 다른 경우, 상기 선택된 어플리케이션의 표시방향이 상기 온스크린 키보드의 표시방향과 일치되도록 상기 온스크린 키보드 또는 상기 선택된 어플리케이션의 표시방향을 변경하는 단계;를 더 포함하는 것을 특징으로 하는 UI 제공방법.
  12. 사용자의 터치를 입력받고, 온스크린 키보드 및 복수개의 어플리케이션을 디스플레이하는 터치스크린;
    상기 터치스크린을 통해 입력된 상기 온스크린 키보드에 대한 사용자의 조작에 기초하여, 상기 복수개의 어플리케이션 중에서 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택하는 제어부;를 포함하는 디스플레이 장치.
  13. 제12항에 있어서,
    상기 제어부는,
    상기 선택된 어플리케이션이 상기 온스크린 키보드의 입력 대상임을 나타내는 인디케이터(indicator)가 상기 터치스크린에 표시되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  14. 제13항에 있어서,
    상기 제어부는,
    상기 선택된 어플리케이션과 상기 온스크린 키보드를 서로 연결하는 선 형태의 인디케이터를 표시하는 것을 특징으로 하는 디스플레이 장치.
  15. 제13항에 있어서,
    상기 제어부는,
    상기 터치스크린을 통해 상기 인디케이터를 터치하는 조작이 입력되면, 상기 선택된 어플리케이션과 상기 온스크린 키보드의 연결상태를 종료하는 명령을 입력받기 위한 종료버튼이 표시되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  16. 제12항에 있어서,
    상기 제어부는,
    상기 온스크린 키보드에 대해 제1 조작이 입력되면, 상기 온스크린 키보드로부터 가장 가까운 위치에 표시된 어플리케이션을 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택하는 것을 특징으로 하는 디스플레이 장치.
  17. 제16항에 있어서,
    상기 제1 조작은,
    상기 온스크린 키보드에 포함된 자동연결 버튼을 터치하는 조작인 것을 특징으로 하는 디스플레이 장치.
  18. 제12항에 있어서,
    상기 제어부는,
    상기 온스크린 키보드에 대해 제2 조작이 입력되면, 상기 제2 조작이 입력된 후에 입력되는 사용자의 제3 조작에 따라 상기 온스크린 키보드의 입력 대상이 되는 어플리케이션을 선택하는 것을 특징으로 하는 디스플레이 장치.
  19. 제18항에 있어서,
    상기 제2 조작은,
    상기 온스크린 키보드에 포함된 수동연결 버튼을 터치하는 조작인 것을 특징으로 하는 디스플레이 장치.
  20. 제18항에 있어서,
    상기 제3 조작은,
    상기 온스크린 키보드에 포함된 특정 아이콘을 특정 어플리케이션까지 드래그 앤 드랍하는 조작이고,
    상기 제어부는,
    상기 드래그 앤 드랍이 종료된 지점에 위치한 상기 특정 어플리케이션을 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택하는 것을 특징으로 하는 디스플레이 장치.
  21. 제18항에 있어서,
    상기 제3 조작은,
    상기 온스크린 키보드가 표시된 영역과 특정 어플리케이션이 표시된 영역을 함께 터치하는 조작이고,
    상기 제어부는,
    상기 함께 터치된 특정 어플리케이션을 온스크린 키보드의 입력 대상이 되는 어플리케이션으로 선택하는 것을 특징으로 하는 디스플레이 장치.
  22. 제12항에 있어서,
    상기 제어부는,
    상기 선택된 어플리케이션의 표시방향이 상기 온스크린 키보드의 표시방향과 다른 경우, 상기 선택된 어플리케이션의 표시방향이 상기 온스크린 키보드의 표시방향과 일치되도록 상기 온스크린 키보드 또는 상기 선택된 어플리케이션의 표시방향을 변경하는 것을 특징으로 하는 디스플레이 장치.
  23. 명령입력수단을 화면에 표시하는 단계;
    복수개의 어플리케이션을 화면에 표시하는 단계; 및
    상기 명령입력수단에 대한 사용자의 조작에 기초하여, 상기 복수개의 어플리케이션 중에서 상기 명령입력수단의 입력 대상이 되는 어플리케이션을 선택하는 단계;를 포함하는 UI 제공방법.
  24. 사용자의 터치를 입력받고, 명령입력수단 및 복수개의 어플리케이션을 디스플레이하는 터치스크린; 및
    상기 터치스크린을 통해 입력된 상기 명령입력수단에 대한 사용자의 조작에 기초하여, 상기 복수개의 어플리케이션 중에서 상기 명령입력수단의 입력 대상이 되는 어플리케이션을 선택하는 제어부;를 포함하는 디스플레이 장치.
PCT/KR2010/003600 2009-06-09 2010-06-04 Ui 제공방법 및 이를 적용한 디스플레이 장치 WO2010143842A2 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012514877A JP5681174B2 (ja) 2009-06-09 2010-06-04 Ui提供方法及びそれを適用したディスプレイ装置
EP10786325.0A EP2442217B1 (en) 2009-06-09 2010-06-04 Method for providing a ui, and display device adopting same
US13/377,393 US9389783B2 (en) 2009-06-09 2010-06-04 Method for associating an onscreen keyboard with a displayed application window and display apparatus applying the same
CN201080025906.9A CN102460365B (zh) 2009-06-09 2010-06-04 Ui提供方法及采用该方法的显示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2009-0051042 2009-06-09
KR1020090051042A KR101626461B1 (ko) 2009-06-09 2009-06-09 Ui 제공방법 및 이를 적용한 디스플레이 장치

Publications (2)

Publication Number Publication Date
WO2010143842A2 true WO2010143842A2 (ko) 2010-12-16
WO2010143842A3 WO2010143842A3 (ko) 2011-04-21

Family

ID=43309335

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/003600 WO2010143842A2 (ko) 2009-06-09 2010-06-04 Ui 제공방법 및 이를 적용한 디스플레이 장치

Country Status (6)

Country Link
US (1) US9389783B2 (ko)
EP (1) EP2442217B1 (ko)
JP (1) JP5681174B2 (ko)
KR (1) KR101626461B1 (ko)
CN (1) CN102460365B (ko)
WO (1) WO2010143842A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239137A (ja) * 2012-04-20 2013-11-28 Sharp Corp 情報処理装置、情報処理装置の制御方法、および情報処理装置の制御プログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6381032B2 (ja) * 2012-06-08 2018-08-29 日本電気株式会社 電子機器、その制御方法及びプログラム
EP2864858B1 (en) * 2012-06-20 2019-11-20 Samsung Electronics Co., Ltd. Apparatus including a touch screen and screen change method thereof
KR102044829B1 (ko) * 2012-09-25 2019-11-15 삼성전자 주식회사 휴대단말기의 분할화면 처리장치 및 방법
KR102204261B1 (ko) * 2013-11-04 2021-01-18 삼성전자 주식회사 전자 장치 및 이의 어플리케이션 실행 방법
CN106687909A (zh) * 2014-09-16 2017-05-17 日本电气株式会社 信息处理设备、信息处理方法和信息处理程序
KR102238697B1 (ko) 2015-11-09 2021-04-09 에스케이텔레콤 주식회사 테이블탑 인터페이스 장치, 멀티 터치 객체 및 방법
CN105549876B (zh) * 2015-12-04 2018-11-30 小米科技有限责任公司 在输入框中进行输入的方法及装置
CN109074207A (zh) * 2016-02-11 2018-12-21 海佩吉公司 社交键盘
US10976923B2 (en) 2016-02-11 2021-04-13 Hyperkey, Inc. Enhanced virtual keyboard
US11442612B2 (en) * 2016-12-23 2022-09-13 [24]7.ai, Inc. Method and apparatus for facilitating user chat interactions
KR102655187B1 (ko) * 2017-02-15 2024-04-05 삼성전자주식회사 전자 장치 및 그의 동작 방법
USD899435S1 (en) 2018-03-16 2020-10-20 Magic Leap, Inc. Display panel or portion thereof with graphical user interface
WO2021090978A1 (ko) * 2019-11-06 2021-05-14 엘지전자 주식회사 키보드 인터페이스를 출력하는 전자 장치 및 그 제어 방법

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02310722A (ja) * 1989-05-26 1990-12-26 Nec Corp キーボード入力方式
JPH0340128A (ja) * 1989-07-07 1991-02-20 Nec Corp アクティブウインドウ切り替え方式
JP3190074B2 (ja) 1991-09-11 2001-07-16 株式会社東芝 手書き入力装置
JP3372563B2 (ja) * 1992-04-30 2003-02-04 新日鉄ソリューションズ株式会社 木構造表示編集装置
JP3730670B2 (ja) * 1994-07-20 2006-01-05 富士通株式会社 データ処理装置
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
JPH11272392A (ja) * 1998-03-19 1999-10-08 Yazaki Corp 情報端末装置、及びインターネット端末装置
JP2001356870A (ja) * 2000-06-13 2001-12-26 Toshiba Corp 情報入力端末装置
JP4165048B2 (ja) 2001-10-05 2008-10-15 セイコーエプソン株式会社 印刷モードごとに異なる検査用パターンを使用して行うドット記録位置ずれの調整値の決定
US6928619B2 (en) * 2002-05-10 2005-08-09 Microsoft Corporation Method and apparatus for managing input focus and z-order
US6776546B2 (en) * 2002-06-21 2004-08-17 Microsoft Corporation Method and system for using a keyboard overlay with a touch-sensitive display screen
JP2004030536A (ja) * 2002-06-28 2004-01-29 Toshiba Corp 情報処理装置および同装置で使用される文字入力支援方法
TW589577B (en) 2003-01-03 2004-06-01 Tatung Co Method to display software keyboard
US8479112B2 (en) * 2003-05-13 2013-07-02 Microsoft Corporation Multiple input language selection
US7925996B2 (en) 2004-11-18 2011-04-12 Microsoft Corporation Method and system for providing multiple input connecting user interface
JP2006189920A (ja) 2004-12-28 2006-07-20 Canon Marketing Japan Inc ユーザインタフェース装置、ユーザインタフェースの表示方法及びプログラム
US7543248B2 (en) 2005-05-31 2009-06-02 Fuji Xerox Co., Ltd. User-machine interface
KR100745489B1 (ko) 2005-07-19 2007-08-02 소프트포럼 주식회사 키입력 해킹방지 방법
KR20070089381A (ko) * 2006-02-28 2007-08-31 삼성전자주식회사 메뉴 표시 방법 및 그 방법을 수행하는 프로그램을 기록한컴퓨터 판독 가능한 기록매체
JP2008033844A (ja) * 2006-07-31 2008-02-14 Sharp Corp 表示装置、制御方法およびプログラム
US8799954B1 (en) * 2006-07-31 2014-08-05 Rovi Guides, Inc. Systems and methods for providing custom media content flipping
JP2008112414A (ja) * 2006-10-31 2008-05-15 Canon Inc 仮想キーボードシステム、その制御方法及びコンピュータプログラム
CN101241529A (zh) 2007-02-07 2008-08-13 创鸿科技股份有限公司 封锁计算机的输入装置的方法及其装置
JP4763633B2 (ja) * 2007-02-28 2011-08-31 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置及びプログラム
US20100037157A1 (en) * 2008-08-05 2010-02-11 International Business Machines Corp. Proactive machine-aided mashup construction with implicit and explicit input from user community

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None
See also references of EP2442217A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239137A (ja) * 2012-04-20 2013-11-28 Sharp Corp 情報処理装置、情報処理装置の制御方法、および情報処理装置の制御プログラム

Also Published As

Publication number Publication date
JP5681174B2 (ja) 2015-03-04
JP2012529693A (ja) 2012-11-22
EP2442217A4 (en) 2015-05-27
WO2010143842A3 (ko) 2011-04-21
US20120075231A1 (en) 2012-03-29
KR20100132293A (ko) 2010-12-17
KR101626461B1 (ko) 2016-06-02
EP2442217A2 (en) 2012-04-18
US9389783B2 (en) 2016-07-12
EP2442217B1 (en) 2018-02-21
CN102460365B (zh) 2014-05-07
CN102460365A (zh) 2012-05-16

Similar Documents

Publication Publication Date Title
WO2010143842A2 (ko) Ui 제공방법 및 이를 적용한 디스플레이 장치
WO2010110550A1 (en) Apparatus and method for providing virtual keyboard
WO2014003337A1 (ko) 유아이 조절 방법 및 이를 사용하는 사용자 단말기
EP2850507A1 (en) Method of operating a display unit and a terminal supporting the same
WO2014051201A1 (en) Portable device and control method thereof
WO2012053801A2 (en) Method and apparatus for controlling touch screen in mobile terminal responsive to multi-touch inputs
WO2014077460A1 (en) Display device and controlling method thereof
WO2012108714A2 (en) Method and apparatus for providing graphic user interface in mobile terminal
WO2013180454A1 (en) Method for displaying item in terminal and terminal using the same
WO2015016527A1 (en) Method and apparatus for controlling lock or unlock in
WO2015088298A1 (ko) 터치스크린이 장착된 키보드 및 그 제어방법과 이를 이용한 컴퓨터장치의 제어방법
WO2013115558A1 (en) Method of operating multi-touch panel and terminal supporting the same
WO2014119852A1 (ko) 스마트 텔레비전용 원격 제어 방법
WO2011043601A2 (en) Method for providing gui using motion and display apparatus applying the same
WO2014051231A1 (en) Display device and control method thereof
WO2015119378A1 (en) Apparatus and method of displaying windows
WO2011021900A2 (en) Remote control method and remote control system using the same
WO2014081244A1 (en) Input device, display apparatus, display system and method of controlling the same
CN104020875A (zh) 触控组件、设备控制方法、控制器及电子设备
AU2012214993A1 (en) Method and apparatus for providing graphic user interface in mobile terminal
WO2018066821A1 (en) Display apparatus and control method thereof
WO2013062282A1 (en) Method of operating a background content and terminal supporting the same
WO2011065744A2 (en) Method of providing gui for guiding start position of user operation and digital device using the same
WO2015046683A1 (en) Digital device and control method thereof
WO2017150947A1 (ko) 반응형 유저 인터페이스 제공 장치 및 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080025906.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10786325

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 2012514877

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13377393

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010786325

Country of ref document: EP