WO2017126744A1 - 사용자단말기 및 그 제어방법 - Google Patents

사용자단말기 및 그 제어방법 Download PDF

Info

Publication number
WO2017126744A1
WO2017126744A1 PCT/KR2016/004323 KR2016004323W WO2017126744A1 WO 2017126744 A1 WO2017126744 A1 WO 2017126744A1 KR 2016004323 W KR2016004323 W KR 2016004323W WO 2017126744 A1 WO2017126744 A1 WO 2017126744A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
user
edge
user terminal
image
Prior art date
Application number
PCT/KR2016/004323
Other languages
English (en)
French (fr)
Inventor
이승훈
강도연
박성배
이주연
최정환
Original Assignee
삼성전자(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자(주) filed Critical 삼성전자(주)
Priority to US16/069,597 priority Critical patent/US10824314B2/en
Publication of WO2017126744A1 publication Critical patent/WO2017126744A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Definitions

  • the present invention provides a user terminal and a control method thereof, which can be easily changed to a second object by moving a first object that can obstruct a view in a central area of the screen to a second object.
  • a user is using various applications (program icons, etc.) using a user terminal, and a user terminal is used by running a plurality of applications (program icons, etc.).
  • a plurality of applications program icons, etc.
  • the object of the executed application is moved due to the limited area of the screen, or the execution of the executed application (program icons, etc.) is stopped, or the executed application is executed.
  • Multiple inputs are required, such as reducing the size of an object (such as a program icon).
  • FIG. 1 is an exemplary diagram illustrating moving a user terminal 1 object in a central area of a screen according to the present invention. If the user wants to move the object A located in the screen center area of the user terminal 1 away from the screen center area of the user terminal 1, the user first touches the object (a) and the button for adjusting the size (B) ) Must be selected. The user selects a minimize button to minimize the object A (b) to move away from the center of the screen (c). Since object A is minimized, in order to execute the application (program) of the object again, it is necessary to select the object or find and select the minimized object A using another button.
  • the field of view of an object of an application (such as a program icon) that is necessary may not be secured.
  • the user wants to make the object of the application (program icon, etc.) more intuitive and easy to move away from the center area of the screen so as not to disturb the object of the application to be displayed.
  • An object of the present invention is to provide a user terminal and a control method thereof, which can easily move an object to an edge and reduce its size to create a center area of the screen area without obstruction of the object.
  • the user terminal for achieving the object of the present invention, the image processing unit capable of processing the image; A display unit capable of displaying the processed image; The first object is moved to the edge of the display unit screen area based on a user input for moving the first object included in the image to the edge of the display unit screen area, and the first object is moved to the edge of the display unit screen area. It is achieved by a user terminal including a control unit for controlling the image processing unit to be changed to a second object of a smaller size to be displayed on the display unit.
  • the controller may determine the position of the second object based on at least one of a direction of the user input, an input release position, and a type of input.
  • the controller may determine at least one of the size, shape, color, and transparency of the second object based on the position of the second object, the execution status of the first object, and the edge.
  • the second object may include at least one of a shape, a color, an area of the first object, an area for releasing to the first object, and an indication for releasing to the first object.
  • the controller may change the second object to the first object based on the user input including at least one of a direction of an input to the second object, an input release position, and a type of an input.
  • the controller may determine the position of the first object based on at least one of a direction, a degree, a type, and an input release position of the user input with respect to the second object.
  • the controller may display a plurality of the second objects in a superimposed manner.
  • the controller may inform about each of the overlapping second objects based on the user input.
  • the controller may set at least one of the size, shape, color, and transparency of the second object.
  • the control unit may change the plurality of first objects to the plurality of second objects based on the user input.
  • control method of the user terminal to achieve the object of the present invention the display unit to display the first object on the basis of the user input to move the first object included in the image to the edge of the display area Moving to an edge of the screen area; Changing the first object to a second object of a smaller size than the first object; It is achieved by the control method of the user terminal comprising the step of displaying the modified second object.
  • the moving may include determining a position of the second object based on at least one of a direction of the user input, an input release position, and a type of input.
  • the determining of the position of the second object may include determining at least one of the size, shape, color, and transparency of the second object based on the position of the second object, the execution status of the first object, and the edge. Determining may include.
  • the second object may include at least one of a shape, a color, an area of the first object, an area for releasing to the first object, and an indication for releasing to the first object.
  • the method may further include changing the second object to the first object based on the user input including at least one of a direction of the input to the second object, an input release position, and a type of the input. .
  • the changing to the first object may include determining a position of the first object based on at least one of a direction, a degree, a type, and an input release position of the user input with respect to the second object. Can be.
  • the method may further include displaying a plurality of the second objects by overlapping them.
  • the displaying of the overlapping second objects may include notifying each of the overlapping second objects based on the user input.
  • the method may further include setting at least one of a size, a shape, a color, and a transparency of the second object.
  • the method may further include changing the plurality of first objects to the plurality of second objects based on the user input.
  • FIG. 1 is an exemplary diagram illustrating moving a user terminal 1 object in a central area of a screen according to the present invention.
  • FIG. 2 is an exemplary diagram illustrating reducing an object size by moving an object to the most geographic area using a user terminal according to an embodiment of the present invention.
  • FIG. 3 is a block diagram showing the configuration of a user terminal according to the present invention.
  • FIG. 4 is a block diagram showing the configuration of a user terminal according to an embodiment of the present invention.
  • FIG. 5 is a control flowchart illustrating a control method of a user terminal according to the present invention.
  • FIG. 6 is a control flowchart illustrating a control method of a user terminal according to an embodiment of the present invention.
  • FIG. 7 and 8 are control flow diagrams showing a control method of a user terminal according to another embodiment of the present invention.
  • FIG. 9 is an exemplary view illustrating a size reduction while moving an object to an edge by a user input of a touch swing in a user terminal according to an embodiment of the present invention.
  • FIG. 10 is an exemplary view illustrating returning a reduced object moved and reduced in a user terminal according to an embodiment of the present invention to a center area of a screen;
  • FIG. 11 is an exemplary diagram illustrating the size, shape, color, and transparency of an object moved and reduced in a user terminal according to an embodiment of the present invention.
  • FIG. 12 is an exemplary diagram illustrating overlapping and displaying objects in a user terminal according to an embodiment of the present invention.
  • FIG. 13 is an exemplary diagram illustrating notifying each of the overlapping objects in a user terminal according to an exemplary embodiment of the present invention.
  • FIG. 14 is an exemplary view illustrating returning an object having a reduced edge moved by a user terminal to a center area of a screen by an input by a user's touch swing, according to an embodiment of the present invention.
  • 15 is an exemplary diagram illustrating a plurality of objects moved to an edge to be reduced and returned in a user terminal according to an embodiment of the present invention.
  • FIG 2 is an exemplary view showing that the image of the tooth using the user terminal 10 according to an embodiment of the present invention and the analysis information about the tooth is displayed on the screen.
  • FIG 2 is an exemplary view showing that the size is reduced by moving the object to the most geographic area using the user terminal 10 according to an embodiment of the present invention.
  • the object A may be displayed in the center area of the screen of the user terminal 10.
  • the user may move the object A displayed on the center area of the screen of the user terminal 10 to the right.
  • the object A may have a touch area that can be moved, and when the object is moved, it may need to be touched and moved.
  • the touch area may not exist, and unlike the touch for executing, the touch area may be moved by touching any area of the object through the setting.
  • At least a part of the object A which is being moved by the user's touch may be moved out of the screen area or moved within the setting by setting at least the size and the predetermined distance of the object from the edge.
  • the object A changes to the object B having a smaller size than the object A.
  • the position of the object may be determined based on at least one of a direction of a user input, an input release position, and a type of input, and the changed object B may be positioned at the determined position.
  • the shape of the semicircle is located at the edge of the screen, but the form is not limited thereto.
  • the object B may be displayed corresponding to the characteristic shape, color and logo of the object A so that the object A is changed.
  • the object B may display at least one of a selection area for release to return to the object A and a display indicating release.
  • the user input is described in a touch, drag-and-drop manner, but is not limited thereto.
  • the touch input may be implemented by a touch swing thrown by a touch, a plurality of touch inputs, or the like.
  • the user terminal 10 may include an image processor 110, a display 120, and a controller 100.
  • the type of the image processing process performed by the image processing unit 110 is not limited. For example, de-multiplexing for distributing a predetermined signal into signals for each characteristic, and decoding corresponding to the image format of the image signal. ), De-interlacing to convert interlaced video signals to progressive, noise reduction to improve video quality, detail enhancement, and frame refresh rate refresh rate) conversion and the like, and include a decoder (not shown) for decoding the source image corresponding to the image format of the encoded source image and a frame buffer (not shown) for storing the decoded source image in units of frames. can do.
  • the image processing unit 110 is a system-on-chip (SOC) incorporating these various functions, or individual components capable of independently performing each of these processes are mounted on a printed circuit board to an image processing board (not shown). It may be implemented and embedded in the display device.
  • SOC system-on-chip
  • the image processor 110 performs various preset image processing processes with respect to a source signal including a broadcast signal including an image signal received from a receiver (not shown) and an image signal provided from an image source (not shown).
  • the image processor 110 may output an image signal on which the process is performed to the display unit 120, thereby displaying the processed source image on the display unit 120.
  • the display 120 may display an image based on the image signal output from the image processor 110.
  • the implementation manner of the display unit 120 is not limited, such as a liquid crystal, a plasma, a light-emitting diode, an organic light-emitting diode, a surface conduction electron gun It can be implemented by various display methods such as -conduction electron-emitter, carbon nano-tube, and nano-crystal.
  • the display unit 120 may further include additional components according to its implementation.
  • the display unit 120 is a liquid crystal type
  • the display unit liquid crystal display panel (not shown)
  • a backlight unit (not shown) for supplying light thereto
  • a panel driving substrate for driving the panel (not shown) (Not shown).
  • the display 120 displays an image based on the image signal processed by the image processor 110.
  • the display unit 120 displays an image, but includes a method of LCD, PDP, OLED, and the like.
  • the display unit 120 may include an LCD panel, a PDP panel, an OLED panel, and the like.
  • the display 120 may display an image and a color correction process.
  • the display unit 120 may include a display panel for displaying an image and a panel driver for processing an input image signal to display an image on the display panel, but is not limited thereto.
  • An image signal received from an external input source through an interface may be displayed on the display unit 120 through image processing such as decoding, deinterlacing, scaling, or the like.
  • the controller 100 may control the overall configuration of the user terminal 10.
  • the controller 100 moves the first object to the edge of the screen area of the display 120 based on a user input for moving the first object included in the image to the edge of the screen area of the display 120.
  • the image processor 110 may be controlled to change the object into a second object having a smaller size than the first object so that the object is displayed on the display 110.
  • the user terminal 10 may include the configuration of FIG. 3, and further includes a communication unit 130, a storage unit 140, a user input unit 150, a voice receiver 160, and imaging.
  • the unit 170 and the UI generator 180 may be included.
  • the communication unit 130 may receive a signal by an external input and transmit the signal to the image processing unit 110 or the control unit 100.
  • the communication unit 130 may receive a signal from the corresponding external input by wire by connecting various external input cables, or may receive a signal received wirelessly according to a predetermined wireless communication standard.
  • the communication unit 130 may include a plurality of connectors (not shown) to which each cable is individually connected.
  • the communication unit 130 may receive a signal from a connected external input, for example, a broadcast signal, an image signal, a data signal, etc. according to an HDMI, USB, component standard, or receive communication data through a communication network. Can be.
  • the communication unit 130 may receive a signal / data from an external input, as well as a tuner for tuning a wireless communication module (not shown) or a broadcast signal for wireless communication according to a design method of the user terminal 10. Various additional configurations, such as not shown). In addition to receiving a signal from an external device, the communication unit 130 may transmit information / data / signal of the user terminal 10 to the external device. That is, the communication unit 130 may not be limited to the configuration of receiving a signal to an external device, but may be implemented as an interface capable of bidirectional communication. The communication unit 130 may receive a control signal for selecting a UI from the plurality of control devices.
  • the communication unit 130 may be configured as a communication module for short-range wireless communication such as Bluetooth, IR (Infrared), UWB (Ultra Wideband), Zigbee, etc., and is a well-known communication port for wired communication. It may be configured.
  • the communicator 130 may be used for various purposes, such as a command for manipulating a display, transmitting and receiving data, in addition to a control signal for selecting a UI.
  • the storage unit 140 should retain data even when power is cut off from the user terminal 10, and is preferably provided as a writable nonvolatile memory (Writable ROM) to reflect changes of the user.
  • the storage 140 may be provided as one of a flash memory, an EPROM, and an EEPROM.
  • the user input unit 150 may transmit various preset control commands or information to the controller 100 according to a user's manipulation and input.
  • the user input unit 150 may be implemented as a menu key or an input panel installed outside the user terminal 10 or a remote controller separated from the user terminal 10. .
  • the user input unit 150 may be implemented integrally with the display unit 120.
  • the display unit 120 is a touch screen, the user may input an input menu (displayed on the display unit 120).
  • the preset command may be transmitted to the controller 100 by touching the same.
  • the user input unit 150 may receive a motion and a voice of the user.
  • the motion of the user may include a touch input.
  • the user input unit 150 may directly receive a user's motion and voice, or may receive information about the user's motion and voice from an external device.
  • the voice receiver 160 may be provided as a microphone to receive a user's voice command and transmit the received voice command to the controller 100.
  • the imaging unit 170 may be provided as a microphone to receive a user gesture and transmit the gesture to the controller 100.
  • the UI generator 180 may generate a UI for operating an executed application program.
  • the generated UI includes a plurality of sub UIs provided in the form of icons, text, and the like, and when a user selects a specific sub UI through the user terminal 10, an application program may be operated in response to the selected sub UI. That is, each subUI may be generated in units of a plurality of functions or events capable of operating an application program running in the user terminal 10.
  • the UI generator 180 refers to a software or hardware function for generating and controlling a UI displayed on the display 120, and the function may be performed by the controller 100 to be described later.
  • the UI generator 180 may be configured as a separate chipset or may be implemented by a separate microprocessor.
  • the controller 100 may determine the position of the second object based on at least one of a direction of the user input, an input release position, and a type of the input.
  • the controller 100 may determine at least one of the size, shape, color, and transparency of the second object based on the position of the second object, the execution situation, and the edge of the first object.
  • the second object may include at least one of a shape, a color, an area of the first object, an area for releasing to the first object, and an indication for releasing to the first object.
  • the controller 100 may change the second object to the first object based on a user input including at least one of a direction of an input to the second object, an input release position, and a type of the input.
  • the controller 100 may determine the position of the first object based on at least one of a direction, a degree, a type, and an input release position of the user input with respect to the second object.
  • the controller 100 may display a plurality of second objects by overlapping them.
  • the controller 100 may notify each of the overlapping second objects through the UI based on a user input.
  • the controller 100 may set at least one of the size, shape, color, and transparency of the second object.
  • the controller 100 may change the plurality of first objects into a plurality of second objects based on a user input.
  • FIG. 5 is a control flowchart illustrating a control method of the user terminal 10 according to the present invention.
  • the first object is moved to the edge of the display unit screen area based on a user input for moving the first object included in the image to the edge of the display unit screen area (S11).
  • the first object is changed to a second object having a smaller size than the first object (S12).
  • the changed second object is displayed (S13).
  • FIG. 6 is a control flowchart illustrating a control method of the user terminal 10 according to an embodiment of the present invention.
  • At least one of the size, shape, color, and transparency of the second object is set (S21).
  • the first object is moved to the edge of the screen area of the display 120 based on a user input for moving the first object to the edge of the screen area of the display 120 (S22).
  • the position of the second object is determined based on at least one of the direction of the user input, the input release position, and the type of the input (S23).
  • At least one of the size, shape, color, and transparency of the second object is determined based on the position of the second object, the execution status of the first object, and the edge (S24).
  • the first object is changed into a second object having a smaller size than the first object (S25).
  • the changed second object is displayed (S26).
  • the second object is changed to the first object based on a user input including at least one of a direction of the input to the second object, an input release position, and a type of the input (S27).
  • the position of the first object is determined based on at least one of a direction, a degree, a type, and an input release position of the user input with respect to the second object (S28). In this case, the order of steps S27 and S28 is irrelevant.
  • the changed first object is displayed (S29).
  • 7 and 8 are control flow diagrams showing a control method of the user terminal 10 according to another embodiment of the present invention.
  • At least one of the size, shape, color, and transparency of the second object is set (S31).
  • the first object is moved to the edge of the screen area of the display 120 based on a user input for moving the first object to the edge of the screen area of the display 120 (S32).
  • the position of the second object is determined based on at least one of the direction of the user input, the input release position, and the type of the input (S33).
  • At least one of a size, a shape, a color, and a transparency of the second object is determined based on the position of the second object, the execution situation of the first object, and the edge (S34).
  • the first object is changed to a second object having a smaller size than the first object (S35).
  • the changed second object is displayed (S36).
  • a plurality of second objects having overlapping directions are displayed in an overlapping manner (S37).
  • the plurality of second objects is changed into a plurality of first objects based on a user input including at least one of a direction of an input to the plurality of second objects, an input release position, and a type of the input (S39).
  • the location of the plurality of first objects corresponding to the plurality of second objects is determined based on at least one of a direction, a degree, a type, and an input release position of the user input to the plurality of second objects (S40). In this case, the order of steps S27 and S28 is irrelevant.
  • the plurality of changed first objects are displayed (S41).
  • FIG 9 is an exemplary view illustrating a size reduction while moving an object to an edge by a user input of a touch swing in the user terminal 10 according to an embodiment of the present invention.
  • the controller 100 determines whether the first object is located within a predetermined distance to the right side of the screen, at least a part of the first object is out of the screen area, or the entire part of the first object is out of the screen area. It can be displayed by changing to the second object B on the basis of the occurrence.
  • the second object B may be displayed in a semicircular shape, and the upper portion of the displayed second object B may display a mark indicating the entire shape ( ⁇ ) to display the entire area, and the lower portion may be displayed in a minimized manner.
  • the display indicating the minimized shape () can be displayed.
  • the shape of the second object B is just an example and may be provided in various other shapes and may be set.
  • FIG. 10 is an exemplary diagram illustrating returning a reduced object that is moved and reduced in the user terminal 10 to the center area of the screen according to an exemplary embodiment.
  • the user may touch and drag the second object B located at the edge of the display 120 to the left as shown.
  • the user may touch the display area for the display shape and size that can be displayed on the second object B to change it to the first object A.
  • the user input for returning the second object B to the first object A may vary. Touching the second object B may be changed to the size of the previous first object A to the original position, the position may be changed by the user drag. In addition, the second object B may be moved to the position of the screen center area according to the degree of the touch swing to be changed to the first object A. FIG. In addition, the second object B may be moved and positioned to the opposite edge by the user's touch swing. While the second object B is being moved, the first object A may be changed or may be moved without being changed.
  • FIG. 11 is an exemplary view illustrating the size, shape, color, and transparency of an object moved and reduced in the user terminal 10 according to an embodiment of the present invention.
  • the second object moved to the edge from the center of the screen of the user terminal 10 and reduced in size may be displayed in various sizes, shapes, colors, and transparency.
  • the second object B1 may include a display for displaying a full screen / minimized screen in a semicircle shape.
  • the size of the second object B1 may be preset or changed according to a user's setting. In FIG. 11, the edges of the screens are positioned close to the right side of the screen, but may be slightly spaced apart from the right side of the screen without close contact.
  • the color of the second object B1 is set corresponding to the color of the first object before the change.
  • the second object B2 may include an indication to enlarge / reduce the rectangular object. As a result, the size of the second object B2 may be changed.
  • the shape of the second object B2 may be changed according to a user's preference, and may be set as a quadrangular object.
  • the second object B3 may have a semi-circular shape, and a logo image of the first object may be displayed before the change.
  • the second object B3 may be highlighted to distinguish it from other second objects. What is highlighted to distinguish it from other second objects may be a broadcast image that is stored and relayed from an image that can be adjusted for playback. In the case of a messenger, it may be highlighted by indicating that a message has arrived.
  • the second object B4 may be an object provided in a triangular shape.
  • the second object B5 may maintain the shape of the first object.
  • the second object B5 may be provided to display the contents, and the second object B5 may be set to have transparency so that the other first objects are less disturbed in view.
  • the first object of the calendar may provide the information to the user by keeping its contents briefly.
  • FIG. 12 is an exemplary view illustrating overlapping and displaying objects in the user terminal 10 according to an exemplary embodiment.
  • the first object may be moved and changed to increase the number of second objects positioned at the edge of the screen.
  • the user may change the second object by moving the plurality of first objects in a similar direction. If the user's input is in the direction in which the second object is located, the controller 100 may position the moved second object to both sides of the second object in which the second object is located. Also, depending on the setting, as shown in FIG. 12, the second objects E, F, G, H, I, and J may overlap each other. For example, the user has moved one of the first objects to the right to change to the second object, and it is determined that the desired second object will exist in the moved direction.
  • the user moves the first object in a similar direction without overlapping, the right If the second object is positioned in a direction different from the direction of the user's movement along the screen edge of the user, the user may be a little confused so that the second object may be overlapped to form a group of the second object. Of course, it is preferable to set so as to overlap the center area of the screen.
  • FIG. 13 is an exemplary diagram illustrating notifying each of the overlapping objects in the user terminal 10 according to an exemplary embodiment.
  • the guide UI (a) may be displayed for the overlapping second objects E, F, G, H, I, and J.
  • FIG. 14 is an exemplary view illustrating returning an object having a reduced edge moved from the user terminal 10 to the center area of the screen by an input by a user's touch swing.
  • the user may touch the second object B, which is moved from the center of the screen of the user terminal 10 to the edge and reduced in size, and drags it to the left by the distance D1 and releases the touch.
  • the second object may be changed to the first object by a user input and displayed on the screen.
  • the first object may be moved according to the speed dragged by the distance D1 to the left of the user and displayed in one of areas A1 to A2.
  • the larger the user's drag movement speed the greater the number of the first object to move to the left side of the screen.
  • the smaller the user's drag movement speed the smaller the first object moves to the left side of the screen.
  • 15 is an exemplary diagram illustrating a plurality of objects moved to an edge to be reduced and returned in a user terminal according to an embodiment of the present invention.
  • the user may select the plurality of first objects A1, A2, and A3 by using three fingers to touch (T1, T2, and T3), drag the D1 direction, and release the swing while swinging.
  • the plurality of first objects A1, A2, and A3 may be moved to the position of the edge of the D1 direction to be changed to the second object. In this way, it is also possible to move the plurality of first objects at once and change them into corresponding first objects.
  • the user selects the plurality of second objects B, C, and D using three fingers and touches (T4, T5, and T6), and then moves the D2 direction. You can release the touch by dragging and swinging. Accordingly, the second objects B, C, and D may be changed into a plurality of first objects A1, A2, and A3, respectively, and displayed in the center area of the screen.
  • the first object that can obstruct the field of view on the screen of the display unit 120 to the edge of the screen can be easily changed to the second object to intuitively and easily user terminal (10) may be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 제1오브젝트를 화면의 가장자리로 이동시켜 손쉽게 제2오브젝트로 변경할 수 있는 사용자단말기 및 그 제어방법이 제공된다. 본 발명의 사용자단말기는, 영상을 처리할 수 있는 영상처리부와; 상기 처리된 영상을 표시할 수 있는 디스플레이부와; 상기 영상에 포함된 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 상기 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동시키며, 상기 제1오브젝트를 상기 제1오브젝트보다 작은 크기의 제2오브젝트로 변경되어 상기 디스플레이부에 표시되도록 상기 영상처리부를 제어하는 제어부를 포함하는 것을 특징으로 한다.

Description

사용자단말기 및 그 제어방법
본 발명은 화면의 중앙영역에 시야를 방해할 수 있는 제1오브젝트를 화면의 가장자리로 이동시켜 손쉽게 제2오브젝트로 변경할 수 있는 사용자단말기 및 그 제어방법이다.
사용자는 사용자단말기를 이용하여 각종 어플리케이션(프로그램 아이콘 등) 등을 이용하고 있으며 복수의 어플리케이션(프로그램 아이콘 등)을 실행하여 사용자단말기를 사용하고 있는 추세이다. 이렇게 복수의 어플리케이션(프로그램 아이콘 등)을 실행하면 화면의 제한된 영역으로 인하여 실행된 어플리케이션(프로그램 아이콘 등)의 오브젝트를 이동시키거나, 실행된 어플리케이션(프로그램 아이콘 등)의 실행을 중지하거나, 실행된 어플리케이션(프로그램 아이콘 등)의 오브젝트의 크기를 감소하는 등의 여러 번의 입력이 필요하다.
도 1은 본 발명과 관련된 사용자단말기(1)브젝트를 화면의 중앙영역에서 이동시키는 것을 나타내는 예시도이다. 사용자는 사용자단말기(1)의 화면 중앙영역에 위치하고 있는 오브젝트 A를 사용자단말기(1)의 화면 중앙영역에서 벗어나게 하려면, 먼저 사용자는 오브젝트를 터치하고(a) 이때 표시되는 크기조정에 관한 버튼(B) 중 하나를 선택하여야 한다. 사용자는 오브젝트 A를 최소화하기 위하여 최소화 버튼을 선택하여(b) 화면 중앙영역으로부터 벗어나도록 하였다(c). 오브젝트A는 최소화되었기 때문에 다시 오브젝트의 어플리케이션(프로그램)을 실행하려면 오브젝트를 선택하거나 다른 버튼을 이용하여 최소화된 오브젝트A를 찾아서 선택을 해야 한다.
하지만, 시간적으로 화면영역의 중앙영역에 위치하고 있는 한 오브젝트로 인하여 지금 필요한 어플리케이션(프로그램 아이콘 등)의 오브젝트에 대한 시야가 확보되지 않을 수 있다. 또한, 사용자는 보다 직관적이고 손쉽게 어플리케이션(프로그램 아이콘 등)의 오브젝트를 화면의 중앙영역에서 벗어나게 하여 표시하려는 어플리케이션의 오브젝트에 방해가 되지 않게 하는 것을 더욱 더 원하게 되었다.
본 발명의 목적은 오브젝트를 손쉽게 가장자리로 이동하고 크기를 감소시켜 오브젝트의 방해가 없는 화면영역의 중앙영역을 만들 수 있는 사용자단말기 및 그 제어방법을 제공함에 있다.
상기 본 발명의 해결과제를 달성하기 위한 사용자단말기는, 영상을 처리할 수 있는 영상처리부와; 상기 처리된 영상을 표시할 수 있는 디스플레이부와; 상기 영상에 포함된 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 상기 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동시키며, 상기 제1오브젝트를 상기 제1오브젝트보다 작은 크기의 제2오브젝트로 변경되어 상기 디스플레이부에 표시되도록 상기 영상처리부를 제어하는 제어부를 포함하는 사용자단말기에 의해 달성된다.
여기서, 상기 제어부는 상기 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 상기 제2오브젝트의 위치를 결정할 수 있다.
그리고, 상기 제어부는 상기 제2오브젝트의 위치, 상기 제1오브젝트의 실행상황 및 상기 가장자리에 기초하여 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정할 수 있다.
여기서, 상기 제2오브젝트는 상기 제1오브젝트의 형태, 색상, 영역, 상기 제1오브젝트로의 해제를 위한 영역, 상기 제1오브젝트로의 해제를 알리는 표시 중 적어도 하나를 포함할 수 있다.
그리고, 상기 제어부는 상기 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 상기 사용자 입력에 기초하여 상기 제2오브젝트를 상기 제1오브젝트로 변경할 수 있다.
여기서, 상기 제어부는 상기 제2오브젝트에 대한 상기 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 상기 제1오브젝트의 위치를 결정할 수 있다.
그리고, 상기 제어부는 복수의 상기 제2오브젝트를 중첩하여 표시할 수 있다.
여기서, 상기 제어부는 상기 사용자 입력에 기초하여 상기 중첩된 제2오브젝트 각각에 대하여 알릴 수 있다.
그리고, 상기 제어부는 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정할 수 있다.
여기서, 상기 제어부는 상기 사용자 입력에 기초하여 상기 복수의 제1오브젝트를 상기 복수의 제2오브젝트로 변경할 수 있다.
한편, 상기 본 발명의 해결과제를 달성하기 위한 사용자단말기의 제어방법은, 영상에 포함된 제1오브젝트를 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 상기 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동시키는 단계와; 상기 제1오브젝트를 상기 제1오브젝트보다 작은 크기의 제2오브젝트로 변경하는 단계와; 상기 변경된 제2오브젝트를 표시하는 단계를 포함하는 사용자단말기의 제어방법에 의해 달성된다.
여기서, 상기 이동시키는 단계는, 상기 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 상기 제2오브젝트의 위치를 결정하는 단계를 포함할 수 있다.
그리고, 상기 제2오브젝트의 위치를 결정하는 단계는, 상기 제2오브젝트의 위치, 상기 제1오브젝트의 실행상황 및 상기 가장자리에 기초하여 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정하는 단계를 포함할 수 있다.
여기서, 상기 제2오브젝트는 상기 제1오브젝트의 형태, 색상, 영역, 상기 제1오브젝트로의 해제를 위한 영역, 상기 제1오브젝트로의 해제를 알리는 표시 중 적어도 하나를 포함할 수 있다.
그리고, 상기 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 상기 사용자 입력에 기초하여 상기 제2오브젝트를 상기 제1오브젝트로 변경하는 단계를 더 포함할 수 있다.
여기서, 상기 제1오브젝트로 변경하는 단계는, 상기 제2오브젝트에 대한 상기 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 상기 제1오브젝트의 위치를 결정하는 단계를 포함할 수 있다.
그리고, 복수의 상기 제2오브젝트를 중첩하여 표시하는 단계를 더 포함할 수 있다.
여기서, 상기 중첩하여 표시하는 단계는, 상기 사용자 입력에 기초하여 상기 중첩된 제2오브젝트 각각에 대하여 알리는 단계를 포함할 수 있다.
그리고, 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정하는 단계를 더 포함할 수 있다.
여기서, 상기 사용자 입력에 기초하여 상기 복수의 제1오브젝트를 상기 복수의 제2오브젝트로 변경하는 단계를 더 포함할 수 있다.
본 발명에 의하면, 오브젝트를 손쉽게 가장자리로 이동하고 크기를 감소시켜 오브젝트의 방해가 없는 화면영역의 중앙영역을 만들 수 있는 효과가 있다.
또한, 가장자리로 이동되고 크기가 감소된 오브젝트를 손쉽게 화면의 중앙영역으로 복귀시킬 수 있는 효과가 있다.
도 1은 본 발명과 관련된 사용자단말기(1)브젝트를 화면의 중앙영역에서 이동시키는 것을 나타내는 예시도이며,
도 2는 본 발명의 일 실시 예에 따른 사용자단말기를 이용하여 오브젝트를 가장지리로 이동시키어 크기를 감소시키는 것을 나타내는 예시도이고,
도3 은 본 발명에 따른 사용자단말기의 구성을 나타내는 블록도이며,
도 4 는 본 발명의 일 실시 예에 따른 사용자단말기의 구성을 나타내는 블록도이고,
도 5는 본 발명에 따른 사용자단말기의 제어방법을 나타내는 제어흐름도이며,
도 6은 본 발명의 일 실시 예에 따른 사용자단말기의 제어방법을 나타내는 제어흐름도이고,
도 7과 8은 본 발명의 다른 실시 예에 따른 사용자단말기의 제어방법을 나타내는 제어흐름도이며,
도 9는 본 발명의 일 실시 예에 따른 사용자단말기에서 터치스윙의 사용자입력으로 오브젝트를 가장자리로 이동하면서 크기를 감소시키는 것을 나타내는 예시도이고,
도 10은 본 발명의 일 실시 예에 따른 사용자단말기에서 이동되어 감소된 오브젝트를 화면의 중앙영역으로 복귀시키는 것을 나타내는 예시도이며,
도 11은 본 발명의 일 실시 예에 따른 사용자단말기에서 이동되어 감소된 오브젝트의 크기, 형태, 색상 및 투명도 등을 나타내는 예시도이고,
도 12는 본 발명의 일 실시 예에 따른 사용자단말기에서 오브젝트를 중첩하여 표시하는 것을 나타내는 예시도이고,
도 13은 본 발명의 일 실시 예에 따른 사용자단말기에서 중첩된 오브젝트 각각에 대하여 알리는 것을 나타내는 예시도이며,
도 14는 본 발명의 일 실시 예에 따른 사용자단말기에서 이동되어 감소된 가장자리의 오브젝트를 사용자의 터치스윙에 의한 입력으로 화면의 중앙영역으로 복귀시키는 것을 나타내는 예시도이고,
도 15는 본 발명의 일 실시 예에 따른 사용자단말기에서 복수의 오브젝트를 가장자리로 이동하여 감소시키고 복귀시키는 것을 나타내는 예시도이다.
이하에서는 첨부한 도면을 참조하여 본 발명에 대해 상세히 설명한다.
도 2는 본 발명의 일 실시 예에 따른 사용자단말기(10)를 이용하여 치아를 촬상하고 치아에 관한 분석정보가 화면에 표시되는 것을 나타내는 예시도이다.
도 2는 본 발명의 일 실시 예에 따른 사용자단말기(10)를 이용하여 오브젝트를 가장지리로 이동시키어 크기를 감소시키는 것을 나타내는 예시도이다.
(a) 사용자단말기(10) 화면의 중앙영역에 오브젝트 A가 표시되어 있을 수 있다.
(b) 사용자는 사용자단말기(10) 화면의 중앙영역에 표시되어 있는 오브젝트 A를 터치하여 우측으로 이동시킬 수 있다. 오브젝트A는 이동시킬 수 있는 터치영역이 존재할 수 있으며 오브젝트를 이동시키는 경우 이 터치영역을 터치하여 이동시켜야 할 수도 있다. 단 터치영역은 존재하지 않을 수 있으며 실행을 위한 터치와 달리 설정을 통하여 오브젝트 어느 영역이던지 터치하여 이동되도록 할 수도 있다.
(c) 사용자의 터치에 의해 이동되고 있는 오브젝트A의 적어도 일부가 화면영역을 벗어나도록 하거나 가장자리로부터 적어도 오브젝트의 크기와 기설정된 거리 등에 대한 설정에 의한 설정 이내에 이동되는 경우일 수 있다.
(d) 오브젝트A가 적어도 일부가 화면영역을 벗어나도록 하거나 가장자리로부터 적어도 오브젝트의 크기와 기설정된 거리 등에 대한 설정에 의한 설정 이내에 이동되면 오브젝트A는 오브젝트A보다 작은 크기의 오브젝트B로 변경시킨다. 또한, 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 오브젝트의 위치를 결정하고, 결정된 위치에 변경된 오브젝트B가 위치할 수 있다. 도 2의 (d)에서는 반원형태로 화면의 가장자리에 위치하고 있지만 그 형태는 한정되지 않는다. 또한, 오브젝트B는 오브젝트A가 변경된 것임을 알 수 있도록 오브젝트A의 특징적인 형태나 색상 그리고 로고 등에 대응하여 표시될 수 있다. 또한, 오브젝트B는 오브젝트A로 복귀되기 위한 해제를 위한 선택영역, 해제를 알리는 표시 중 적어도 하나를 표시할 수 있다.
도 2에서는 사용자입력을 터치, 드래그-앤-드롭의 방식으로 기술하였지만 이에 한정되지 않으며 터치하여 던지는 터치스윙의 방식, 복수의 터치입력 등으로도 구현될 수 있음은 물론이다.
도 3은 본 발명에 따른 사용자단말기(10)의 구성을 나타내는 블록도이다. 본 발명에 따른 사용자단말기(10)는 영상처리부(110), 디스플레이부(120) 및 제어부(100)를 포함할 수 있다.
영상처리부(110)가 수행하는 영상처리 프로세스의 종류는 한정되지 않으며, 예를 들면 소정 신호를 각 특성 별 신호로 분배하는 디멀티플렉싱(de-multiplexing), 영상신호의 영상 포맷에 대응하는 디코딩(decoding), 인터레이스(interlace) 방식의 영상신호를 프로그레시브(progressive) 방식으로 변환하는 디인터레이싱(de-interlacing), 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 강화(detail enhancement), 프레임 리프레시 레이트(frame refresh rate) 변환 등을 포함할 수 있으며, 인코딩된 소스영상의 영상 포맷에 대응하여 소스 영상을 디코딩하는 디코더(미도시) 및 디코딩된 소스영상을 프레임단위로 저장하는 프레임버퍼(미도시)를 포함할 수 있다.
영상처리부(110)는 이러한 여러 기능을 통합시킨 SOC(system-on-chip), 또는 이러한 각 프로세스를 독자적으로 수행할 수 있는 개별적인 구성들이 인쇄회로기판 상에 장착됨으로써 영상처리보드(미도시)로 구현되어 디스플레이장치에 내장될 수 있다.
영상처리부(110)는 수신부(미도시)로부터 수신되는 영상신호를 포함하는 방송신호 및 영상공급원(미도시)으로부터 제공받은 영상신호를 포함하는 소스영상에 대해 기 설정된 다양한 영상처리 프로세스를 수행한다. 영상처리부(110)는 이러한 프로세스가 수행된 영상신호를 디스플레이부(120)에 출력함으로써, 디스플레이부(120)에 처리된 소스영상이 표시될 수 있다.
디스플레이부(120)는 영상처리부(110)로부터 출력되는 영상신호에 기초하여 영상을 표시할 수 있다. 디스플레이부(120)의 구현 방식은 한정되지 않는 바, 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있다.
디스플레이부(120)는 그 구현 방식에 따라서 부가적인 구성을 추가적으로 포함할 수 있다. 예를 들면, 디스플레이부(120)가 액정 방식인 경우, 디스플레이부 액정 디스플레이 패널(미도시)과, 이에 광을 공급하는 백라이트유닛(미도시)과, 패널(미도시)을 구동시키는 패널구동기판(미도시)을 포함할 수 있다.
디스플레이부(120)는 영상처리부(110)에 의해 처리된 영상신호에 기초하여 영상을 표시한다. 디스플레이부(120)가 영상을 표시하는 방식에는 제한이 없으나, LCD, PDP, OLED 등의 방식을 포함한다. 이 경우, 디스플레이부(120)는 LCD패널, PDP패널, OLED패널 등을 포함할 수 있다.
디스플레이부(120)는 영상 및 색보정 과정을 표시할 수 있다. 디스플레이부(120)는 영상이 표시되는 디스플레이패널과 입력되는 영상신호를 처리하여 디스플레이패널에 영상이 표시되게 하는 패널구동부를 포함할 수 있으며, 자세한 구현 방식에 있어 한정되지 않는다. 인터페이스를 통해 외부의 입력소스로부터 수신된 영상신호는 디코딩(decoding), 디인터레이싱(deinterlacing), 스케일링(scaling) 등의 영상 처리 과정을 거쳐 디스플레이부(120)에 표시될 수 있다.
제어부(100)는 사용자단말기(10) 내부의 전반적인 구성을 제어할 수 있다. 제어부(100)는 영상에 포함된 제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동시키며, 제1오브젝트를 제1오브젝트보다 작은 크기의 제2오브젝트로 변경되어 디스플레이부(110)에 표시되도록 영상처리부(110)를 제어할 수 있다.
도 4는 본 발명의 일 실시 예에 따른 사용자단말기(10)의 구성을 나타내는 블록도이다. 본 발명의 일 실시 예에 따른 사용자단말기(10)는 도 3의 구성을 포함할 수 있으며, 추가로 통신부(130), 저장부(140), 사용자입력부(150), 음성수신부(160), 촬상부(170) 및 UI생성부(180)을 포함할 수 있다.
통신부(130)는 외부입력에 의한 신호를 수신하여 영상처리부(110) 또는 제어부(100)에 전달할 수 있다. 통신부(130)는 다양한 외부입력 케이블이 접속됨으로써 해당 외부입력으로부터의 신호를 유선으로 수신하며, 또는 무선으로 수신되는 신호를 미리 정해진 무선통신규격에 따라서 수신할 수 있다.
통신부(130)는 각 케이블이 개별적으로 접속되는 복수의 커넥터(미도시)를 포함할 수 있다. 통신부(130)는 접속된 외부입력으로부터의 신호, 예를 들면 HDMI, USB, 컴포넌트(component) 규격에 따른 방송신호, 영상신호, 데이터신호 등을 수신하거나, 또는 통신 네트워크를 통한 통신데이터를 수신할 수 있다.
통신부(130)는 외부입력으로부터의 신호/데이터를 수신하는 구성뿐 아니라, 사용자단말기(10)의 설계 방식에 따라서, 무선 통신을 위한 무선통신모듈(미도시)이나 방송신호의 튜닝을 위한 튜너(미도시)와 같은 다양한 부가적인 구성을 더 포함할 수 있다. 통신부(130)는 외부장치로부터 신호를 수신하는 것 이외에도, 사용자단말기(10)의 정보/데이터/신호를 외부장치에 전송할 수도 있다. 즉, 통신부(130)는 외부장치로 신호를 수신하는 구성으로만 한정할 수 없으며, 양방향 통신이 가능한 인터페이스(interface)로 구현될 수 있다. 통신부(130)는 복수의 제어장치로부터 UI를 선택하기 위한 제어신호를 수신할 수 있다. 통신부(130)는 블루투스(Bluetooth), IR(Infrared), UWB(Ultra Wideband), 지그비(Zigbee) 등 공지의 근거리 무선통신을 위한 통신모듈로 구성될 수 있으며, 유선통신을 위한 공지의 통신포트로 구성될 수도 있다. 통신부(130)는 UI를 선택하기 위한 제어신호 이외에, 디스플레이의 조작을 위한 명령, 데이터의 송수신 등 다양한 목적으로 활용될 수 있다.
저장부(140)는 사용자단말기(10)에 전원이 차단되더라도 데이터들이 남아있어야 하며, 사용자의 변동 사항을 반영할 수 있도록 쓰기 가능한 비휘발성 메모리(Writable ROM)로 마련되는 것이 바람직하다. 즉, 저장부(140)는 플래쉬 메모리(Flash Memory) 또는 EPROM 또는 EEPROM 중 어느 하나로 마련될 수 있다.
사용자입력부(150)는 사용자의 조작 및 입력에 따라서 기 설정된 다양한 제어 커맨드 또는 정보를 제어부(100)에 전달할 수 있다. 사용자입력부(150)는 사용자단말기(10) 외측에 설치된 메뉴 키(menu-key) 또는 입력 패널(panel)이나, 사용자단말기(10)와 분리 이격된 리모트 컨트롤러(remote controller) 등으로 구현될 수 있다. 또는, 사용자입력부(150)는 디스플레이부(120)와 일체형으로 구현될 수 있는 바, 디스플레이부(120)가 터치스크린(touch-screen)인 경우에 사용자는 디스플레이부(120)에 표시된 입력메뉴(미도시)를 터치함으로써 기 설정된 커맨드를 제어부(100)에 전달할 수 있다.
사용자입력부(150)는 사용자의 모션 및 음성을 수신할 수 있다. 사용자의 모션은 터치입력을 포함할 수 있다. 사용자입력부(150)는 사용자의 모션 및 음성을 직접 수신할 수도 있고, 혹은 사용자의 모션 및 음성에 관한 정보를 외부장치로부터 수신할 수도 있다.
음성수신부(160)는 마이크로 마련되어 사용자의 음성명령을 수신하여 제어부(100)로 전송할 수 있다.
촬상부(170)는 마이크로 마련되어 사용자의 제스쳐를 수신하여 제어부(100)로 전송할 수 있다.
UI생성부(180)는 실행되는 응용프로그램을 동작하기 위한 UI를 생성할 수 있다. 생성되는 UI는 아이콘, 텍스트 등의 형태로 제공되는 복수의 서브 UI를 포함하며, 사용자가 사용자단말기(10)를 통해 특정 서브UI를 선택하면 선택된 서브UI에 대응하여 응용프로그램이 동작될 수 있다. 즉, 각각의 서브UI는 사용자단말기(10)에서 실행 중인 응용프로그램을 동작할 수 있는 복수의 기능 또는 이벤트 단위로 생성될 수 있다.
UI생성부(180)는 디스플레이부(120)에 표시되는 UI를 생성하고 제어하는 소프트웨어 또는 하드웨어 적 기능을 의미하는 것으로, 후술할 제어부(100)에 의해 그 기능이 수행될 수 있을 것이다. 다시 말하면, UI생성부(180)가 별도의 칩셋으로 구성되거나, 별도의 마이크로프로세서에 의해 구현될 수도 있다.
제어부(100)는 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 제2오브젝트의 위치를 결정할 수 있다.
제어부(100)는 제2오브젝트의 위치, 제1오브젝트의 실행상황 및 가장자리에 기초하여 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정할 수 있다.
제2오브젝트는 제1오브젝트의 형태, 색상, 영역, 제1오브젝트로의 해제를 위한 영역, 제1오브젝트로의 해제를 알리는 표시 중 적어도 하나를 포함할 수 있다.
제어부(100)는 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 사용자 입력에 기초하여 제2오브젝트를 제1오브젝트로 변경할 수 있다.
제어부(100)는 제2오브젝트에 대한 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 제1오브젝트의 위치를 결정할 수 있다.
제어부(100)는 복수의 제2오브젝트를 중첩하여 표시할 수 있다.
제어부(100)는 사용자 입력에 기초하여 중첩된 제2오브젝트 각각에 대하여 UI를 통하여 알릴 수 있다.
제어부(100)는 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정할 수 있다.
제어부(100)는 사용자 입력에 기초하여 복수의 제1오브젝트를 복수의 제2오브젝트로 변경할 수 있다.
도 5는 본 발명에 따른 사용자단말기(10)의 제어방법을 나타내는 제어흐름도이다.
영상에 포함된 제1오브젝트를 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 제1오브젝트를 디스플레이부 화면영역의 가장자리로 이동한다(S11).
제1오브젝트를 제1오브젝트보다 작은 크기의 제2오브젝트로 변경한다(S12).
변경된 제2오브젝트를 표시한다(S13).
도 6은 본 발명의 일 실시 예에 따른 사용자단말기(10)의 제어방법을 나타내는 제어흐름도이다.
제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정한다(S21).
제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동한다(S22).
사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 제2오브젝트의 위치를 결정한다(S23).
제2오브젝트의 위치, 제1오브젝트의 실행상황 및 가장자리에 기초하여 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정한다(S24).
제1오브젝트를 제1오브젝트보다 작은 크기의 제2오브젝트로 변경한다(S25).
변경된 제2오브젝트를 표시한다(S26).
제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 사용자 입력에 기초하여 제2오브젝트를 제1오브젝트로 변경한다(S27).
제2오브젝트에 대한 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 제1오브젝트의 위치를 결정한다(S28). 여기서 S27단계와 S28단계의 순서는 어느 것이던 관계없다.
변경된 제1오브젝트를 표시한다(S29).
도 7과 8은 본 발명의 다른 실시 예에 따른 사용자단말기(10)의 제어방법을 나타내는 제어흐름도이다
제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정한다(S31).
제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 제1오브젝트를 디스플레이부(120) 화면영역의 가장자리로 이동한다(S32).
사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 제2오브젝트의 위치를 결정한다(S33).
제2오브젝트의 위치, 제1오브젝트의 실행상황 및 가장자리에 기초하여 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정한다(S34).
제1오브젝트를 제1오브젝트보다 작은 크기의 제2오브젝트로 변경한다(S35).
변경된 제2오브젝트를 표시한다(S36).
방향이 중첩되는 복수의 제2오브젝트를 중첩하여 표시한다(S37).
사용자 입력에 기초하여 중첩된 제2오브젝트 각각에 대하여 알리는 정보를 표시한다(S38).
복수의 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 사용자 입력에 기초하여 복수의 제2오브젝트를 복수의 제1오브젝트로 변경한다(S39).
복수의 제2오브젝트에 대한 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 복수의 제2오브젝트에 대응하는 복수의 제1오브젝트의 위치를 결정한다(S40). 여기서 S27단계와 S28단계의 순서는 어느 것이던 관계없다.
변경된 복수의 제1오브젝트를 표시한다(S41).
도 9는 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 터치스윙의 사용자입력으로 오브젝트를 가장자리로 이동하면서 크기를 감소시키는 것을 나타내는 예시도이다.
(a) 사용자는 디스플레이부(120)에 표시된 제1오브젝트 의 T1지점을 터치하여 우측방향으로 던지듯이, 스윙하듯이 제1오브젝트를 T2지점까지 드래그하다가 T2지점에서 터치를 해제한다.
(b) 이러한 사용자의 입력에 의해 사용자의 터치가 해제된 이후에도 슬라이딩되어 제1오브젝트는 우측으로 이동하게 된다. 그러면 화면 중앙 있던 제1오브젝트의 영역 A1은 시야의 방해를 받지 않게 되며 제1오브젝트는 A2영역에 위치하게 된다. 제1오브젝트의 우측의 일부분은 화면영역에서 벗어나 보이지 않게 될 수 있다.
(c) 제어부(100)는 제1오브젝트가 화면의 우측면에 일정 거리 이내에 위치하는 지를 파악하거나, 제1오브젝트의 적어도 일부분이 화면영역을 벗어났거나, 제1오브젝트의 전체부분이 화면영역을 벗어났을 대를 기준으로 제2오브젝트 B로 변경하여 표시할 수 있다. 제2오브젝트 B는 반원형상으로 표시될 수 있으며, 표시되는 제2오브젝트 B의 상측 부분에는 전체영역을 표시하도록 하는 전체형상(□)을 나타내는 표시를 표시할 수 있으며, 하측 부분에는 최소화로 표시하도록 하는 최소화형상()을 나타내는 표시를 표시할 수 있다. 제2오브젝트 B의 형상을 일 예일 뿐이며 여러 가지 다른 형상으로 마련될 수 있으며 설정될 수 있다.
도 10은 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 이동되어 감소된 오브젝트를 화면의 중앙영역으로 복귀시키는 것을 나타내는 예시도이다.
(a) 디스플레이부(120) 화면의 가장자리에 위치해 있는 제2오브젝트 B를 사용자는 터치하여 도시된 바와 같이 좌측으로 드래그를 할 수 있다.
(b) 이에 제2오브젝트 B는 좌측으로 이동되며 사용자가 원하는 위치에서 멈추어 위치한다.
(c) 사용자는 제2오브젝트 B에 표시될 수 있는 표시형상 및 크기에 대한 표시영역을 터치하여 제1오브젝트 A로 변경시킬 수 있다.
설정에 따라 제2오브젝트 B를 제1오브젝트 A로 복귀시키는 사용자입력은 달라질 수 있다. 제2오브젝트B를 터치하는 것으로 원래의 위치로 이전의 제1오브젝트 A의 크기로 변경할 수도 있으며, 사용자의 드래그에 의해 위치가 변경되어 변경될 수도 있다. 또한, 제2오브젝트B는 터치스윙의 정도에 따라 화면 중앙영역의 위치로 이동되어 제1오브젝트 A로 변경이 될 수 있다. 그리고, 사용자의 터치스윙에 의해 반대측의 가장자리로 제2오브젝트B가 이동되어 위치할 수도 있다. 제2오브젝트B가 이동되는 중 제1오브젝트 A로 변경이 될 수도 있으며 변경되지 않고 이동만 할 수도 있다.
도 11은 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 이동되어 감소된 오브젝트의 크기, 형태, 색상 및 투명도 등을 나타내는 예시도이다.
사용자단말기(10)의 화면 중앙에서 가장자리로 이동되어 크기가 감소된 제2오브젝트는 여러 가지의 크기, 형상, 색상 및 투명도 등으로 표시될 수 있다.
제2오브젝트 B1은 반원 형상으로 전체화면/최소화화면을 표시하도록 하는 표시를 포함하고 있을 수 있다. 제2오브젝트 B1의 크기는 사용자의 설정에 따라 기설정될 수 있으며 변경될 수도 있다. 도 11에서는 가장자리 즉, 화면 우측에 밀착하여 위치하고 있지만 밀착하지 않고 화면 우측에서 약간 이격되어 위치할 수도 있다. 제2오브젝트 B1의 색상은 변경 전 제1오브젝트의 색상에 대응하여 설정되는 것이 바람직하다.
제2오브젝트 B2는 제2오브젝트 B1과는 달리 사각 형상으로 확대/감소되도록 하는 표시를 포함하고 있을 수 있다. 이에 의해 제2오브젝트 B2는 크기가 변경될 수도 있다. 사용자의 취향에 따라 사각 형상의 오브젝트로 설정될 수도 있으며 그 위치에 따라 제2오브젝트 B2의 형상을 변경시킬 수도 있다.
제2오브젝트 B3는 반원 형상으로 변경 전 제1오브젝트의 로고이미지가 표시되어 있을 수 있다. 또한, 제2오브젝트 B3는 하이라이트되어 다른 제2오브젝트와는 구별되도록 할 수도 있다. 하이라이트되어 다른 제2오브젝트와는 구별되게 하는 것은 저장되어 있어 재생에 대한 조정이 가능한 영상과는 중계되고 있는 방송영상일 수 있으며, 메신져의 경우 메시지가 도착한 것을 알리는 것으로 하이라이트가 될 수도 있다.
제2오브젝트 B4는 삼각형상으로 마련된 오브젝트일 수 있다.
제2오브젝트 B5는 화면의 가장자리에 위치하지만 다른 제2오브젝트들과는 다르게 제1오브젝트의 형상을 유지하고 있을 수 있다. 제2오브젝트 B5는 내용을 표시할 수 있도록 마련될 수 있으며 다른 제1오브젝트에는 시야적으로 덜 방해가 되도록 투명도를 가지게 설정될 수 있다. 이를 테면 일정표의 제1오브젝트는 그 내용을 간략하게라도 유지하여 사용자에게 정보를 제공할 수도 있다.
도 12는 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 오브젝트를 중첩하여 표시하는 것을 나타내는 예시도이다.
제1오브젝트가 이동 및 변경되어 화면의 가장자리에 위치하는 제2오브젝트가 많아질 수도 있다. 이런 경우 사용자는 복수의 제1오브젝트를 유사한 방향으로 이동시켜 제2오브젝트로 변경할 수 있다. 사용자의 입력이 제2오브젝트가 위치하고 있는 방향이면 제어부(100)는 이동되어 온 제2오브젝트를 위치하고 있는 제2오브젝트의 양측으로 위치하게 할 수 있다. 또한, 설정에 따라서는 도 12에 도시된 바와 같이, 제2오브젝트(E, F, G, H, I, J)들이 중첩되어 표시될 수 있다. 이를테면 사용자는 어느 하나의 제1오브젝트를 우측으로 이동시켜서 제2오브젝트로 변경하였고 이동시킨 방향에 원하는 제2오브젝트가 있을 것으로 판단하고 있는데 중첩하지 않고 계속 유사한 방향으로 사용자가 제1오브젝트를 이동시키면 우측의 화면 가장자리를 따라 사용자가 이동시킨 방향과는 다른 방향에 제2오브젝트가 위치하게 되면 사용자는 조금 혼돈이 될 수도 있으므로 중첩하여 제2오브젝트의 그룹을 형성하게 할 수 있다. 물론 화면의 중앙영역을 가리지 않는 범위까지 중첩되도록 설정하는 것이 바람직하다.
도 13은 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 중첩된 오브젝트 각각에 대하여 알리는 것을 나타내는 예시도이다.
도 12의 설명과 같이 제2오브젝트들이 중첩되어 있는 경우 중첩된 제2오브젝트들이 어떠한 어플리케이션의 오브젝트인지 알기 어려울 수도 있다. 그러므로 사용자가 제2오브젝트의 그룹을 터치하거나 터치하기 위하여 사용자와 디스플레이부(120) 화면과의 거리가 소정 거리 이내이면 각 제2오브젝트에 대하여 어떠한 어플리케이션의 오브젝트인지를 안내할 수 있다. UI를 통하여 각각 전체에 대하여 안내를 할 수도 있으며 사용자가 선택한 제2오브젝트에 대하여만 안내를 할 수도 있다. 도 13에 도시된 바와 같이, 중첩되어 있는 제2오브젝트(E, F, G, H, I, J) 들에 대하여 안내UI (a)를 표시할 수도 있다.
도 14는 본 발명의 일 실시 예에 따른 사용자단말기(10)에서 이동되어 감소된 가장자리의 오브젝트를 사용자의 터치스윙에 의한 입력으로 화면의 중앙영역으로 복귀시키는 것을 나타내는 예시도이다.
사용자단말기(10)의 화면 중앙에서 가장자리로 이동되어 크기가 감소된 제2오브젝트(B)를 사용자는 터치하여 좌측으로 D1거리만큼 드래그한 후 터치를 해제할 수 있다. 사용자입력에 의해 제2오브젝트는 제1오브젝트로 변경되어 화면에 표시될 수 있다. 그리고 사용자의 좌측으로 D1거리만큼 드래그한 속도에 따라 제1오브젝트가 이동되어 A1영역 내지 A2영역 중 어느 한 영역에 표시될 수 있다. 사용자의 드래그이동속도가 크면 클수록 대응하여 제1오브젝트는 많이 이동되어 화면의 좌측으로 많이 이동될 수 있으며, 사용자의 드래그이동속도가 작으면 작을수록 제1오브젝트는 적게 이동되어 화면의 좌측으로 적게 이동될 수 있을 것이다.
도 15는 본 발명의 일 실시 예에 따른 사용자단말기에서 복수의 오브젝트를 가장자리로 이동하여 감소시키고 복귀시키는 것을 나타내는 예시도이다.
사용자는 복수의 제1오브젝트(A1, A2, A3)를 3개의 손가락을 이용하여 터치(T1, T2, T3)하여 선택한 후 D1방향으로 드래그하여 스윙을 하면서 터치를 해제할 수 있다. 이에 대하여 복수의 제1오브젝트(A1, A2, A3)는 D1방향에 대한 가장자리의 위치로 이동되어 제2오브젝트로 변경될 수 있다. 이와 같이 한꺼번에 복수의 제1오브젝트를 이동시켜 대응하는 각각의 제1오브젝트로 변경하는 것도 가능하다. 반대로 제2오브젝트를 제1오브젝트로 해제/ 변경하는 경우도 마찬가지로 복수의 제2오브젝트(B, C, D)를 사용자는 3개의 손가락을 이용하여 터치(T4, T5, T6)하여 선택한 후 D2방향으로 드래그하여 스윙을 하면서 터치를 해제할 수 있다. 이에 따라 제2오브젝트(B, C, D)는 각각 복수의 제1오브젝트(A1, A2, A3)로 변경되어 화면 중앙영역에 표시될 수도 있다.
상기의 사용자단말기(10)로 인하여, 디스플레이부(120) 화면의 중앙영역에 시야를 방해할 수 있는 제1오브젝트를 화면의 가장자리로 이동시켜 손쉽게 제2오브젝트로 변경할 수 있음으로써 직관적으로 손쉽게 사용자단말기(10)를 사용할 수 있다.
지금까지 본 발명의 실시 예가 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 실시 예를 변형할 수 있을 것이다. 따라서, 발명의 범위는 지금까지 설명된 실시 예로 정해지는 것이 아니라 첨부된 청구항과 그 균등물에 의해 정해질 것이다.

Claims (15)

  1. 사용자단말기에 있어서,
    영상을 처리할 수 있는 영상처리부와;
    상기 처리된 영상을 표시할 수 있는 디스플레이부와;
    상기 영상에 포함된 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 상기 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동시키며, 상기 제1오브젝트를 상기 제1오브젝트보다 작은 크기의 제2오브젝트로 변경되어 상기 디스플레이부에 표시되도록 상기 영상처리부를 제어하는 제어부를 포함하는 사용자단말기.
  2. 제1항에 있어서,
    상기 제어부는 상기 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 상기 제2오브젝트의 위치를 결정하는 사용자단말기.
  3. 제2항에 있어서,
    상기 제어부는 상기 제2오브젝트의 위치, 상기 제1오브젝트의 실행상황 및 상기 가장자리에 기초하여 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정하는 사용자단말기.
  4. 제1항에 있어서,
    상기 제2오브젝트는 상기 제1오브젝트의 형태, 색상, 영역, 상기 제1오브젝트로의 해제를 위한 영역, 상기 제1오브젝트로의 해제를 알리는 표시 중 적어도 하나를 포함하는 사용자단말기.
  5. 제1항에 있어서,
    상기 제어부는 상기 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 상기 사용자 입력에 기초하여 상기 제2오브젝트를 상기 제1오브젝트로 변경하는 사용자단말기.
  6. 제5항에 있어서,
    상기 제어부는 상기 제2오브젝트에 대한 상기 사용자 입력의 방향, 정도, 종류, 입력 해제 위치 중 적어도 하나에 기초하여 상기 제1오브젝트의 위치를 결정하는 사용자단말기.
  7. 제1항에 있어서,
    상기 제어부는 복수의 상기 제2오브젝트를 중첩하여 표시하는 사용자단말기.
  8. 제7항에 있어서,
    상기 제어부는 상기 사용자 입력에 기초하여 상기 중첩된 제2오브젝트 각각에 대하여 알리는 사용자단말기.
  9. 제1항에 있어서,
    상기 제어부는 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나에 대하여 설정하는 사용자단말기.
  10. 제1항에 있어서,
    상기 제어부는 상기 사용자 입력에 기초하여 상기 복수의 제1오브젝트를 상기 복수의 제2오브젝트로 변경하는 사용자단말기.
  11. 사용자단말기의 제어방법에 있어서,
    영상에 포함된 제1오브젝트를 디스플레이부 화면영역의 가장자리로 이동되도록 하는 사용자 입력에 기초하여 상기 제1오브젝트를 상기 디스플레이부 화면영역의 가장자리로 이동시키는 단계와;
    상기 제1오브젝트를 상기 제1오브젝트보다 작은 크기의 제2오브젝트로 변경하는 단계와;
    상기 변경된 제2오브젝트를 표시하는 단계를 포함하는 사용자단말기의 제어방법.
  12. 제11항에 있어서,
    상기 이동시키는 단계는,
    상기 사용자 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나에 기초하여 상기 제2오브젝트의 위치를 결정하는 단계를 포함하는 사용자단말기의 제어방법.
  13. 제12항에 있어서,
    상기 제2오브젝트의 위치를 결정하는 단계는,
    상기 제2오브젝트의 위치, 상기 제1오브젝트의 실행상황 및 상기 가장자리에 기초하여 상기 제2오브젝트의 크기, 형태, 색상 및 투명도 중 적어도 하나를 결정하는 단계를 포함하는 사용자단말기의 제어방법.
  14. 제11항에 있어서,
    상기 제2오브젝트는 상기 제1오브젝트의 형태, 색상, 영역, 상기 제1오브젝트로의 해제를 위한 영역, 상기 제1오브젝트로의 해제를 알리는 표시 중 적어도 하나를 포함하는 사용자단말기의 제어방법.
  15. 제11항에 있어서,
    상기 제2오브젝트에 대한 입력의 방향, 입력 해제 위치, 입력의 종류 중 적어도 하나를 포함하는 상기 사용자 입력에 기초하여 상기 제2오브젝트를 상기 제1오브젝트로 변경하는 단계를 더 포함하는 사용자단말기의 제어방법.
PCT/KR2016/004323 2016-01-22 2016-04-26 사용자단말기 및 그 제어방법 WO2017126744A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/069,597 US10824314B2 (en) 2016-01-22 2016-04-26 User terminal and control method of the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0008338 2016-01-22
KR1020160008338A KR20170088229A (ko) 2016-01-22 2016-01-22 사용자단말기 및 그 제어방법

Publications (1)

Publication Number Publication Date
WO2017126744A1 true WO2017126744A1 (ko) 2017-07-27

Family

ID=59362015

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/004323 WO2017126744A1 (ko) 2016-01-22 2016-04-26 사용자단말기 및 그 제어방법

Country Status (3)

Country Link
US (1) US10824314B2 (ko)
KR (1) KR20170088229A (ko)
WO (1) WO2017126744A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD915446S1 (en) * 2019-02-19 2021-04-06 Beijing Xiaomi Mobile Software Co., Ltd. Mobile phone with animated graphical user interface
CN112118333A (zh) * 2019-06-20 2020-12-22 摩托罗拉移动有限责任公司 响应于用户输入改变操作模式的电子设备和相应方法
CN113920224A (zh) * 2021-09-29 2022-01-11 北京达佳互联信息技术有限公司 素材展示方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090228820A1 (en) * 2008-03-07 2009-09-10 Samsung Electronics Co. Ltd. User interface method and apparatus for mobile terminal having touchscreen
WO2013051762A1 (ko) * 2011-10-05 2013-04-11 한국과학기술원 베젤 영역을 이용한 사용자 단말 제어방법
US20130132885A1 (en) * 2011-11-17 2013-05-23 Lenovo (Singapore) Pte. Ltd. Systems and methods for using touch input to move objects to an external display and interact with objects on an external display
WO2013151322A1 (en) * 2012-04-06 2013-10-10 Samsung Electronics Co., Ltd. Method and device for executing object on display
US20130275901A1 (en) * 2011-12-29 2013-10-17 France Telecom Drag and drop operation in a graphical user interface with size alteration of the dragged object

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150077774A (ko) 2013-12-30 2015-07-08 삼성전자주식회사 화면 전환 방법 및 그 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090228820A1 (en) * 2008-03-07 2009-09-10 Samsung Electronics Co. Ltd. User interface method and apparatus for mobile terminal having touchscreen
WO2013051762A1 (ko) * 2011-10-05 2013-04-11 한국과학기술원 베젤 영역을 이용한 사용자 단말 제어방법
US20130132885A1 (en) * 2011-11-17 2013-05-23 Lenovo (Singapore) Pte. Ltd. Systems and methods for using touch input to move objects to an external display and interact with objects on an external display
US20130275901A1 (en) * 2011-12-29 2013-10-17 France Telecom Drag and drop operation in a graphical user interface with size alteration of the dragged object
WO2013151322A1 (en) * 2012-04-06 2013-10-10 Samsung Electronics Co., Ltd. Method and device for executing object on display

Also Published As

Publication number Publication date
US10824314B2 (en) 2020-11-03
KR20170088229A (ko) 2017-08-01
US20190026012A1 (en) 2019-01-24

Similar Documents

Publication Publication Date Title
WO2013180454A1 (en) Method for displaying item in terminal and terminal using the same
WO2014069926A1 (en) Display apparatus and control method for displaying an operational state of a user's input
WO2015065018A1 (ko) 디스플레이 기기에서 복수의 서브 화면들을 제어하는 방법 및 이를 위한 디스플레이 장치
WO2013133486A1 (en) Device, method and timeline user interface for controlling home devices
WO2014003337A1 (ko) 유아이 조절 방법 및 이를 사용하는 사용자 단말기
WO2011040694A1 (en) Controlling program guide in broadcast receiving device
WO2015119389A1 (en) User terminal and control method thereof
EP3304922A1 (en) Image displaying apparatus and method of operating the same
WO2018194275A1 (ko) 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
WO2016190545A1 (en) User terminal apparatus and control method thereof
JP6084038B2 (ja) ディスプレイ装置及びその制御方法
WO2017126744A1 (ko) 사용자단말기 및 그 제어방법
WO2020213834A1 (ko) 복수의 어플리케이션의 실행화면들을 표시하는 전자 장치 및 그의 동작 방법
WO2018080165A1 (en) Image display apparatus, mobile device, and methods of operating the same
WO2015182811A1 (ko) 사용자 인터페이스 제공 장치 및 방법
WO2014182140A1 (en) Display apparatus and method of providing a user interface thereof
WO2017069551A1 (en) Image displaying apparatus and method of operating the same
WO2013062282A1 (en) Method of operating a background content and terminal supporting the same
JP2013143139A (ja) 入力装置、ディスプレイ装置、その制御方法及びディスプレイシステム
WO2016129843A1 (en) Display apparatus and display method
KR101715937B1 (ko) 프로젝터가 장착된 디스플레이 장치 및 그 제어 방법
WO2016043448A1 (en) Display apparatus and method of displaying indicator thereof
WO2017082490A1 (en) Display apparatus and control method thereof
WO2013141598A1 (en) User terminal, electronic device, and control method thereof
WO2015122740A1 (ko) 디스플레이장치 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16886587

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16886587

Country of ref document: EP

Kind code of ref document: A1