WO2019198844A1 - Method and system for controlling media player - Google Patents

Method and system for controlling media player Download PDF

Info

Publication number
WO2019198844A1
WO2019198844A1 PCT/KR2018/004287 KR2018004287W WO2019198844A1 WO 2019198844 A1 WO2019198844 A1 WO 2019198844A1 KR 2018004287 W KR2018004287 W KR 2018004287W WO 2019198844 A1 WO2019198844 A1 WO 2019198844A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
media player
computer
touch input
touch
Prior art date
Application number
PCT/KR2018/004287
Other languages
French (fr)
Korean (ko)
Inventor
정재헌
류대원
조민경
조성용
최진원
Original Assignee
라인플러스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라인플러스 주식회사 filed Critical 라인플러스 주식회사
Priority to PCT/KR2018/004287 priority Critical patent/WO2019198844A1/en
Priority to KR1020207027238A priority patent/KR102512879B1/en
Priority to JP2020555857A priority patent/JP7183295B6/en
Publication of WO2019198844A1 publication Critical patent/WO2019198844A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks

Definitions

  • the following description relates to a method and system for controlling a media player. More specifically, the user can perform various operations such as playing, stopping, selecting content, navigating in content, adjusting the volume, and the like for content provided by the media player.
  • a control method capable of providing a user experience (UX) and / or a user interface (UI) so as to be easily processed by a computer, a computer device performing the control method, and a computer coupled with the computer to execute the control method.
  • UX user experience
  • UI user interface
  • a computer program stored in a computer readable recording medium and a recording medium thereof.
  • a user experience in the form of providing a physical key button corresponding to each of the various operations for the media player or arranging virtual buttons corresponding to each of the various operations on the screen;
  • UI user interface
  • Korean Patent Laid-Open Publication No. 10-2010-0019241 relates to a technology for controlling a media player, and includes an icon for controlling a built-in media player by receiving a user input on a standby screen of a provided display means. It discloses that the media player to be displayed can be controlled.
  • UX user experience
  • UI user interface
  • a control method capable of providing a computer, a computer apparatus for performing the control method, and a computer program coupled to a computer and stored in a computer readable recording medium for executing the control method on a computer are provided.
  • Managing a plurality of layered objects for control of the media player Recognizing that the touch input is maintained for a first predetermined time or more at a first position of the touch screen of the computer device associated with the execution of the media player, objects of a higher layer among the plurality of objects are displayed through the touch screen.
  • the objects of the lower layer may be managed.
  • the categories may include: (1) a first category including a previous content selection operation, a next content selection operation, a play and stop playback operation of the selected content, (2) a forward search operation for the selected content and the selected content Two or more categories including a second search operation for the reverse search operation, and (3) a third category including a volume increase operation and a volume decrease operation.
  • the step of applying the operation corresponding to the second object to the media player, the degree for applying the operation to the media player based on the distance between the third position and the second position. I can regulate it.
  • applying the operation corresponding to the second object to the media player the closer the third position is to the second position relative to the degree for applying the operation to the media player. Decrease, and as the third position moves away from the second position, the degree of applying the manipulation to the media player can be relatively increased.
  • the degree for applying the manipulation to the media player includes a degree of decrease in search speed, a degree of increase in search speed, a degree of decrease in volume, and a degree of increase in volume depending on the type of the second object. It may include any one of.
  • displaying the objects of the upper layer may dynamically determine display positions of the objects of the upper layer based on the first position.
  • displaying the objects of the lower layer may dynamically determine the display position of the objects of the lower layer based on the second position.
  • control method may be configured to provide at least one of visual, auditory, and tactile feedback to at least one of: maintaining the touch input at the first position and moving the touch input to the second position. It may further include the step of outputting.
  • a computer program stored on a computer readable recording medium for executing the control method on the computer.
  • a computer-readable recording medium having a program recorded thereon for executing the control method on a computer is provided.
  • At least one processor implemented to execute readable instructions on a computer device, wherein the at least one processor manages a plurality of layered objects for control of a media player and is associated with execution of the media player.
  • the at least one processor manages a plurality of layered objects for control of a media player and is associated with execution of the media player.
  • objects of a higher layer among the plurality of objects are displayed on the touch screen, and the touch input is displayed. Recognizing the object of the lower layer corresponding to the first object is moved to the second position corresponding to the first object of the displayed upper layer object from the first position and maintained for more than a second predetermined time.
  • the operation corresponding to the second object may be recalled.
  • a computer device applied to a media player.
  • UX user experience
  • UI user interface
  • FIG. 1 is a diagram illustrating an example of a network environment according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an example of a computer device according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a control method according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of displaying an object of a higher layer according to an embodiment of the present invention.
  • 5 to 7 are diagrams illustrating examples of displaying objects of a lower layer according to an embodiment of the present invention.
  • the control method according to embodiments of the present invention may be implemented through a computer device such as an electronic device to be described later.
  • a computer program according to an embodiment of the present invention may be installed and run on the computer device, and the computer device may perform the control method according to the embodiments of the present invention under the control of the driven computer program.
  • the above-described computer program may be stored in a computer-readable recording medium in combination with a computer device for causing the computer to execute the control method.
  • FIG. 1 is a diagram illustrating an example of a network environment according to an embodiment of the present invention.
  • the network environment of FIG. 1 illustrates an example including a plurality of electronic devices 110, 120, 130, and 140, a plurality of servers 150 and 160, and a network 170.
  • 1 is an example for describing the invention, and the number of electronic devices and the number of servers are not limited as shown in FIG. 1.
  • the plurality of electronic devices 110, 120, 130, and 140 may be a fixed terminal or a mobile terminal implemented with a computer device.
  • Examples of the plurality of electronic devices 110, 120, 130, and 140 include a smart phone, a mobile phone, a navigation device, a computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), and a portable multimedia player (PMP). Tablet PC).
  • PDA personal digital assistant
  • PMP portable multimedia player
  • Tablet PC Tablet PC
  • FIG. 1 illustrates the shape of a smartphone as an example of the electronic device 1 110
  • the electronic device 1 110 may use a wireless or wired communication method to substantially connect the network 170. It may refer to one of various physical computer devices capable of communicating with other electronic devices 120, 130, 140 and / or server 150, 160 via.
  • the communication method is not limited and may include short-range wireless communication between devices as well as a communication method utilizing a communication network (for example, mobile communication network, wired internet, wireless internet, and broadcasting network) that the network 170 may include.
  • the network 170 may include a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), and a broadband network (BBN). And one or more of networks such as the Internet.
  • the network 170 may also include any one or more of network topologies, including bus networks, star networks, ring networks, mesh networks, star-bus networks, trees, or hierarchical networks, but It is not limited.
  • Each of the servers 150 and 160 communicates with the plurality of electronic devices 110, 120, 130, and 140 via the network 170 to provide a command, code, file, content, service, or the like. It may be implemented in devices.
  • the server 150 may be a service (eg, a content providing service, a social network service, a messaging service, or a search service) with a plurality of electronic devices 110, 120, 130, and 140 connected through the network 170. , Mail service, etc.).
  • the control method according to the exemplary embodiments of the present invention is an embodiment.
  • the control method according to the embodiment of FIG. 1 may be a description of a case where the electronic device 110 receives content from the server 150 and plays the content through a media player.
  • the electronic device 110 may include a case in which the electronic device 110 plays content stored in the local storage of the electronic device 110 through the media player without separate communication with the server 150.
  • FIG. 2 is a block diagram illustrating an example of a computer device according to an embodiment of the present invention.
  • Each of the plurality of electronic devices 110, 120, 130, and 140 or each of the servers 150 and 160 described above may be implemented by the computer device 200 shown in FIG. 2.
  • a computer program according to an embodiment may be installed and driven in the computer device 200, and the computer device 200 may share and reproduce a sound source according to embodiments of the present disclosure under the control of the driven computer program. The method can be performed.
  • the computer device 200 may include a memory 210, a processor 220, a communication interface 230, and an input / output interface 240.
  • the memory 210 may be a computer-readable recording medium, and may include a permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive.
  • RAM random access memory
  • ROM read only memory
  • the non-volatile mass storage device such as a ROM and a disk drive may be included in the computer device 200 as a separate permanent storage device separate from the memory 210.
  • the memory 210 may store an operating system and at least one program code. These software components may be loaded into the memory 210 from a computer-readable recording medium separate from the memory 210.
  • Such a separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, disk, tape, DVD / CD-ROM drive, memory card, and the like.
  • the software components may be loaded into the memory 210 via the communication interface 230 rather than the computer readable recording medium.
  • software components may be loaded into memory 210 of computer device 200 based on a computer program installed by files received via network 170.
  • the processor 220 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input / output operations. Instructions may be provided to the processor 220 by the memory 210 or the communication interface 230. For example, the processor 220 may be configured to execute a command received according to a program code stored in a recording device such as the memory 210.
  • the communication interface 230 may provide a function for the computer device 200 to communicate with other devices (eg, storage devices described above) through the network 170. For example, a request, a command, data, a file, etc. generated by the processor 220 of the computer device 200 according to a program code stored in a recording device such as the memory 210 may be controlled according to the control of the communication interface 230. 170 may be transferred to other devices. Conversely, signals, commands, data, files, and the like from other devices may be received by the computer device 200 via the communication interface 230 of the computer device 200 via the network 170. Signals, commands, data, and the like received through the communication interface 230 may be transmitted to the processor 220 or the memory 210, and the files and the like may be further included in the storage medium (described above). Persistent storage).
  • the input / output interface 240 may be a means for interfacing with the input / output device 250.
  • the input device may include a device such as a microphone, a keyboard or a mouse
  • the output device may include a device such as a display or a speaker.
  • the input / output interface 240 may be a means for interfacing with a device in which functions for input and output are integrated into one, such as a touch screen.
  • the input / output device 250 may be configured as the computer device 200 and one device.
  • the computer device 200 may include fewer or more components than the components of FIG. 2. However, it is not necessary to clearly show most of the prior art components.
  • the computer device 200 may be implemented to include at least some of the input and output devices 250 described above, or may further include other components such as a transceiver, a database, and the like.
  • the control method according to the present exemplary embodiment may be performed by the computer apparatus 200 implementing any one of the plurality of electronic devices 110, 120, 130, and 140 described above, and the computer apparatus 200 may be touched. It may include a screen environment.
  • the processor 220 of the computer device 200 may be implemented to execute a control instruction according to a code of an operating system included in the memory 210 or a code of at least one program.
  • the program code described above may be code of an application providing a media player.
  • the processor 220 may perform the steps 310 to 340 included in the control method of FIG. 3 according to a control command provided by a code stored in the computer device 200. ) Can be controlled.
  • the computer device 200 may manage a plurality of layered objects for controlling the media player.
  • the computer device 200 may include a lower layer corresponding to each of the plurality of operations and objects of a higher layer corresponding to each of the categories that classify the plurality of operations defined for the media player in step 310.
  • the categories may include: (1) a first category including a previous content selection operation, a next content selection operation, a play and stop playback of the selected content, (2) a forward seek operation for the selected content, and a selection for the selected content.
  • Two or more categories of a second category including a reverse search operation, and (3) a third category including a volume increasing operation and a volume decreasing operation.
  • a first operation for playing and stopping playback of the currently selected content, a second operation for selecting previous content of the currently selected content, and a third operation for selecting the next content of the currently selected content are included in the first category.
  • the first category may correspond to the object 1-1 of the upper layer
  • the object 1-1 of the upper layer may correspond to the object 2-1 of the lower layer corresponding to the first operation and the object of the lower layer corresponding to the second operation. It may correspond to the object 2-3 of the lower layer corresponding to 2-2 and the third operation.
  • object 2-1, object 2-2 and object 2-3 of the lower layer may be provided.
  • a fourth operation for forward searching for the selected content and a fifth operation for reverse searching for the selected content may be included in the second category.
  • the second category may correspond to the object 1-2 of the upper layer
  • the object 1-2 of the upper layer corresponds to the objects 2-4 and the lower layer corresponding to the fifth operation of the lower layer corresponding to the fourth operation. It can correspond to 2-5.
  • objects 2-4 and object 2-5 of the lower layer may be provided.
  • a sixth operation for increasing the volume and a seventh operation for decreasing the volume may be included in the third category.
  • the third category may correspond to the objects 1-3 of the upper layer
  • the objects 1-3 of the upper layer correspond to the objects 2-6 and the lower layer corresponding to the seventh operation of the lower layer corresponding to the sixth operation. It can correspond to 2-7.
  • objects 2-6 and objects 2-7 of a lower layer may be provided.
  • the layering of such objects may be configured according to the operations defined for the media player, and may be layered more than three or further include additional objects, depending on the embodiment. For example, an operation for reproducing the selected content and an operation for stopping the reproduction may be separated into individual objects through the third layer. In addition, an operation for increasing or decreasing the brightness of the screen may be added to reproduce the moving image.
  • the computer device 200 maintains a touch input for a first predetermined time or more at a first position of the touch screen of the computer device associated with the execution of the media player (eg, the first position of the touch screen screen).
  • the upper layer of the plurality of objects may be displayed on the touch screen.
  • the computer device 200 may dynamically determine a position where objects of a higher layer are displayed on a touch screen screen, that is, display positions of objects of a higher layer, based on a first position that is an initial position of a touch input.
  • the display position may be a position corresponding to any one point (for example, a center point) of points included in an area in which an object is displayed separately from other objects and other image elements on the touch screen.
  • the computer apparatus 200 may include the center points of the objects 1-1, 1-2, and 1-3 of the upper layer corresponding to the first category, the second category, and the third category as described above.
  • the positions of the objects 1-1, 1-2, and 1-3 may be dynamically calculated to be located at the same distance from the initial coordinates (eg, coordinates on the touch screen) to form vertices of an equilateral triangle.
  • the center points of the two objects are located at the same distance from the position where the touch input is maintained, and are located at the top, bottom, left, or right angle directions of the position where the touch input is maintained.
  • We can compute the position of two objects so that
  • the positions of the four objects may be calculated such that the center point of each of the four objects forms a vertex of the square and is located at the same distance from the initial coordinate of the touch input.
  • the arrangement of the objects may be variously set according to an embodiment, and the display position thereof may be dynamically calculated according to the position of the touch input.
  • Each of the objects 1-1, 1-2, and 1-3 may be displayed while the touch input is maintained at a dynamically calculated position. If the touch input is released in operation 320, the computer device 200 may release the display of the objects of the upper layer.
  • the computer apparatus 200 moves the touch input from the first position to a second position corresponding to the first object among the objects of the upper layer displayed and maintained for the second predetermined time or more (for example, the touch input.
  • the objects of the lower layer corresponding to the first object may be displayed on the touch screen. For example, if the position of the touch input moves to the second position on the area where the object 1-1 is displayed while the objects 1-1, object 1-2, and object 1-3 are displayed as the objects of the upper layer, the object 1 Instead of -1, object 1-2, and object 1-3, object 2-1, object 2-2, and object 2-3 of lower layers corresponding to object 1-1 may be displayed.
  • the computer device 200 may dynamically determine the display position of the objects of the lower layer based on the second position.
  • the location where the touch input is maintained in step 320 may be a center point of the object 1-1, the object 1-2, and the object 1-3.
  • the computer device 200 may be an object 2 that is an object of a lower layer of the object 1-1 based on the location (second location).
  • the positions of 1, object 2-2 and object 2-3 can be calculated dynamically.
  • the computer device 200 may make the object 2-1 such that the center points of the objects 2-1, 2-2, and 2-3 are located at the same distance as the position where the touch input is maintained and form vertices of an equilateral triangle.
  • the positions of objects 2-2 and 2-3 may be calculated.
  • the arrangement of the objects may be variously set, and the display position may be dynamically calculated according to the current coordinates of the touch input in which the display position is moved and maintained.
  • the computer apparatus 200 moves the touch input from the second position to a third position corresponding to the second object among the objects of the lower layer displayed and maintained for the third predetermined time or longer (for example, the touch input. After the movement from the second position to the third position corresponding to the second object is maintained for 0.5 seconds or more), an operation corresponding to the second object can be applied to the media player.
  • object 1-1 is selected in step 320 to display object 2-1, object 2-2 and object 2-3 in step 330, and object 2-1 to select in step 340 May be considered.
  • the object 2-1 may correspond to a first operation for reproducing and resuming reproduction of the selected content, and the reproducing operation or reproducing operation may be applied to the media player. If the content selected through the media player is being played, the media player may be stopped from playing. If the selected content is played back through the media player, the media player may be played back. In this case, when the user touches the touch screen, the user touches the touch screen screen, and then moves the touch position to the object 1-1 and then to the object 2-1 again. The stop operation can be processed.
  • the display position of the objects is based on the touch position of the user, the user can easily handle such playback operation or playback stop operation with one hand.
  • the object 2-2 is selected in step 340 May be considered.
  • the object 2-2 may correspond to the second operation for selecting previous content of the currently selected content, and the user also touches the touch screen screen to move the touch position to the object 1-1, and then the object 2-2. Just by moving, the previous content can be selected. If the user moves the position of the touch to object 1-1 and then to object 2-3, the next content can be selected.
  • the user moves the position of the touch to Object 1-2 or Object 1-3, and then the object in the lower layer (Object 2-4 or Object 2 in lower layer corresponding to Object 1-2 in higher layer).
  • the object in the lower layer Object 2-4 or Object 2 in lower layer corresponding to Object 1-2 in higher layer.
  • FIG. 4 is a diagram illustrating an example of displaying an object of a higher layer according to an embodiment of the present invention.
  • 4 illustrates an example of the smartphone 400 as an example of the computer device 200 described above, and illustrates an example in which a track image 420 of an album is displayed through a media player on a first screen 410. Shows an example of touching the first position 430 on the first screen 410.
  • the smartphone 400 is an object of a higher layer as an object of a higher layer, an object 450 for a reproduction operation, an object 460 for a navigation operation, and a volume operation, as the objects of the upper layer, as shown in the second screen 440.
  • the object 470 may be displayed.
  • the user's touch may be maintained at the first position 430, and when the user's touch is released, the display of the objects 450, 460, and 470 may also be released.
  • the recognition of the touch associated with the display of the objects 450, 460, and 470 may be performed for the entire area of the first screen 410, and according to an exemplary embodiment, a predetermined area of the first screen 410 may be used. It may be limited to.
  • the user may select one of the objects of the upper layer by moving the position of the touch maintained to the position of the displayed objects 450, 460, and 470, in which case the smartphone 400 Objects of a lower layer corresponding to objects of the selected upper layer may be displayed.
  • 5 to 7 are diagrams illustrating examples of displaying objects of a lower layer according to an embodiment of the present invention.
  • the first screen 510 of FIG. 5 is a second position 520 on the object 450 for reproducing at the first location 430 the position of the touch held by the user on the second screen 440 of FIG. 4.
  • An example of moving to) is shown.
  • objects of a lower layer corresponding to the object 450 for the reproduction operation may be provided based on the second location 520.
  • the second screen 530 of FIG. 5 is an object of a lower layer corresponding to the object 450 for a reproduction operation, an object 540 for playing and stopping playback of selected content, and an object 550 for selecting previous content. And an example of providing the object 560 for selecting the next content based on the second location 520.
  • an operation corresponding to one of the objects in the lower layer may be applied to the media player. For example, when the user moves the touch position on the object 540 for playing and stopping playing the selected content at the second position 520, the playing of the selected content may be started or stopped.
  • the previous content of the content currently selected in the playlist may be selected.
  • the next content of the content currently selected in the playlist may be selected.
  • the first screen 610 of FIG. 6 is a third position 620 on the object 460 for the search operation at the first position 430 of the position of the touch held by the user on the second screen 440 of FIG. 4.
  • An example of moving to) is shown.
  • objects of a lower layer corresponding to the object 460 for the search operation may be provided based on the third location 620.
  • the second screen 630 of FIG. 6 is an object of a lower layer corresponding to the object 460 for the navigation operation, and the object 640 for forward navigation and the object 650 for reverse navigation are located in the third position 620.
  • An example is provided based on the above. In this case, as the user moves the position where the touch is maintained to one of the objects in the lower layer, an operation corresponding to one of the objects in the lower layer may be applied to the media player.
  • the forward search for the selected content may be performed.
  • the degree of forward search may be determined based on the time at which the user's touch is continuously positioned on the object 640 for forward search.
  • the degree of forward navigation may be determined according to the position on the object 640 for forward navigation of the user's touch. More specifically, as the touch location on the object 640 for forward navigation of the user is closer to the third location 620, the search speed in the forward direction is relatively decreased, and the user's touch location is reduced to the third location 620. The further away from, the relatively higher the search speed in the forward direction can be.
  • the search speed in the forward direction is relatively decreased, and the user's touch position is forward search.
  • the closer to the edge of the object 640 for the faster the search speed in the forward direction can be increased.
  • the degree of reverse search may be determined based on the time at which the user's touch is continuously positioned on the object 650 for reverse search.
  • the degree of reverse search may be determined according to the position on the object 650 for the reverse search of the user's touch. More specifically, as the touch position on the object 650 for the reverse search of the user is closer to the third position 620, the search speed in the reverse direction is relatively decreased, and the touch position of the user is the third position 620. As you move further away, the search speed in the reverse direction may increase relatively.
  • the search speed in the reverse direction may be relatively increased.
  • the position of the touch held by the user on the second screen 440 of FIG. 4 is located at the fourth position 720 on the object 470 for volume manipulation at the first location 430.
  • An example of moving to is shown.
  • objects of lower layers corresponding to the object 470 for volume manipulation may be provided based on the fourth location 720.
  • the second screen 730 of FIG. 7 is an object of a lower layer corresponding to the object 470 for volume manipulation.
  • the second screen 730 shows an object 740 for increasing volume and an object 750 for decreasing volume in a fourth position 720.
  • An example is provided based on the above. In this case, as the user moves the position where the touch is maintained to one of the objects in the lower layer, an operation corresponding to one of the objects in the lower layer may be applied to the media player.
  • the degree of increase in volume may be determined based on the time at which the user's touch is continuously positioned on the object 740 for increasing the volume.
  • the degree of volume increase may be determined according to a position on the object 740 for increasing the volume of the user's touch. More specifically, as the touch position on the object 740 for increasing the volume of the user is closer to the fourth position 720, the degree of volume increase is relatively decreased, and the touch position of the user is changed from the fourth position 720. The further away, the relative increase in volume can occur.
  • the closer the user's touch position is to the center of the object 740 for increasing the volume the lower the volume increase, and the closer the user's touch position to the edge of the object 740 for increasing the volume.
  • the degree of volume increase can be relatively increased.
  • the degree of volume reduction may be determined based on the time at which the user's touch is continuously positioned on the object 750 for volume reduction.
  • the degree of volume reduction may be determined according to a position on the object 750 for volume reduction of the user's touch. More specifically, as the touch position on the object 750 for decreasing the volume of the user approaches the fourth position 720, the degree of volume reduction is relatively decreased, and the touch position of the user is reduced from the fourth position 720. The further away, the relative decrease in the volume can be.
  • the degree of volume reduction can be relatively increased.
  • Objects may be highlighted by applying a dominant color to the displayed object.
  • feedback as the user's touch moves on the object may be output using at least one of visual, auditory, and tactile.
  • the smartphone 400 may provide feedback to the user, such as vibration, brightness adjustment of the screen, and object manipulation (eg, display of an object shaking on the screen).
  • the layered objects for manipulation of the media player are provided for each layer based on the touch position of the user, so that the user can easily select the layered objects with one hand. Accordingly, according to embodiments of the present invention, a user may easily process various operations such as playing, stopping, selecting content, searching in content, adjusting volume, and the like provided by a media player with one hand. experience and / or a user interface (UI).
  • UI user interface
  • the system or apparatus described above may be implemented as a hardware component, a software component or a combination of hardware components and software components.
  • the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs).
  • ALUs arithmetic logic units
  • FPGAs field programmable gate arrays
  • PLU programmable logic unit
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • a processing device may be described as one being used, but a person skilled in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include.
  • the processing device may include a plurality of processors or one processor and one controller.
  • other processing configurations are possible, such as parallel processors.
  • the software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process independently or collectively. You can command the device.
  • Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. It can be embodied in.
  • the software may be distributed over networked computer systems so that they are stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable media.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Such a recording medium may be various recording means or storage means in the form of a single or several hardware combined, and is not limited to a medium directly connected to any computer system, but may be distributed on a network.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed are a method and a system for controlling a media player. Through a control method according to embodiments of the present invention, a user experience (UX) and/or a user interface (UI) may be provided to allow a user to simply handle, with one hand, various operations such as reproduction, reproduction stop, content selection, search in a content, and volume adjustment for the content provided by a media player.

Description

미디어 플레이어를 제어하는 방법 및 시스템Method and system to control media player
아래의 설명은 미디어 플레이어를 제어하는 방법 및 시스템에 관한 것으로, 보다 자세하게는 미디어 플레이어에서 제공하는 컨텐츠에 대한 재생, 재생중지, 컨텐츠 선택, 컨텐츠 내 탐색, 볼륨 조절 등과 같은 다양한 조작을 사용자가 한 손으로 간단히 처리할 수 있도록 UX(user experience) 및/또는 UI(user interface)를 제공할 수 있는 제어 방법, 상기 제어 방법을 수행하는 컴퓨터 장치, 그리고 컴퓨터와 결합되어 상기 제어 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체에 관한 것이다.The following description relates to a method and system for controlling a media player. More specifically, the user can perform various operations such as playing, stopping, selecting content, navigating in content, adjusting the volume, and the like for content provided by the media player. A control method capable of providing a user experience (UX) and / or a user interface (UI) so as to be easily processed by a computer, a computer device performing the control method, and a computer coupled with the computer to execute the control method. A computer program stored in a computer readable recording medium and a recording medium thereof.
미디어 플레이어를 제어하기 위한 종래기술에서는 미디어 플레이어에 대한 다양한 조작들 각각에 대응하는 물리적 키 버튼을 제공하거나 또는 다양한 조작들 각각에 대응하는 가상의 버튼을 화면에 나열하는 형태의 UX(user experience) 및/또는 UI(user interface)를 제공한다. 예를 들어, 한국공개특허 제10-2010-0019241호는 미디어 플레이어를 제어하는 기술에 관한 것으로, 구비된 디스플레이 수단의 대기화면상에 사용자 입력을 수신하여 내장된 미디어 플레이어를 제어할 수 있는 아이콘을 표시하는 미디어 플레이어를 제어할 수 있음을 개시하고 있다.In the prior art for controlling a media player, a user experience (UX) in the form of providing a physical key button corresponding to each of the various operations for the media player or arranging virtual buttons corresponding to each of the various operations on the screen; Provide a user interface (UI). For example, Korean Patent Laid-Open Publication No. 10-2010-0019241 relates to a technology for controlling a media player, and includes an icon for controlling a built-in media player by receiving a user input on a standby screen of a provided display means. It discloses that the media player to be displayed can be controlled.
미디어 플레이어에서 제공하는 컨텐츠에 대한 재생, 재생중지, 컨텐츠 선택, 컨텐츠 내 탐색, 볼륨 조절 등과 같은 다양한 조작을 사용자가 한 손으로 간단히 처리할 수 있도록 UX(user experience) 및/또는 UI(user interface)를 제공할 수 있는 제어 방법, 상기 제어 방법을 수행하는 컴퓨터 장치, 그리고 컴퓨터와 결합되어 상기 제어 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체를 제공한다.UX (user experience) and / or user interface (UI) for users to easily handle various operations such as playing, stopping, selecting content, navigating in content, adjusting volume, etc. A control method capable of providing a computer, a computer apparatus for performing the control method, and a computer program coupled to a computer and stored in a computer readable recording medium for executing the control method on a computer are provided.
미디어 플레이어의 제어를 위한 계층화된 복수의 객체들을 관리하는 단계; 상기 미디어 플레이어의 실행과 연계된 컴퓨터 장치의 터치스크린 화면의 제1 위치에서 터치 입력이 제1 소정 시간 이상 유지됨을 인지함에 따라, 상기 터치스크린 화면을 통해 상기 복수의 객체들 중 상위 계층의 객체들을 표시하는 단계; 상기 터치 입력이 상기 제1 위치로부터 상기 표시된 상위 계층의 객체들 중 제1 객체에 대응하는 제2 위치로 이동되어 제2 소정 시간 이상 유지됨을 인지함에 따라, 상기 제1 객체에 대응하는 하위 계층의 객체들을 상기 터치스크린 화면을 통해 표시하는 단계; 및 상기 터치 입력이 상기 제2 위치로부터 상기 표시된 하위 계층의 객체들 중 제2 객체에 대응하는 제3 위치로 이동되어 제3 소정 시간 이상 유지됨을 인지함에 따라, 상기 제2 객체에 대응하는 조작을 상기 미디어 플레이어에 적용하는 단계를 포함하는 제어 방법을 제공한다.Managing a plurality of layered objects for control of the media player; Recognizing that the touch input is maintained for a first predetermined time or more at a first position of the touch screen of the computer device associated with the execution of the media player, objects of a higher layer among the plurality of objects are displayed through the touch screen. Displaying; Recognizing that the touch input is moved from the first position to a second position corresponding to the first object among the objects of the displayed upper layer and maintained for a second predetermined time or more, the lower layer corresponding to the first object Displaying objects on the touch screen; And recognizing that the touch input is moved from the second position to a third position corresponding to the second object among the objects of the displayed lower layer to be maintained for at least a third predetermined time, thereby performing an operation corresponding to the second object. It provides a control method comprising the step of applying to the media player.
일측에 따르면, 상기 계층화된 복수의 객체들을 관리하는 단계는, 상기 미디어 플레이어에 대해 기정의된 복수의 조작들을 분류한 카테고리들 각각에 대응하는 상기 상위 계층의 객체들 및 상기 복수의 조작들 각각에 대응하는 상기 하위 계층의 객체들을 관리할 수 있다.According to one side, the managing of the plurality of layered objects, the object of the upper layer and each of the plurality of operations corresponding to each of the categories classified a plurality of operations defined for the media player. The objects of the lower layer may be managed.
다른 측면에 따르면, 상기 카테고리들은, (1) 이전 컨텐츠 선택 조작, 다음 컨텐츠 선택 조작, 선택된 컨텐츠의 재생 및 재생 중지 조작을 포함하는 제1 카테고리, (2) 선택된 컨텐츠에 대한 정방향 탐색 조작 및 선택된 컨텐츠에 대한 역방향 탐색 조작을 포함하는 제2 카테고리, 그리고 (3) 볼륨 증가 조작 및 볼륨 감소 조작을 포함하는 제3 카테고리 중 둘 이상의 카테고리들을 포함할 수 있다.According to another aspect, the categories may include: (1) a first category including a previous content selection operation, a next content selection operation, a play and stop playback operation of the selected content, (2) a forward search operation for the selected content and the selected content Two or more categories including a second search operation for the reverse search operation, and (3) a third category including a volume increase operation and a volume decrease operation.
또 다른 측면에 따르면, 상기 제2 객체에 대응하는 조작을 상기 미디어 플레이어에 적용하는 단계는, 상기 제3 위치와 상기 제2 위치간의 거리에 기초하여 상기 조작을 상기 미디어 플레이어에 적용하기 위한 정도를 조절할 수 있다.According to another aspect, the step of applying the operation corresponding to the second object to the media player, the degree for applying the operation to the media player based on the distance between the third position and the second position. I can regulate it.
또 다른 측면에 따르면, 상기 제2 객체에 대응하는 조작을 상기 미디어 플레이어에 적용하는 단계는, 상기 제3 위치가 상기 제2 위치에 가까울수록 상기 조작을 상기 미디어 플레이어에 적용하기 위한 정도를 상대적으로 감소시키고, 상기 제3 위치가 상기 제2 위치로부터 멀어질수록 상기 조작을 상기 미디어 플레이어에 적용하기 위한 정도를 상대적으로 증가시킬 수 있다.According to another aspect, applying the operation corresponding to the second object to the media player, the closer the third position is to the second position relative to the degree for applying the operation to the media player. Decrease, and as the third position moves away from the second position, the degree of applying the manipulation to the media player can be relatively increased.
또 다른 측면에 따르면, 상기 조작을 상기 미디어 플레이어에 적용하기 위한 정도는, 상기 제2 객체의 종류에 따라 탐색 속도의 감소의 정도, 탐색 속도의 증가의 정도, 볼륨 감소의 정도 및 볼륨 증가의 정도 중 어느 하나를 포함할 수 있다.According to another aspect, the degree for applying the manipulation to the media player includes a degree of decrease in search speed, a degree of increase in search speed, a degree of decrease in volume, and a degree of increase in volume depending on the type of the second object. It may include any one of.
또 다른 측면에 따르면, 상기 상위 계층의 객체들을 표시하는 단계는, 상기 제1 위치에 기초하여 상기 상위 계층의 객체들의 표시 위치를 동적으로 결정할 수 있다.According to another aspect, displaying the objects of the upper layer may dynamically determine display positions of the objects of the upper layer based on the first position.
또 다른 측면에 따르면, 상기 하위 계층의 객체들을 표시하는 단계는, 상기 제2 위치에 기초하여 상기 하위 계층의 객체들의 표시 위치를 동적으로 결정할 수 있다.According to another aspect, displaying the objects of the lower layer may dynamically determine the display position of the objects of the lower layer based on the second position.
또 다른 측면에 따르면, 상기 제어 방법은, 상기 터치 입력의 상기 제1 위치에서의 유지 및 상기 터치 입력의 상기 제2 위치로의 이동 중 적어도 하나에 대한 피드백을 시각, 청각 및 촉각 중 적어도 하나를 이용하여 출력하는 단계를 더 포함할 수 있다.According to another aspect, the control method may be configured to provide at least one of visual, auditory, and tactile feedback to at least one of: maintaining the touch input at the first position and moving the touch input to the second position. It may further include the step of outputting.
컴퓨터와 결합되어 상기 제어 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.In combination with a computer there is provided a computer program stored on a computer readable recording medium for executing the control method on the computer.
상기 제어 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록매체를 제공한다.A computer-readable recording medium having a program recorded thereon for executing the control method on a computer is provided.
컴퓨터 장치에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 의해, 미디어 플레이어의 제어를 위한 계층화된 복수의 객체들을 관리하고, 상기 미디어 플레이어의 실행과 연계된 컴퓨터 장치의 터치스크린 화면의 제1 위치에서 터치 입력이 제1 소정 시간 이상 유지됨을 인지함에 따라, 상기 터치스크린 화면을 통해 상기 복수의 객체들 중 상위 계층의 객체들을 표시하고, 상기 터치 입력이 상기 제1 위치로부터 상기 표시된 상위 계층의 객체들 중 제1 객체에 대응하는 제2 위치로 이동되어 제2 소정 시간 이상 유지됨을 인지함에 따라, 상기 제1 객체에 대응하는 하위 계층의 객체들을 상기 터치스크린 화면을 통해 표시하고, At least one processor implemented to execute readable instructions on a computer device, wherein the at least one processor manages a plurality of layered objects for control of a media player and is associated with execution of the media player. In response to recognizing that the touch input is maintained for the first predetermined time or more at the first position of the touch screen of the computer device, objects of a higher layer among the plurality of objects are displayed on the touch screen, and the touch input is displayed. Recognizing the object of the lower layer corresponding to the first object is moved to the second position corresponding to the first object of the displayed upper layer object from the first position and maintained for more than a second predetermined time. Through the screen,
상기 터치 입력이 상기 제2 위치로부터 상기 표시된 하위 계층의 객체들 중 제2 객체에 대응하는 제3 위치로 이동되어 제3 소정 시간 이상 유지됨을 인지함에 따라, 상기 제2 객체에 대응하는 조작을 상기 미디어 플레이어에 적용하는, 컴퓨터 장치를 제공한다.In response to the touch input being moved from the second position to a third position corresponding to a second object among the displayed lower hierarchical objects and being maintained for a third predetermined time or more, the operation corresponding to the second object may be recalled. Provided is a computer device applied to a media player.
미디어 플레이어에서 제공하는 컨텐츠에 대한 재생, 재생중지, 컨텐츠 선택, 컨텐츠 내 탐색, 볼륨 조절 등과 같은 다양한 조작을 사용자가 한 손으로 간단히 처리할 수 있도록 UX(user experience)/UI(user interface)를 제공할 수 있다.Provides UX (user experience) / UI (user interface) so that users can easily handle various operations such as playing, stopping, selecting content, navigating in content, adjusting the volume, etc. can do.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다.1 is a diagram illustrating an example of a network environment according to an embodiment of the present invention.
도 2는 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다.2 is a block diagram illustrating an example of a computer device according to an embodiment of the present invention.
도 3은 본 발명의 일실시예에 따른 제어 방법을 도시한 흐름도이다.3 is a flowchart illustrating a control method according to an embodiment of the present invention.
도 4는 본 발명의 일실시예에 있어서, 상위 계층의 객체를 표시하는 예를 도시한 도면이다.4 is a diagram illustrating an example of displaying an object of a higher layer according to an embodiment of the present invention.
도 5 내지 도 7은 본 발명의 일실시예에 있어서, 하위 계층의 객체를 표시하는 예를 도시한 도면들이다.5 to 7 are diagrams illustrating examples of displaying objects of a lower layer according to an embodiment of the present invention.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.
본 발명의 실시예들에 따른 제어 방법은 이후 설명될 전자 디바이스와 같은 컴퓨터 장치를 통해 구현될 수 있다. 이때, 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 장치는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 제어 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 상기 제어 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.The control method according to embodiments of the present invention may be implemented through a computer device such as an electronic device to be described later. In this case, a computer program according to an embodiment of the present invention may be installed and run on the computer device, and the computer device may perform the control method according to the embodiments of the present invention under the control of the driven computer program. The above-described computer program may be stored in a computer-readable recording medium in combination with a computer device for causing the computer to execute the control method.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 1의 네트워크 환경은 복수의 전자 디바이스들(110, 120, 130, 140), 복수의 서버들(150, 160) 및 네트워크(170)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 전자 디바이스의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.1 is a diagram illustrating an example of a network environment according to an embodiment of the present invention. The network environment of FIG. 1 illustrates an example including a plurality of electronic devices 110, 120, 130, and 140, a plurality of servers 150 and 160, and a network 170. 1 is an example for describing the invention, and the number of electronic devices and the number of servers are not limited as shown in FIG. 1.
복수의 전자 디바이스들(110, 120, 130, 140)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 디바이스들(110, 120, 130, 140)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 도 1에서는 전자 디바이스 1(110)의 예로 스마트폰의 형상을 나타내고 있으나, 본 발명의 실시예들에서 전자 디바이스 1(110)은 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크(170)를 통해 다른 전자 디바이스들(120, 130, 140) 및/또는 서버(150, 160)와 통신할 수 있는 다양한 물리적인 컴퓨터 장치들 중 하나를 의미할 수 있다.The plurality of electronic devices 110, 120, 130, and 140 may be a fixed terminal or a mobile terminal implemented with a computer device. Examples of the plurality of electronic devices 110, 120, 130, and 140 include a smart phone, a mobile phone, a navigation device, a computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), and a portable multimedia player (PMP). Tablet PC). As an example, although FIG. 1 illustrates the shape of a smartphone as an example of the electronic device 1 110, in the embodiments of the present invention, the electronic device 1 110 may use a wireless or wired communication method to substantially connect the network 170. It may refer to one of various physical computer devices capable of communicating with other electronic devices 120, 130, 140 and / or server 150, 160 via.
통신 방식은 제한되지 않으며, 네트워크(170)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 디바이스들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited and may include short-range wireless communication between devices as well as a communication method utilizing a communication network (for example, mobile communication network, wired internet, wireless internet, and broadcasting network) that the network 170 may include. For example, the network 170 may include a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), and a broadband network (BBN). And one or more of networks such as the Internet. The network 170 may also include any one or more of network topologies, including bus networks, star networks, ring networks, mesh networks, star-bus networks, trees, or hierarchical networks, but It is not limited.
서버(150, 160) 각각은 복수의 전자 디바이스들(110, 120, 130, 140)과 네트워크(170)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 예를 들어, 서버(150)는 네트워크(170)를 통해 접속한 복수의 전자 디바이스들(110, 120, 130, 140)로 서비스(일례로, 컨텐츠 제공 서비스, 소셜 네트워크 서비스, 메시징 서비스, 검색 서비스, 메일 서비스 등)를 제공하는 시스템일 수 있다.Each of the servers 150 and 160 communicates with the plurality of electronic devices 110, 120, 130, and 140 via the network 170 to provide a command, code, file, content, service, or the like. It may be implemented in devices. For example, the server 150 may be a service (eg, a content providing service, a social network service, a messaging service, or a search service) with a plurality of electronic devices 110, 120, 130, and 140 connected through the network 170. , Mail service, etc.).
앞서 도 1에서는 서버와 클라이언트간의 통신 환경의 예를 설명하고 있으나, 이는 하나의 실시예로서 본 발명의 실시예들에 따른 제어 방법은 복수의 전자 디바이스들(110, 120, 130, 140) 각각에서 개별적으로 이루어질 수도 있다. 예를 들어, 도 1의 실시예에 따른 제어 방법은 전자 디바이스(110)가 서버(150)로부터 컨텐츠를 제공받아 미디어 플레이어를 통해 재생하는 경우에 대한 설명일 수 있다. 반면, 다른 실시예에서는 전자 디바이스(110)가 서버(150)와의 별도의 통신 없이 전자 디바이스(110)의 로컬 저장소에 저장된 컨텐츠들을 미디어 플레이어를 통해 재생하는 경우를 포함할 수 있다.In FIG. 1, an example of a communication environment between a server and a client has been described. However, the control method according to the exemplary embodiments of the present invention is an embodiment. In each of the plurality of electronic devices 110, 120, 130, and 140. It may be done individually. For example, the control method according to the embodiment of FIG. 1 may be a description of a case where the electronic device 110 receives content from the server 150 and plays the content through a media player. On the other hand, the electronic device 110 may include a case in which the electronic device 110 plays content stored in the local storage of the electronic device 110 through the media player without separate communication with the server 150.
도 2는 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다. 앞서 설명한 복수의 전자 디바이스들(110, 120, 130, 140) 각각이나 서버들(150, 160) 각각은 도 2를 통해 도시된 컴퓨터 장치(200)에 의해 구현될 수 있다. 예를 들어, 컴퓨터 장치(200)에는 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 장치(200)는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 음원 재생 공유 방법을 수행할 수 있다.2 is a block diagram illustrating an example of a computer device according to an embodiment of the present invention. Each of the plurality of electronic devices 110, 120, 130, and 140 or each of the servers 150 and 160 described above may be implemented by the computer device 200 shown in FIG. 2. For example, a computer program according to an embodiment may be installed and driven in the computer device 200, and the computer device 200 may share and reproduce a sound source according to embodiments of the present disclosure under the control of the driven computer program. The method can be performed.
이러한 컴퓨터 장치(200)는 도 2에 도시된 바와 같이, 메모리(210), 프로세서(220), 통신 인터페이스(230) 그리고 입출력 인터페이스(240)를 포함할 수 있다. 메모리(210)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(210)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 장치(200)에 포함될 수도 있다. 또한, 메모리(210)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(210)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(210)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(230)를 통해 메모리(210)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(170)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 장치(200)의 메모리(210)에 로딩될 수 있다.As illustrated in FIG. 2, the computer device 200 may include a memory 210, a processor 220, a communication interface 230, and an input / output interface 240. The memory 210 may be a computer-readable recording medium, and may include a permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive. In this case, the non-volatile mass storage device such as a ROM and a disk drive may be included in the computer device 200 as a separate permanent storage device separate from the memory 210. In addition, the memory 210 may store an operating system and at least one program code. These software components may be loaded into the memory 210 from a computer-readable recording medium separate from the memory 210. Such a separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, disk, tape, DVD / CD-ROM drive, memory card, and the like. In other embodiments, the software components may be loaded into the memory 210 via the communication interface 230 rather than the computer readable recording medium. For example, software components may be loaded into memory 210 of computer device 200 based on a computer program installed by files received via network 170.
프로세서(220)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(210) 또는 통신 인터페이스(230)에 의해 프로세서(220)로 제공될 수 있다. 예를 들어 프로세서(220)는 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processor 220 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input / output operations. Instructions may be provided to the processor 220 by the memory 210 or the communication interface 230. For example, the processor 220 may be configured to execute a command received according to a program code stored in a recording device such as the memory 210.
통신 인터페이스(230)은 네트워크(170)를 통해 컴퓨터 장치(200)가 다른 장치(일례로, 앞서 설명한 저장 장치들)와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 장치(200)의 프로세서(220)가 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(230)의 제어에 따라 네트워크(170)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(170)를 거쳐 컴퓨터 장치(200)의 통신 인터페이스(230)를 통해 컴퓨터 장치(200)로 수신될 수 있다. 통신 인터페이스(230)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(220)나 메모리(210)로 전달될 수 있고, 파일 등은 컴퓨터 장치(200)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.The communication interface 230 may provide a function for the computer device 200 to communicate with other devices (eg, storage devices described above) through the network 170. For example, a request, a command, data, a file, etc. generated by the processor 220 of the computer device 200 according to a program code stored in a recording device such as the memory 210 may be controlled according to the control of the communication interface 230. 170 may be transferred to other devices. Conversely, signals, commands, data, files, and the like from other devices may be received by the computer device 200 via the communication interface 230 of the computer device 200 via the network 170. Signals, commands, data, and the like received through the communication interface 230 may be transmitted to the processor 220 or the memory 210, and the files and the like may be further included in the storage medium (described above). Persistent storage).
입출력 인터페이스(240)는 입출력 장치(250)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(240)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(250)는 컴퓨터 장치(200)와 하나의 장치로 구성될 수도 있다.The input / output interface 240 may be a means for interfacing with the input / output device 250. For example, the input device may include a device such as a microphone, a keyboard or a mouse, and the output device may include a device such as a display or a speaker. As another example, the input / output interface 240 may be a means for interfacing with a device in which functions for input and output are integrated into one, such as a touch screen. The input / output device 250 may be configured as the computer device 200 and one device.
또한, 다른 실시예들에서 컴퓨터 장치(200)는 도 2의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 장치(200)는 상술한 입출력 장치(250) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.In addition, in other embodiments the computer device 200 may include fewer or more components than the components of FIG. 2. However, it is not necessary to clearly show most of the prior art components. For example, the computer device 200 may be implemented to include at least some of the input and output devices 250 described above, or may further include other components such as a transceiver, a database, and the like.
도 3은 본 발명의 일실시예에 따른 제어 방법을 도시한 흐름도이다. 본 실시예에 따른 제어 방법은 앞서 설명한 복수의 전자 디바이스들(110, 120, 130, 140) 중 어느 하나를 구현하는 컴퓨터 장치(200)에 의해 수행될 수 있으며, 이러한 컴퓨터 장치(200)는 터치스크린 환경을 포함할 수 있다. 예를 들어, 컴퓨터 장치(200)의 프로세서(220)는 메모리(210)가 포함하는 운영체제의 코드나 적어도 하나의 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 예를 들어, 상술한 프로그램 코드는 미디어 플레이어를 제공하는 어플리케이션의 코드일 수 있다. 여기서, 프로세서(220)는 컴퓨터 장치(200)에 저장된 코드가 제공하는 제어 명령에 따라 컴퓨터 장치(200)가 도 3의 제어 방법이 포함하는 단계들(310 내지 340)을 수행하도록 컴퓨터 장치(200)를 제어할 수 있다.3 is a flowchart illustrating a control method according to an embodiment of the present invention. The control method according to the present exemplary embodiment may be performed by the computer apparatus 200 implementing any one of the plurality of electronic devices 110, 120, 130, and 140 described above, and the computer apparatus 200 may be touched. It may include a screen environment. For example, the processor 220 of the computer device 200 may be implemented to execute a control instruction according to a code of an operating system included in the memory 210 or a code of at least one program. For example, the program code described above may be code of an application providing a media player. Herein, the processor 220 may perform the steps 310 to 340 included in the control method of FIG. 3 according to a control command provided by a code stored in the computer device 200. ) Can be controlled.
단계(310)에서 컴퓨터 장치(200)는 미디어 플레이어의 제어를 위한 계층화된 복수의 객체들을 관리할 수 있다. 예를 들어, 컴퓨터 장치(200)는 단계(310)에서 미디어 플레이어에 대해 기정의된 복수의 조작들을 분류한 카테고리들 각각에 대응하는 상위 계층의 객체들 및 복수의 조작들 각각에 대응하는 하위 계층의 객체들을 관리할 수 있다. 이때, 카테고리들은 (1) 이전 컨텐츠 선택 조작, 다음 컨텐츠 선택 조작, 선택된 컨텐츠의 재생 및 재생 중지 조작을 포함하는 제1 카테고리, (2) 선택된 컨텐츠에 대한 정방향 탐색(seek) 조작 및 선택된 컨텐츠에 대한 역방향 탐색 조작을 포함하는 제2 카테고리, 그리고 (3) 볼륨 증가 조작 및 볼륨 감소 조작을 포함하는 제3 카테고리 중 둘 이상의 카테고리들을 포함할 수 있다.In operation 310, the computer device 200 may manage a plurality of layered objects for controlling the media player. For example, the computer device 200 may include a lower layer corresponding to each of the plurality of operations and objects of a higher layer corresponding to each of the categories that classify the plurality of operations defined for the media player in step 310. Can manage objects in. In this case, the categories may include: (1) a first category including a previous content selection operation, a next content selection operation, a play and stop playback of the selected content, (2) a forward seek operation for the selected content, and a selection for the selected content. Two or more categories of a second category including a reverse search operation, and (3) a third category including a volume increasing operation and a volume decreasing operation.
보다 구체적인 예로, 현재 선택된 컨텐츠를 재생 및 재생 중지하기 위한 제1 조작, 현재 선택된 컨텐츠의 이전 컨텐츠를 선택하기 위한 제2 조작 및 현재 선택된 컨텐츠의 다음 컨텐츠를 선택하기 위한 제3 조작이 제1 카테고리에 포함될 수 있다. 이때, 제1 카테고리는 상위 계층의 객체 1-1에 대응할 수 있으며, 상위 계층의 객체 1-1은 제1 조작에 대응하는 하위 계층의 객체 2-1, 제2 조작에 대응하는 하위 계층의 객체 2-2 및 제3 조작에 대응하는 하위 계층의 객체 2-3에 대응할 수 있다. 예를 들어, 상위 계층의 객체 1-1이 선택되는 경우, 하위 계층의 객체 2-1, 객체 2-2 및 객체 2-3이 제공될 수 있다.As a more specific example, a first operation for playing and stopping playback of the currently selected content, a second operation for selecting previous content of the currently selected content, and a third operation for selecting the next content of the currently selected content are included in the first category. May be included. In this case, the first category may correspond to the object 1-1 of the upper layer, and the object 1-1 of the upper layer may correspond to the object 2-1 of the lower layer corresponding to the first operation and the object of the lower layer corresponding to the second operation. It may correspond to the object 2-3 of the lower layer corresponding to 2-2 and the third operation. For example, when object 1-1 of the upper layer is selected, object 2-1, object 2-2 and object 2-3 of the lower layer may be provided.
또한, 선택된 컨텐츠에 대한 정방향 탐색을 위한 제4 조작 및 선택된 컨텐츠에 대한 역방향 탐색을 위한 제5 조작이 제2 카테고리에 포함될 수 있다. 이때, 제2 카테고리는 상위 계층의 객체 1-2에 대응할 수 있으며, 상위 계층의 객체 1-2는 제4 조작에 대응하는 하위 계층의 객체 2-4 및 제5 조작에 대응하는 하위 계층의 객체 2-5에 대응할 수 있다. 예를 들어, 상위 계층의 객체 1-2가 선택되는 경우, 하위 계층의 객체 2-4 및 객체 2-5가 제공될 수 있다.Also, a fourth operation for forward searching for the selected content and a fifth operation for reverse searching for the selected content may be included in the second category. In this case, the second category may correspond to the object 1-2 of the upper layer, and the object 1-2 of the upper layer corresponds to the objects 2-4 and the lower layer corresponding to the fifth operation of the lower layer corresponding to the fourth operation. It can correspond to 2-5. For example, when objects 1-2 of the upper layer are selected, objects 2-4 and object 2-5 of the lower layer may be provided.
또한, 볼륨 증가를 위한 제6 조작 및 볼륨 감소를 위한 제7 조작이 제3 카테고리에 포함될 수 있다. 이때, 제3 카테고리는 상위 계층의 객체 1-3에 대응할 수 있으며, 상위 계층의 객체 1-3은 제6 조작에 대응하는 하위 계층의 객체 2-6 및 제7 조작에 대응하는 하위 계층의 객체 2-7에 대응할 수 있다. 예를 들어, 상위 계층의 객체 1-3이 선택되는 경우, 하위 계층의 객체 2-6 및 객체 2-7이 제공될 수 있다.In addition, a sixth operation for increasing the volume and a seventh operation for decreasing the volume may be included in the third category. In this case, the third category may correspond to the objects 1-3 of the upper layer, and the objects 1-3 of the upper layer correspond to the objects 2-6 and the lower layer corresponding to the seventh operation of the lower layer corresponding to the sixth operation. It can correspond to 2-7. For example, when objects 1-3 of an upper layer are selected, objects 2-6 and objects 2-7 of a lower layer may be provided.
이러한 객체들의 계층화는 미디어 플레이어에 대해 기정의된 조작들에 따라 구성될 수 있으며, 실시예에 따라 셋 이상으로 계층화되거나 또는 추가적인 객체들을 더 포함할 수도 있다. 예를 들어, 선택된 컨텐츠에 대한 재생을 위한 조작과 재생 중지를 위한 조작이 제3 계층을 통해 개별 객체들로 분리될 수도 있다. 또한, 동영상의 재생을 위해 화면의 밝기를 증가 또는 감소시키기 위한 조작이 추가될 수 있다.The layering of such objects may be configured according to the operations defined for the media player, and may be layered more than three or further include additional objects, depending on the embodiment. For example, an operation for reproducing the selected content and an operation for stopping the reproduction may be separated into individual objects through the third layer. In addition, an operation for increasing or decreasing the brightness of the screen may be added to reproduce the moving image.
단계(320)에서 컴퓨터 장치(200)는 미디어 플레이어의 실행과 연계된 컴퓨터 장치의 터치스크린 화면의 제1 위치에서 터치 입력이 제1 소정 시간 이상 유지됨(예를 들어, 터치스크린 화면의 제1 위치에서 터치 입력이 1초 이상 유지됨)을 인지함에 따라, 터치스크린 화면을 통해 복수의 객체들 중 상위 계층의 객체들을 표시할 수 있다. 예를 들어, 컴퓨터 장치(200)는 터치 입력의 최초 위치인 제1 위치에 기초하여 상위 계층의 객체들이 터치스크린 화면 상에서 표시되는 위치, 즉 상위 계층의 객체들의 표시 위치를 동적으로 결정할 수 있다. 여기서 표시 위치는, 터치스크린 화면 상에서 임의의 객체가 다른 객체들 및 다른 화상 요소들과 구분되어 표시되는 영역에 포함된 점들 중 어느 하나의 점(일례로, 중심점)에 해당하는 위치일 수 있다. 보다 구체적인 예로, 컴퓨터 장치(200)는 상술한 제1 카테고리, 제2 카테고리 및 제3 카테고리에 대응하는 상위 계층의 객체 1-1, 객체 1-2 및 객체 1-3 각각의 중심점이 터치 입력의 최초 좌표(일례로, 터치스크린 화면상에서의 좌표)로부터 동일한 거리에 위치하면서 정삼각형의 꼭지점을 이루도록 객체 1-1, 객체 1-2 및 객체 1-3 각각의 위치를 동적으로 계산할 수 있다. 만약, 상위 계층의 객체가 두 개인 경우에는 두 개의 객체 각각의 중심점이 터치 입력이 유지되고 있는 위치와 동일한 거리에 위치하면서 터치 입력이 유지되고 있는 위치의 상하, 좌우 또는 기설정된 각도 방향에 각각 위치하도록 두 개의 객체의 위치를 계산할 수 있다. 또 다른 예로, 상위 계층의 객체가 네 개인 경우에는 네 개의 객체들 각각의 중심점이 정사각형의 꼭지점을 이루면서 터치 입력의 최초 좌표로부터 동일한 거리에 위치하도록 네 개의 객체들 각각의 위치를 계산할 수 있다. 객체들의 배열은 실시예에 따라 다양하게 설정될 수 있으며, 그 표시 위치가 터치 입력의 위치에 따라 동적으로 계산될 수 있다. In operation 320, the computer device 200 maintains a touch input for a first predetermined time or more at a first position of the touch screen of the computer device associated with the execution of the media player (eg, the first position of the touch screen screen). As the touch input is maintained for 1 second or more), the upper layer of the plurality of objects may be displayed on the touch screen. For example, the computer device 200 may dynamically determine a position where objects of a higher layer are displayed on a touch screen screen, that is, display positions of objects of a higher layer, based on a first position that is an initial position of a touch input. The display position may be a position corresponding to any one point (for example, a center point) of points included in an area in which an object is displayed separately from other objects and other image elements on the touch screen. As a more specific example, the computer apparatus 200 may include the center points of the objects 1-1, 1-2, and 1-3 of the upper layer corresponding to the first category, the second category, and the third category as described above. The positions of the objects 1-1, 1-2, and 1-3 may be dynamically calculated to be located at the same distance from the initial coordinates (eg, coordinates on the touch screen) to form vertices of an equilateral triangle. If there are two objects of the upper layer, the center points of the two objects are located at the same distance from the position where the touch input is maintained, and are located at the top, bottom, left, or right angle directions of the position where the touch input is maintained. We can compute the position of two objects so that As another example, when there are four objects of the upper layer, the positions of the four objects may be calculated such that the center point of each of the four objects forms a vertex of the square and is located at the same distance from the initial coordinate of the touch input. The arrangement of the objects may be variously set according to an embodiment, and the display position thereof may be dynamically calculated according to the position of the touch input.
이러한 객체 1-1, 객체 1-2 및 객체 1-3 각각은 동적으로 계산된 위치에 상기 터치 입력이 유지되는 동안 표시될 수 있다. 만약, 단계(320)에서 터치 입력이 해제(release)되면, 컴퓨터 장치(200)는 상위 계층의 객체들의 표시를 해제할 수 있다.Each of the objects 1-1, 1-2, and 1-3 may be displayed while the touch input is maintained at a dynamically calculated position. If the touch input is released in operation 320, the computer device 200 may release the display of the objects of the upper layer.
단계(330)에서 컴퓨터 장치(200)는 터치 입력이 제1 위치로부터 표시된 상위 계층의 객체들 중 제1 객체에 대응하는 제2 위치로 이동되어 제2 소정 시간 이상 유지됨(예를 들어, 터치 입력이 제1 위치에서 제1 객체에 대응하는 제2 위치로 이동 후 0.5초 이상 유지됨)을 인지함에 따라, 제1 객체에 대응하는 하위 계층의 객체들을 터치스크린 화면을 통해 표시할 수 있다. 예를 들어, 상위 계층의 객체들로서 객체 1-1, 객체 1-2 및 객체 1-3가 표시된 상태에서 터치 입력의 위치가 객체 1-1이 표시된 영역 상의 제2 위치로 이동하는 경우, 객체 1-1, 객체 1-2 및 객체 1-3 대신 객체 1-1에 대응하는 하위 계층의 객체 2-1, 객체 2-2 및 객체 2-3이 표시될 수 있다. In operation 330, the computer apparatus 200 moves the touch input from the first position to a second position corresponding to the first object among the objects of the upper layer displayed and maintained for the second predetermined time or more (for example, the touch input. After the movement from the first position to the second position corresponding to the first object is maintained for 0.5 seconds or more), the objects of the lower layer corresponding to the first object may be displayed on the touch screen. For example, if the position of the touch input moves to the second position on the area where the object 1-1 is displayed while the objects 1-1, object 1-2, and object 1-3 are displayed as the objects of the upper layer, the object 1 Instead of -1, object 1-2, and object 1-3, object 2-1, object 2-2, and object 2-3 of lower layers corresponding to object 1-1 may be displayed.
이때, 컴퓨터 장치(200)는 제 2 위치에 기초하여 하위 계층의 객체들의 표시 위치를 동적으로 결정할 수 있다. 예를 들어, 단계(320)에서 터치 입력이 유지되고 있는 위치는 객체 1-1, 객체 1-2 및 객체 1-3의 중심점일 수 있다. 이때, 터치 입력의 위치가 객체 1-1이 표시된 위치로 이동 및 유지되는 경우, 컴퓨터 장치(200)는 해당 위치(제2 위치)를 기준으로 객체 1-1의 하위 계층의 객체들인 객체 2-1, 객체 2-2 및 객체 2-3 각각의 위치를 동적으로 계산할 수 있다. 보다 구체적인 예로, 컴퓨터 장치(200)는 객체 2-1, 객체 2-2 및 객체 2-3 각각의 중심점이 터치 입력이 유지되고 있는 위치와 동일한 거리에 위치하면서 정삼각형의 꼭지점을 이루도록 객체 2-1, 객체 2-2 및 객체 2-3 각각의 위치를 계산할 수 있다. 앞서 설명한 바와 같이, 객체들의 배열은 다양하게 설정될 수 있으며, 그 표시 위치가 이동되어 유지되고 있는 터치 입력의 현재 좌표에 따라 동적으로 계산될 수 있다.In this case, the computer device 200 may dynamically determine the display position of the objects of the lower layer based on the second position. For example, the location where the touch input is maintained in step 320 may be a center point of the object 1-1, the object 1-2, and the object 1-3. In this case, when the location of the touch input is moved and maintained to the location where the object 1-1 is displayed, the computer device 200 may be an object 2 that is an object of a lower layer of the object 1-1 based on the location (second location). The positions of 1, object 2-2 and object 2-3 can be calculated dynamically. As a more specific example, the computer device 200 may make the object 2-1 such that the center points of the objects 2-1, 2-2, and 2-3 are located at the same distance as the position where the touch input is maintained and form vertices of an equilateral triangle. For example, the positions of objects 2-2 and 2-3 may be calculated. As described above, the arrangement of the objects may be variously set, and the display position may be dynamically calculated according to the current coordinates of the touch input in which the display position is moved and maintained.
단계(340)에서 컴퓨터 장치(200)는 터치 입력이 제2 위치로부터 표시된 하위 계층의 객체들 중 제2 객체에 대응하는 제3 위치로 이동되어 제3 소정 시간 이상 유지됨(예를 들어, 터치 입력이 제2 위치에서 제2 객체에 대응하는 제3 위치로 이동 후 0.5초 이상 유지됨)을 인지함에 따라, 제2 객체에 대응하는 조작을 미디어 플레이어에 적용할 수 있다.In operation 340, the computer apparatus 200 moves the touch input from the second position to a third position corresponding to the second object among the objects of the lower layer displayed and maintained for the third predetermined time or longer (for example, the touch input. After the movement from the second position to the third position corresponding to the second object is maintained for 0.5 seconds or more), an operation corresponding to the second object can be applied to the media player.
예를 들어, 단계(320)에서 객체 1-1이 선택되어 단계(330)에서 객체 2-1, 객체 2-2 및 객체 2-3이 표시되고, 단계(340)에서 객체 2-1이 선택되는 경우를 고려할 수 있다. 이미 설명한 바와 같이 객체 2-1은 선택된 컨텐츠에 대한 재생 및 재생 중지를 위한 제1 조작에 대응할 수 있으며, 미디어 플레이어에는 재생 조작 또는 재생 중지 조작이 적용될 수 있다. 만약, 미디어 플레이어를 통해 선택된 컨텐츠가 재생중인 경우, 미디어 플레이어에는 재생 중지 조작이 적용될 수 있으며, 미디어 플레이어를 통해 선택된 컨텐츠가 재생되기 이전인 경우, 미디어 플레이어에는 재생 조작이 적용될 수 있다. 이때, 사용자의 터치 조작을 살펴보면, 사용자는 터치스크린 화면을 터치한 후, 터치의 위치를 객체 1-1로 이동시킨 후 다시 객체 2-1로 이동시키는 것만으로, 미디어 플레이어에 대한 재생 조작 또는 재생 중지 조작을 처리할 수 있게 된다. 또한, 객체들의 표시 위치는 사용자의 터치 위치에 기반하기 때문에 사용자는 한 손으로 간편하게 이러한 재생 조작 또는 재생 중지 조작을 처리할 수 있다. 또한, 단계(320)에서 객체 1-1이 선택되어 단계(330)에서 객체 2-1, 객체 2-2 및 객체 2-3이 표시되고, 단계(340)에서 객체 2-2가 선택되는 경우를 고려할 수 있다. 객체 2-2는 현재 선택된 컨텐츠의 이전 컨텐츠를 선택하기 위한 제2 조작에 대응할 수 있으며, 사용자는 역시 터치스크린 화면을 터치하여, 터치의 위치를 객체 1-1로 이동시킨 후, 객체 2-2 이동시키는 것만으로, 이전 컨텐츠를 선택할 수 있게 된다. 만약, 사용자가 터치의 위치를 객체 1-1로 이동시킨 후, 객체 2-3으로 이동시키는 경우, 다음 컨텐츠를 선택할 수 있게 된다.For example, object 1-1 is selected in step 320 to display object 2-1, object 2-2 and object 2-3 in step 330, and object 2-1 to select in step 340 May be considered. As described above, the object 2-1 may correspond to a first operation for reproducing and resuming reproduction of the selected content, and the reproducing operation or reproducing operation may be applied to the media player. If the content selected through the media player is being played, the media player may be stopped from playing. If the selected content is played back through the media player, the media player may be played back. In this case, when the user touches the touch screen, the user touches the touch screen screen, and then moves the touch position to the object 1-1 and then to the object 2-1 again. The stop operation can be processed. In addition, since the display position of the objects is based on the touch position of the user, the user can easily handle such playback operation or playback stop operation with one hand. In addition, when the object 1-1 is selected in step 320 to display the object 2-1, the object 2-2 and the object 2-3 in step 330, the object 2-2 is selected in step 340 May be considered. The object 2-2 may correspond to the second operation for selecting previous content of the currently selected content, and the user also touches the touch screen screen to move the touch position to the object 1-1, and then the object 2-2. Just by moving, the previous content can be selected. If the user moves the position of the touch to object 1-1 and then to object 2-3, the next content can be selected.
이와 유사하게, 사용자는 터치의 위치를 객체 1-2나 객체 1-3으로 이동시킨 후, 하위 계층의 객체(상위 계층의 객체 1-2에 대응하는 하위 계층의 객체 2-4나 객체 2-5 또는 상위 계층의 객체 1-3에 대응하는 하위 계층의 객체 2-6이나 객체 2-7)로 이동시키는 간단한 한 손 동작만으로 정방향 탐색, 역방향 탐색, 볼륨 조절 등과 같은 다양한 조작을 처리할 수 있게 된다.Similarly, the user moves the position of the touch to Object 1-2 or Object 1-3, and then the object in the lower layer (Object 2-4 or Object 2 in lower layer corresponding to Object 1-2 in higher layer). 5 or a simple one-handed move to lower layers of Objects 2-6 or Objects 2-7 corresponding to Objects 1-3 of the upper layer to handle various operations such as forward navigation, reverse navigation, volume control, etc. do.
도 4는 본 발명의 일실시예에 있어서, 상위 계층의 객체를 표시하는 예를 도시한 도면이다. 도 4는 앞서 설명한 컴퓨터 장치(200)의 예로서 스마트폰(400)의 예를 나타내고 있으며, 제1 화면(410)에서 미디어 플레이어를 통해 앨범의 트랙 이미지(420)가 표시된 예를 나타내고 있으며, 사용자가 제1 화면(410)에서 제1 위치(430)를 터치하는 예를 나타내고 있다. 이때, 스마트폰(400)은 제2 화면(440)에서와 같이 컴퓨터 프로그램의 제어에 따라 상위 계층의 객체들로서 재생 조작을 위한 객체(450), 탐색 조작을 위한 객체(460) 및 볼륨 조작을 위한 객체(470)를 표시할 수 있다. 이때, 사용자의 터치는 제1 위치(430)에 유지되고 있을 수 있으며, 사용자의 터치가 해제되는 경우 객체들(450, 460, 470)의 표시 역시 해제될 수 있다. 이때, 객체들(450, 460, 470)의 표시와 관련된 터치의 인식은 제1 화면(410)의 전체 영역에 대해 이루어질 수 있으며, 실시예에 따라 제1 화면(410)의 기설정되는 일부 영역으로 한정되어 이루어질 수도 있다.4 is a diagram illustrating an example of displaying an object of a higher layer according to an embodiment of the present invention. 4 illustrates an example of the smartphone 400 as an example of the computer device 200 described above, and illustrates an example in which a track image 420 of an album is displayed through a media player on a first screen 410. Shows an example of touching the first position 430 on the first screen 410. In this case, the smartphone 400 is an object of a higher layer as an object of a higher layer, an object 450 for a reproduction operation, an object 460 for a navigation operation, and a volume operation, as the objects of the upper layer, as shown in the second screen 440. The object 470 may be displayed. In this case, the user's touch may be maintained at the first position 430, and when the user's touch is released, the display of the objects 450, 460, and 470 may also be released. In this case, the recognition of the touch associated with the display of the objects 450, 460, and 470 may be performed for the entire area of the first screen 410, and according to an exemplary embodiment, a predetermined area of the first screen 410 may be used. It may be limited to.
한편, 사용자는 유지되고 있는 터치의 위치를 표시되어 있는 객체들(450, 460, 470)의 위치로 이동시킴에 따라 상위 계층의 객체들 중 하나를 선택할 수 있으며, 이 경우 스마트폰(400)은 선택된 상위 계층의 객체에 대응하는 하위 계층의 객체들을 표시할 수 있다.Meanwhile, the user may select one of the objects of the upper layer by moving the position of the touch maintained to the position of the displayed objects 450, 460, and 470, in which case the smartphone 400 Objects of a lower layer corresponding to objects of the selected upper layer may be displayed.
도 5 내지 도 7은 본 발명의 일실시예에 있어서, 하위 계층의 객체를 표시하는 예를 도시한 도면들이다.5 to 7 are diagrams illustrating examples of displaying objects of a lower layer according to an embodiment of the present invention.
도 5의 제1 화면(510)은 도 4의 제2 화면(440)에서 사용자가 유지되고 있는 터치의 위치를 제1 위치(430)에서 재생 조작을 위한 객체(450)상의 제2 위치(520)로 이동한 예를 나타내고 있다. 이때, 재생 조작을 위한 객체(450)에 대응하는 하위 계층의 객체들이 제2 위치(520)에 기반하여 제공될 수 있다.The first screen 510 of FIG. 5 is a second position 520 on the object 450 for reproducing at the first location 430 the position of the touch held by the user on the second screen 440 of FIG. 4. An example of moving to) is shown. In this case, objects of a lower layer corresponding to the object 450 for the reproduction operation may be provided based on the second location 520.
도 5의 제2 화면(530)은 재생 조작을 위한 객체(450)에 대응하는 하위 계층의 객체들로서 선택된 컨텐츠의 재생 및 재생중지를 위한 객체(540), 이전 컨텐츠의 선택을 위한 객체(550) 및 다음 컨텐츠의 선택을 위한 객체(560)를 제2 위치(520)에 기반하여 제공하는 예를 나타내고 있다. 이때, 사용자가 터치가 유지되는 위치를 하위 계층의 객체들 중 하나의 위치로 이동시킴에 따라 하위 계층의 객체들 중 하나에 대응하는 조작이 미디어 플레이어에 적용될 수 있다. 예를 들어, 사용자가 터치 위치를 제2 위치(520)에서 선택된 컨텐츠의 재생 및 재생중지를 위한 객체(540)상으로 이동시키는 경우, 선택된 컨텐츠에 대한 재생이 개시 또는 중지될 수 있다. 다른 예로, 사용자가 터치 위치를 제2 위치(520)에서 이전 컨텐츠의 선택을 위한 객체(550)상으로 이동시키는 경우, 재생 목록에서 현재 선택된 컨텐츠의 이전 컨텐츠가 선택될 수 있다. 또 다른 예로, 사용자가 터치 위치를 제2 위치(520)에서 다음 컨텐츠의 선택을 위한 객체(560)상으로 이동시키는 경우, 재생 목록에서 현재 선택된 컨텐츠의 다음 컨텐츠가 선택될 수 있다.The second screen 530 of FIG. 5 is an object of a lower layer corresponding to the object 450 for a reproduction operation, an object 540 for playing and stopping playback of selected content, and an object 550 for selecting previous content. And an example of providing the object 560 for selecting the next content based on the second location 520. In this case, as the user moves the position where the touch is maintained to one of the objects in the lower layer, an operation corresponding to one of the objects in the lower layer may be applied to the media player. For example, when the user moves the touch position on the object 540 for playing and stopping playing the selected content at the second position 520, the playing of the selected content may be started or stopped. As another example, when the user moves the touch position on the object 550 for the selection of the previous content at the second location 520, the previous content of the content currently selected in the playlist may be selected. As another example, when the user moves the touch position from the second position 520 onto the object 560 for selecting the next content, the next content of the content currently selected in the playlist may be selected.
도 6의 제1 화면(610)은 도 4의 제2 화면(440)에서 사용자가 유지되고 있는 터치의 위치를 제1 위치(430)에서 탐색 조작을 위한 객체(460)상의 제3 위치(620)로 이동한 예를 나타내고 있다. 이때, 탐색 조작을 위한 객체(460)에 대응하는 하위 계층의 객체들이 제3 위치(620)에 기반하여 제공될 수 있다.The first screen 610 of FIG. 6 is a third position 620 on the object 460 for the search operation at the first position 430 of the position of the touch held by the user on the second screen 440 of FIG. 4. An example of moving to) is shown. In this case, objects of a lower layer corresponding to the object 460 for the search operation may be provided based on the third location 620.
도 6의 제2 화면(630)은 탐색 조작을 위한 객체(460)에 대응하는 하위 계층의 객체들로서 정방향 탐색을 위한 객체(640) 및 역방향 탐색을 위한 객체(650)를 제3 위치(620)에 기반하여 제공하는 예를 나타내고 있다. 이때, 사용자가 터치가 유지되는 위치를 하위 계층의 객체들 중 하나의 위치로 이동시킴에 따라 하위 계층의 객체들 중 하나에 대응하는 조작이 미디어 플레이어에 적용될 수 있다.The second screen 630 of FIG. 6 is an object of a lower layer corresponding to the object 460 for the navigation operation, and the object 640 for forward navigation and the object 650 for reverse navigation are located in the third position 620. An example is provided based on the above. In this case, as the user moves the position where the touch is maintained to one of the objects in the lower layer, an operation corresponding to one of the objects in the lower layer may be applied to the media player.
예를 들어, 사용자가 터치 위치를 제3 위치(620)에서 정방향 탐색을 위한 객체(640)상으로 이동시키는 경우, 선택된 컨텐츠에 대한 정방향 탐색이 이루어질 수 있다. 이때, 정방향 탐색의 정도는 사용자의 터치가 정방향 탐색을 위한 객체(640)상에 계속 위치하고 있는 시간에 기초하여 결정될 수 있다. 또는 정방향 탐색의 정도는 사용자의 터치의 정방향 탐색을 위한 객체(640)상에서의 위치에 따라 결정될 수도 있다. 보다 구체적인 예로, 사용자의 정방향 탐색을 위한 객체(640)상에서의 터치 위치가 제3 위치(620)에 가까울수록 정방향으로의 탐색 속도가 상대적으로 감소하고, 사용자의 터치 위치가 제3 위치(620)로부터 멀어질수록 정방향으로의 탐색 속도가 상대적으로 증가할 수 있다. 또 다른 예로, 사용자의 정방향 탐색을 위한 객체(640)상에서의 터치 위치가 정방향 탐색을 위한 객체(640)의 중심에 가까울수록 정방향으로의 탐색 속도가 상대적으로 감소하고, 사용자의 터치 위치가 정방향 탐색을 위한 객체(640)의 가장자리에 가까울수록 정방향으로의 탐색 속도가 상대적으로 증가할 수 있다.For example, when the user moves the touch position on the object 640 for forward search from the third location 620, the forward search for the selected content may be performed. In this case, the degree of forward search may be determined based on the time at which the user's touch is continuously positioned on the object 640 for forward search. Alternatively, the degree of forward navigation may be determined according to the position on the object 640 for forward navigation of the user's touch. More specifically, as the touch location on the object 640 for forward navigation of the user is closer to the third location 620, the search speed in the forward direction is relatively decreased, and the user's touch location is reduced to the third location 620. The further away from, the relatively higher the search speed in the forward direction can be. As another example, as the touch position on the object 640 for forward navigation of the user is closer to the center of the object 640 for forward navigation, the search speed in the forward direction is relatively decreased, and the user's touch position is forward search. The closer to the edge of the object 640 for the faster the search speed in the forward direction can be increased.
마찬가지로, 사용자의 터치 위치를 제3 위치(620)에서 역방향 탐색을 위한 객체(650)상으로 이동시키는 경우, 선택된 컨텐츠에 대한 역방향 탐색이 이루어질 수 있다. 이때, 역방향 탐색의 정도는 사용자의 터치가 역방향 탐색을 위한 객체(650)상에 계속 위치하고 있는 시간에 기초하여 결정될 수 있다. 또한, 역방향 탐색의 정도는 사용자의 터치의 역방향 탐색을 위한 객체(650)상에서의 위치에 따라 결정될 수도 있다. 보다 구체적인 예로, 사용자의 역방향 탐색을 위한 객체(650)상에서의 터치 위치가 제3 위치(620)에 가까울수록 역방향으로의 탐색 속도가 상대적으로 감소하고, 사용자의 터치 위치가 제3 위치(620)로부터 멀어질수록 역방향으로의 탐색 속도가 상대적으로 증가할 수 있다. 또 다른 예로, 사용자의 터치 위치가 역방향 탐색을 위한 객체(650)의 중심에 가까울수록 역방향으로의 탐색 속도가 상대적으로 감소하고, 사용자의 터치 위치가 역방향 탐색을 위한 객체(650)의 가장자리에 가까울수록 역방향으로의 탐색 속도가 상대적으로 증가할 수 있다.  Similarly, when the user's touch location is moved from the third location 620 onto the object 650 for reverse search, reverse search for the selected content may be performed. In this case, the degree of reverse search may be determined based on the time at which the user's touch is continuously positioned on the object 650 for reverse search. In addition, the degree of reverse search may be determined according to the position on the object 650 for the reverse search of the user's touch. More specifically, as the touch position on the object 650 for the reverse search of the user is closer to the third position 620, the search speed in the reverse direction is relatively decreased, and the touch position of the user is the third position 620. As you move further away, the search speed in the reverse direction may increase relatively. As another example, the closer the user's touch position is to the center of the object 650 for reverse navigation, the lower the search speed in the reverse direction, and the closer the user's touch position is to the edge of the object 650 for reverse navigation. As a result, the search speed in the reverse direction may be relatively increased.
도 7의 제1 화면(710)은 도 4의 제2 화면(440)에서 사용자가 유지되고 있는 터치의 위치를 제1 위치(430)에서 볼륨 조작을 위한 객체(470)상의 제4 위치(720)로 이동한 예를 나타내고 있다. 이때, 볼륨 조작을 위한 객체(470)에 대응하는 하위 계층의 객체들이 제4 위치(720)에 기반하여 제공될 수 있다.In the first screen 710 of FIG. 7, the position of the touch held by the user on the second screen 440 of FIG. 4 is located at the fourth position 720 on the object 470 for volume manipulation at the first location 430. An example of moving to) is shown. In this case, objects of lower layers corresponding to the object 470 for volume manipulation may be provided based on the fourth location 720.
도 7의 제2 화면(730)은 볼륨 조작을 위한 객체(470)에 대응하는 하위 계층의 객체들로서 볼륨 증가를 위한 객체(740) 및 볼륨 감소를 위한 객체(750)를 제4 위치(720)에 기반하여 제공하는 예를 나타내고 있다. 이때, 사용자가 터치가 유지되는 위치를 하위 계층의 객체들 중 하나의 위치로 이동시킴에 따라 하위 계층의 객체들 중 하나에 대응하는 조작이 미디어 플레이어에 적용될 수 있다. The second screen 730 of FIG. 7 is an object of a lower layer corresponding to the object 470 for volume manipulation. The second screen 730 shows an object 740 for increasing volume and an object 750 for decreasing volume in a fourth position 720. An example is provided based on the above. In this case, as the user moves the position where the touch is maintained to one of the objects in the lower layer, an operation corresponding to one of the objects in the lower layer may be applied to the media player.
예를 들어, 사용자가 터치 위치를 제4 위치(720)에서 볼륨 증가를 위한 객체(740)상으로 이동시키는 경우, 선택된 컨텐츠의 재생에 따른 볼륨이 증가될 수 있다. 이때, 볼륨의 증가 정도는 사용자의 터치가 볼륨 증가를 위한 객체(740)상에 계속 위치하고 있는 시간에 기반하여 결정될 수 있다. 또는 볼륨 증가의 정도는 사용자의 터치의 볼륨 증가를 위한 객체(740)상에서의 위치에 따라 결정될 수도 있다. 보다 구체적인 예로, 사용자의 볼륨 증가를 위한 객체(740)상에서의 터치 위치가 제4 위치(720)에 가까울수록 볼륨 증가의 정도가 상대적으로 감소하고, 사용자의 터치 위치가 제4 위치(720)로부터 멀어질수록 볼륨 증가의 정도가 상대적으로 증가할 수 있다. 또 다른 예로, 사용자의 터치 위치가 볼륨 증가를 위한 객체(740)의 중심에 가까울수록 볼륨 증가의 정도가 상대적으로 감소하고, 사용자의 터치 위치가 볼륨 증가를 위한 객체(740)의 가장자리에 가까울수록 볼륨 증가의 정도가 상대적으로 증가할 수 있다.For example, when the user moves the touch position on the object 740 for increasing the volume at the fourth position 720, the volume according to the playback of the selected content may be increased. In this case, the degree of increase in volume may be determined based on the time at which the user's touch is continuously positioned on the object 740 for increasing the volume. Alternatively, the degree of volume increase may be determined according to a position on the object 740 for increasing the volume of the user's touch. More specifically, as the touch position on the object 740 for increasing the volume of the user is closer to the fourth position 720, the degree of volume increase is relatively decreased, and the touch position of the user is changed from the fourth position 720. The further away, the relative increase in volume can occur. As another example, the closer the user's touch position is to the center of the object 740 for increasing the volume, the lower the volume increase, and the closer the user's touch position to the edge of the object 740 for increasing the volume. The degree of volume increase can be relatively increased.
마찬가지로, 사용자의 터치 위치를 제4 위치(720)에서 볼륨 감소를 위한 객체(750)상으로 이동시키는 경우, 선택된 컨텐츠의 재생에 따른 볼륨이 감소될 수 있다. 이때, 볼륨 감소의 정도는 사용자의 터치가 볼륨 감소를 위한 객체(750)상에 계속 위치하고 있는 시간에 기반하여 결정될 수 있다. 또는 볼륨 감소의 정도는 사용자의 터치의 볼륨 감소를 위한 객체(750)상에서의 위치에 따라 결정될 수도 있다. 보다 구체적인 예로, 사용자의 볼륨 감소를 위한 객체(750)상에서의 터치 위치가 제4 위치(720)에 가까울수록 볼륨 감소의 정도가 상대적으로 감소하고, 사용자의 터치 위치가 제4 위치(720)로부터 멀어질수록 볼륨 감소의 정도가 상대적으로 증가할 수 있다. 또 다른 예로, 사용자의 터치 위치가 볼륨 감소를 위한 객체(750)의 중심에 가까울수록 볼륨 감소의 정도가 상대적으로 감소하고, 사용자의 터치 위치가 볼륨 감소를 위한 객체(750)의 가장자리에 가까울수록 볼륨 감소의 정도가 상대적으로 증가할 수 있다.Similarly, when the user's touch position is moved from the fourth position 720 onto the object 750 for volume reduction, the volume according to playback of the selected content may be reduced. In this case, the degree of volume reduction may be determined based on the time at which the user's touch is continuously positioned on the object 750 for volume reduction. Alternatively, the degree of volume reduction may be determined according to a position on the object 750 for volume reduction of the user's touch. More specifically, as the touch position on the object 750 for decreasing the volume of the user approaches the fourth position 720, the degree of volume reduction is relatively decreased, and the touch position of the user is reduced from the fourth position 720. The further away, the relative decrease in the volume can be. As another example, the closer the user's touch position is to the center of the object 750 for volume reduction, the lower the degree of volume reduction, and the closer the user's touch position to the edge of the object 750 for volume reduction. The degree of volume reduction can be relatively increased.
한편, 각각의 실시예들에서 터치스크린 화면에 객체들이 표시되는 경우, 미디어 플레이어를 조작하는 중임을 사용자가 보다 쉽게 인지할 수 있도록 화면에서 객체가 표시되지 않은 부분이 딤드(deemed)되거나 또는 화면에 표시되는 객체에 도미넌트 컬러(dominant color)를 적용하여 객체들이 부각될 수 있다.On the other hand, when the objects are displayed on the touch screen in each of the embodiments, a portion where the object is not displayed on the screen is deemed or displayed on the screen so that the user can more easily recognize that the media player is being operated. Objects may be highlighted by applying a dominant color to the displayed object.
다른 실시예로, 사용자의 터치가 객체상으로 이동함에 따른 피드백이 시각, 청각 및 촉각 중 적어도 하나를 이용하여 출력될 수 있다. 예를 들어, 본 발명의 실시예들이 사용자의 하나의 터치가 유지된 상태에서 이동됨에 따라 미디어 플레이어가 조작되는 방식이기 때문에 객체의 선택을 사용자가 보다 쉽게 인지할 수 있도록 사용자의 터치가 객체상으로 이동하는 경우, 상술한 스마트폰(400)은 진동, 화면의 밝기 조절, 객체 조작(일례로, 객체가 흔들리는 모습을 화면에 표시) 등과 같은 피드백을 사용자에게 제공할 수 있다.In another embodiment, feedback as the user's touch moves on the object may be output using at least one of visual, auditory, and tactile. For example, since embodiments of the present invention are a way in which the media player is operated as the user moves with one touch held, the user's touch is placed on the object so that the user can more easily recognize the selection of the object. When moving, the smartphone 400 may provide feedback to the user, such as vibration, brightness adjustment of the screen, and object manipulation (eg, display of an object shaking on the screen).
이처럼, 미디어 플레이어의 조작을 위한 계층화된 객체들이 사용자의 터치 위치에 기반하여 계층별로 제공됨에 따라 사용자가 한 손으로도 계층화된 객체들을 손 쉽게 선택할 수 있다. 따라서 본 발명의 실시예들에 따르면, 미디어 플레이어에서 제공하는 컨텐츠에 대한 재생, 재생중지, 컨텐츠 선택, 컨텐츠 내 탐색, 볼륨 조절 등과 같은 다양한 조작을 사용자가 한 손으로 간단히 처리할 수 있도록 UX(user experience) 및/또는 UI(user interface)를 제공할 수 있다.As such, the layered objects for manipulation of the media player are provided for each layer based on the touch position of the user, so that the user can easily select the layered objects with one hand. Accordingly, according to embodiments of the present invention, a user may easily process various operations such as playing, stopping, selecting content, searching in content, adjusting volume, and the like provided by a media player with one hand. experience and / or a user interface (UI).
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or apparatus described above may be implemented as a hardware component, a software component or a combination of hardware components and software components. For example, the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs). Can be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For the convenience of understanding, a processing device may be described as one being used, but a person skilled in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. It can be embodied in. The software may be distributed over networked computer systems so that they are stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 이러한 기록매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있으며, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Such a recording medium may be various recording means or storage means in the form of a single or several hardware combined, and is not limited to a medium directly connected to any computer system, but may be distributed on a network. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the following claims.

Claims (20)

  1. 컴퓨터 장치와 결합되어 제어 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램에 있어서,A computer program coupled to a computer device, the computer program stored on a computer readable recording medium for executing the control method on the computer device,
    상기 제어 방법은,The control method,
    미디어 플레이어의 제어를 위한 계층화된 복수의 객체들을 관리하는 단계;Managing a plurality of layered objects for control of the media player;
    상기 미디어 플레이어의 실행과 연계된 상기 컴퓨터 장치의 터치스크린 화면의 제1 위치에서 터치 입력이 제1 소정 시간 이상 유지됨을 인지함에 따라, 상기 터치스크린 화면을 통해 상기 복수의 객체들 중 상위 계층의 객체들을 표시하는 단계;Recognizing that the touch input is maintained for a first predetermined time or more at a first position of the touch screen screen of the computer device associated with the execution of the media player, an object of a higher layer among the plurality of objects through the touch screen screen Displaying them;
    상기 터치 입력이 상기 제1 위치로부터 상기 표시된 상위 계층의 객체들 중 제1 객체에 대응하는 제2 위치로 이동되어 제2 소정 시간 이상 유지됨을 인지함에 따라 상기 제1 객체에 대응하는 하위 계층의 객체들을 상기 터치스크린 화면을 통해 표시하는 단계; 및An object of a lower layer corresponding to the first object is recognized as the touch input is moved from the first position to a second position corresponding to the first object of the displayed upper layer and maintained for a second predetermined time or more. Displaying them through the touch screen; And
    상기 터치 입력이 상기 제2 위치로부터 상기 표시된 하위 계층의 객체들 중 제2 객체에 대응하는 제3 위치로 이동되어 제3 소정 시간 이상 유지됨을 인지함에 따라, 상기 제2 객체에 대응하는 조작을 상기 미디어 플레이어에 적용하는 단계In response to the touch input being moved from the second position to a third position corresponding to a second object among the displayed lower hierarchical objects and being maintained for a third predetermined time or more, the operation corresponding to the second object may be recalled. Steps to apply to media player
    를 포함하는, 컴퓨터 프로그램.Including, a computer program.
  2. 제1항에 있어서,The method of claim 1,
    상기 계층화된 복수의 객체들을 관리하는 단계는,The managing of the plurality of layered objects may include:
    상기 미디어 플레이어에 대해 기정의된 복수의 조작들을 분류한 카테고리들 각각에 대응하는 상기 상위 계층의 객체들 및 상기 복수의 조작들 각각에 대응하는 상기 하위 계층의 객체들을 관리하는, 컴퓨터 프로그램.And manage objects of the upper layer corresponding to each of categories categorized into a plurality of operations defined for the media player and objects of the lower layer corresponding to each of the plurality of operations.
  3. 제2항에 있어서,The method of claim 2,
    상기 카테고리들은, (1) 이전 컨텐츠 선택 조작, 다음 컨텐츠 선택 조작, 선택된 컨텐츠의 재생 및 재생 중지 조작을 포함하는 제1 카테고리, (2) 선택된 컨텐츠에 대한 정방향 탐색 조작 및 선택된 컨텐츠에 대한 역방향 탐색 조작을 포함하는 제2 카테고리, 그리고 (3) 볼륨 증가 조작 및 볼륨 감소 조작을 포함하는 제3 카테고리 중 둘 이상의 카테고리들을 포함하는, 컴퓨터 프로그램The categories include: (1) a first category including a previous content selection operation, a next content selection operation, a play and stop playback operation of the selected content, (2) a forward search operation for the selected content, and a reverse search operation for the selected content And a second category comprising: and (3) two or more categories of a third category comprising a volume increase operation and a volume decrease operation.
  4. 제1항에 있어서,The method of claim 1,
    상기 제2 객체에 대응하는 조작을 상기 미디어 플레이어에 적용하는 단계는,Applying the operation corresponding to the second object to the media player,
    상기 제3 위치와 상기 제2 위치간의 거리에 기초하여 상기 조작을 상기 미디어 플레이어에 적용하기 위한 정도를 조절하는, 컴퓨터 프로그램.And adjust a degree for applying the manipulation to the media player based on a distance between the third position and the second position.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 제2 객체에 대응하는 조작을 상기 미디어 플레이어에 적용하는 단계는,Applying the operation corresponding to the second object to the media player,
    상기 제3 위치가 상기 제2 위치에 가까울수록 상기 조작을 상기 미디어 플레이어에 적용하기 위한 정도를 상대적으로 감소시키고, 상기 제3 위치가 상기 제2 위치로부터 멀어질수록 상기 조작을 상기 미디어 플레이어에 적용하기 위한 정도를 상대적으로 증가시키는, 컴퓨터 프로그램.The closer the third position is to the second position, the less the extent to which the manipulation is applied to the media player, and the farther the third position is from the second position, apply the manipulation to the media player. A computer program, which increases the degree to do relatively.
  6. 제4항에 있어서,The method of claim 4, wherein
    상기 조작을 상기 미디어 플레이어에 적용하기 위한 정도는, 상기 제2 객체의 종류에 따라 탐색 속도의 감소의 정도, 탐색 속도의 증가의 정도, 볼륨 감소의 정도 및 볼륨 증가의 정도 중 어느 하나를 포함하는, 컴퓨터 프로그램.The degree for applying the manipulation to the media player includes any one of a degree of decrease in search speed, an amount of increase in search speed, a degree of decrease in volume, and a degree of increase in volume according to the type of the second object. , Computer program.
  7. 제1항에 있어서,The method of claim 1,
    상기 상위 계층의 객체들을 표시하는 단계는,Displaying the objects of the higher layer,
    상기 제1 위치에 기초하여 상기 상위 계층의 객체들의 표시 위치를 동적으로 결정하는, 컴퓨터 프로그램.And dynamically determine a display position of the objects of the upper layer based on the first position.
  8. 제1항에 있어서,The method of claim 1,
    상기 하위 계층의 객체들을 표시하는 단계는,Displaying the objects of the lower layer,
    상기 제2 위치에 기초하여 상기 하위 계층의 객체들의 표시 위치를 동적으로 결정하는, 컴퓨터 프로그램.And dynamically determine a display position of the objects of the lower layer based on the second position.
  9. 제1항에 있어서,The method of claim 1,
    상기 제어 방법은,The control method,
    상기 터치 입력의 상기 제1 위치에서의 유지 및 상기 터치 입력의 상기 제2 위치로의 이동 중 적어도 하나에 대한 피드백을 시각, 청각 및 촉각 중 적어도 하나를 이용하여 출력하는 단계Outputting feedback for at least one of maintaining at the first position of the touch input and moving the touch input to the second position using at least one of visual, auditory, and tactile
    를 더 포함하는, 컴퓨터 프로그램.The computer program further comprising.
  10. 미디어 플레이어의 제어를 위한 계층화된 복수의 객체들을 관리하는 단계;Managing a plurality of layered objects for control of the media player;
    상기 미디어 플레이어의 실행과 연계된 컴퓨터 장치의 터치스크린 화면의 제1 위치에서 터치 입력이 제1 소정 시간 이상 유지됨을 인지함에 따라, 상기 터치스크린 화면을 통해 상기 복수의 객체들 중 상위 계층의 객체들을 표시하는 단계;Recognizing that the touch input is maintained for a first predetermined time or more at a first position of the touch screen of the computer device associated with the execution of the media player, objects of a higher layer among the plurality of objects are displayed through the touch screen. Displaying;
    상기 터치 입력이 상기 제1 위치로부터 상기 표시된 상위 계층의 객체들 중 제1 객체에 대응하는 제2 위치로 이동되어 제2 소정 시간 이상 유지됨을 인지함에 따라, 상기 제1 객체에 대응하는 하위 계층의 객체들을 상기 터치스크린 화면을 통해 표시하는 단계; 및Recognizing that the touch input is moved from the first position to a second position corresponding to the first object among the objects of the displayed upper layer and maintained for a second predetermined time or more, the lower layer corresponding to the first object Displaying objects on the touch screen; And
    상기 터치 입력이 상기 제2 위치로부터 상기 표시된 하위 계층의 객체들 중 제2 객체에 대응하는 제3 위치로 이동되어 제3 소정 시간 이상 유지됨을 인지함에 따라, 상기 제2 객체에 대응하는 조작을 상기 미디어 플레이어에 적용하는 단계In response to the touch input being moved from the second position to a third position corresponding to a second object among the displayed lower hierarchical objects and being maintained for a third predetermined time or more, the operation corresponding to the second object may be recalled. Steps to apply to media player
    를 포함하는 제어 방법.Control method comprising a.
  11. 제10항에 있어서,The method of claim 10,
    상기 계층화된 복수의 객체들을 관리하는 단계는,The managing of the plurality of layered objects may include:
    상기 미디어 플레이어에 대해 기정의된 복수의 조작들을 분류한 카테고리들 각각에 대응하는 상기 상위 계층의 객체들 및 상기 복수의 조작들 각각에 대응하는 상기 하위 계층의 객체들을 관리하는, 제어 방법.And managing objects of the upper layer corresponding to each of categories categorized into a plurality of operations defined for the media player and objects of the lower layer corresponding to each of the plurality of operations.
  12. 제10항에 있어서,The method of claim 10,
    상기 제2 객체에 대응하는 조작을 상기 미디어 플레이어에 적용하는 단계는,Applying the operation corresponding to the second object to the media player,
    상기 제3 위치와 상기 제2 위치간의 거리에 기초하여 상기 조작을 상기 미디어 플레이어에 적용하기 위한 정도를 조절하는, 제어 방법.And control the degree for applying the manipulation to the media player based on the distance between the third position and the second position.
  13. 제10항에 있어서,The method of claim 10,
    상기 상위 계층의 객체들을 표시하는 단계는,Displaying the objects of the higher layer,
    상기 제1 위치에 기초하여 상기 상위 계층의 객체들의 표시 위치를 동적으로 결정하는, 제어 방법.And dynamically determine a display position of the objects of the higher layer based on the first position.
  14. 제10항에 있어서,The method of claim 10,
    상기 하위 계층의 객체들을 표시하는 단계는,Displaying the objects of the lower layer,
    상기 제2 위치에 기초하여 상기 하위 계층의 객체들의 표시 위치를 동적으로 결정하는, 제어 방법.And dynamically determine a display position of the objects of the lower layer based on the second position.
  15. 제10항에 있어서,The method of claim 10,
    상기 터치 입력의 상기 제1 위치에서의 유지 및 상기 터치 입력의 상기 제2 위치로의 이동 중 적어도 하나에 대한 피드백을 시각, 청각 및 촉각 중 적어도 하나를 이용하여 출력하는 단계Outputting feedback for at least one of maintaining at the first position of the touch input and moving the touch input to the second position using at least one of visual, auditory, and tactile
    를 더 포함하는, 제어 방법.Further comprising, the control method.
  16. 제10항 내지 제15항 중 어느 한 항의 방법을 컴퓨터에 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체.A computer-readable recording medium having recorded thereon a computer program for causing a computer to execute the method of any one of claims 10 to 15.
  17. 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서At least one processor implemented to execute computer-readable instructions
    를 포함하고,Including,
    상기 적어도 하나의 프로세서에 의해,By the at least one processor,
    미디어 플레이어의 제어를 위한 계층화된 복수의 객체들을 관리하고,Manage a plurality of layered objects for control of the media player,
    상기 미디어 플레이어의 실행과 연계된 컴퓨터 장치의 터치스크린 화면의 제1 위치에서 터치 입력이 제1 소정 시간 이상 유지됨을 인지함에 따라, 상기 터치스크린 화면을 통해 상기 복수의 객체들 중 상위 계층의 객체들을 표시하고,Recognizing that the touch input is maintained for a first predetermined time or more at a first position of the touch screen of the computer device associated with the execution of the media player, objects of a higher layer among the plurality of objects are displayed through the touch screen. Display,
    상기 터치 입력이 상기 제1 위치로부터 상기 표시된 상위 계층의 객체들 중 제1 객체에 대응하는 제2 위치로 이동되어 제2 소정 시간 이상 유지됨을 인지함에 따라, 상기 제1 객체에 대응하는 하위 계층의 객체들을 상기 터치스크린 화면을 통해 표시하고,Recognizing that the touch input is moved from the first position to a second position corresponding to the first object among the objects of the displayed upper layer and maintained for a second predetermined time or more, the lower layer corresponding to the first object Display objects on the touch screen screen,
    상기 터치 입력이 상기 제2 위치로부터 상기 표시된 하위 계층의 객체들 중 제2 객체에 대응하는 제3 위치로 이동되어 제3 소정 시간 이상 유지됨을 인지함에 따라, 상기 제2 객체에 대응하는 조작을 상기 미디어 플레이어에 적용하는,In response to the touch input being moved from the second position to a third position corresponding to a second object among the displayed lower hierarchical objects and being maintained for a third predetermined time or more, the operation corresponding to the second object may be recalled. Applied to media player,
    컴퓨터 장치.Computer devices.
  18. 제17항에 있어서,The method of claim 17,
    상기 적어도 하나의 프로세서에 의해,By the at least one processor,
    상기 미디어 플레이어에 대해 기정의된 복수의 조작들을 분류한 카테고리들 각각에 대응하는 상기 상위 계층의 객체들 및 상기 복수의 조작들 각각에 대응하는 상기 하위 계층의 객체들을 관리하는,Managing objects of the upper layer corresponding to each of categories categorized into a plurality of operations defined for the media player and objects of the lower layer corresponding to each of the plurality of operations,
    컴퓨터 장치.Computer devices.
  19. 제17항에 있어서,The method of claim 17,
    상기 적어도 하나의 프로세서에 의해,By the at least one processor,
    상기 제3 위치와 상기 제2 위치간의 거리에 기초하여 상기 조작을 상기 미디어 플레이어에 적용하기 위한 정도를 조절하는,Adjusting a degree for applying the manipulation to the media player based on a distance between the third position and the second position,
    컴퓨터 장치.Computer devices.
  20. 제17항에 있어서,The method of claim 17,
    상기 적어도 하나의 프로세서에 의해,By the at least one processor,
    상기 제1 위치에 기초하여 상기 하위 계층의 객체들의 표시 위치를 동적으로 결정하는,Dynamically determining display positions of objects of the lower layer based on the first position,
    컴퓨터 장치.Computer devices.
PCT/KR2018/004287 2018-04-12 2018-04-12 Method and system for controlling media player WO2019198844A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2018/004287 WO2019198844A1 (en) 2018-04-12 2018-04-12 Method and system for controlling media player
KR1020207027238A KR102512879B1 (en) 2018-04-12 2018-04-12 Method and system for controlling media player
JP2020555857A JP7183295B6 (en) 2018-04-12 2018-04-12 Method and system for controlling a media player

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/004287 WO2019198844A1 (en) 2018-04-12 2018-04-12 Method and system for controlling media player

Publications (1)

Publication Number Publication Date
WO2019198844A1 true WO2019198844A1 (en) 2019-10-17

Family

ID=68164332

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/004287 WO2019198844A1 (en) 2018-04-12 2018-04-12 Method and system for controlling media player

Country Status (3)

Country Link
JP (1) JP7183295B6 (en)
KR (1) KR102512879B1 (en)
WO (1) WO2019198844A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101004463B1 (en) * 2008-12-09 2010-12-31 성균관대학교산학협력단 Handheld Terminal Supporting Menu Selecting Using Drag on the Touch Screen And Control Method Using Thereof
KR20120031776A (en) * 2010-09-27 2012-04-04 엘지전자 주식회사 Mobile terminal and control method for mobile terminal
KR20150059517A (en) * 2013-11-22 2015-06-01 엘지전자 주식회사 Mobile terminal and control method for the mobile terminal
KR20150094478A (en) * 2014-02-10 2015-08-19 삼성전자주식회사 User terminal device and method for displaying thereof
JP6245788B2 (en) * 2011-02-11 2017-12-13 ソニーモバイルコミュニケーションズ株式会社 Information input device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8074178B2 (en) * 2007-06-12 2011-12-06 Microsoft Corporation Visual feedback display
KR20150092630A (en) * 2014-02-05 2015-08-13 엘지전자 주식회사 Electronic device and method for controlling of the same
JP2016115208A (en) * 2014-12-16 2016-06-23 シャープ株式会社 Input device, wearable terminal, portable terminal, control method of input device, and control program for controlling operation of input device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101004463B1 (en) * 2008-12-09 2010-12-31 성균관대학교산학협력단 Handheld Terminal Supporting Menu Selecting Using Drag on the Touch Screen And Control Method Using Thereof
KR20120031776A (en) * 2010-09-27 2012-04-04 엘지전자 주식회사 Mobile terminal and control method for mobile terminal
JP6245788B2 (en) * 2011-02-11 2017-12-13 ソニーモバイルコミュニケーションズ株式会社 Information input device
KR20150059517A (en) * 2013-11-22 2015-06-01 엘지전자 주식회사 Mobile terminal and control method for the mobile terminal
KR20150094478A (en) * 2014-02-10 2015-08-19 삼성전자주식회사 User terminal device and method for displaying thereof

Also Published As

Publication number Publication date
JP7183295B2 (en) 2022-12-05
KR20200132884A (en) 2020-11-25
JP2021528713A (en) 2021-10-21
JP7183295B6 (en) 2022-12-20
KR102512879B1 (en) 2023-03-22

Similar Documents

Publication Publication Date Title
US11635869B2 (en) Display device and method of controlling the same
US11803564B2 (en) Method and system for keyword search using messaging service
KR102137240B1 (en) Method for adjusting display area and an electronic device thereof
US11899903B2 (en) Display device and method of controlling the same
KR102184269B1 (en) Display apparatus, portable apparatus and method for displaying a screen thereof
WO2011083962A2 (en) Method and apparatus for setting section of a multimedia file in mobile device
US20170315721A1 (en) Remote touchscreen interface for virtual reality, augmented reality and mixed reality devices
JP2021044804A (en) Method and device for providing 360-degree panoramic background used while making video call
WO2014116056A1 (en) Method and system for generating motion sequence of animation, and computer-readable recording medium
US9836134B1 (en) Touchscreen input device based content sharing
WO2022183887A1 (en) Video editing method and apparatus, video playback method and apparatus, device and medium
US20220300144A1 (en) Method, system, and non-transitory computer readable record medium for providing chatroom in 3d form
WO2016108544A1 (en) Chatting service providing method and chatting service providing device
CN113546419A (en) Game map display method, device, terminal and storage medium
KR20200113834A (en) Apparatus and method for providing application information
WO2024037563A1 (en) Content display method and apparatus, and device and storage medium
KR20220154825A (en) How to create notes and electronic devices
WO2019198844A1 (en) Method and system for controlling media player
WO2019245062A1 (en) Method and system for providing contents on basis of user reaction, and non-transitory computer-readable recording medium
US9086746B1 (en) Stylus based profile management
US20220391046A1 (en) Method and system for exposing online content
WO2011037408A2 (en) Terminal having virtual space interface and virtual space interface control method
KR20210029635A (en) Apparatus and method for providing 360 degree panoramic background during video call
WO2011037409A2 (en) Virtual space interface control method to be carried out by terminal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18914878

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020555857

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18914878

Country of ref document: EP

Kind code of ref document: A1