WO2009128670A2 - 사용자 인터페이스를 생성하는 방법 및 장치 - Google Patents
사용자 인터페이스를 생성하는 방법 및 장치 Download PDFInfo
- Publication number
- WO2009128670A2 WO2009128670A2 PCT/KR2009/001994 KR2009001994W WO2009128670A2 WO 2009128670 A2 WO2009128670 A2 WO 2009128670A2 KR 2009001994 W KR2009001994 W KR 2009001994W WO 2009128670 A2 WO2009128670 A2 WO 2009128670A2
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user interface
- information
- combined
- events
- user interfaces
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000008569 process Effects 0.000 claims description 11
- 230000008878 coupling Effects 0.000 claims 3
- 238000010168 coupling process Methods 0.000 claims 3
- 238000005859 coupling reaction Methods 0.000 claims 3
- 230000006870 function Effects 0.000 description 28
- 230000000694 effects Effects 0.000 description 6
- 230000006978 adaptation Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/957—Browsing optimisation, e.g. caching or content distillation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/452—Remote windowing, e.g. X-Window System, desktop virtualisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/957—Browsing optimisation, e.g. caching or content distillation
- G06F16/9577—Optimising the visualization of content, e.g. distillation of HTML documents
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
Definitions
- Embodiments or embodiments relate to a method and apparatus for generating a user interface, and more particularly, to a method and apparatus for dynamically generating a user interface by a client connected to a plurality of servers.
- the user interface server provides a user interface for control to the user interface client, and the user interface client controls the user interface server through the provided user interface.
- the user interface server provides a user interface for remote control to the user interface client in the form of a web page, and the user interface client displays the web page to the user through a browser. The user of the client then controls the user interface server through the displayed user interface.
- FIG. 1 is a flowchart illustrating a method of providing / receiving a user interface according to an exemplary embodiment.
- FIG. 2 illustrates a user interface package according to an embodiment.
- FIG 3 illustrates a structure of a user interface element according to an embodiment.
- 4A-4D illustrate a combination (or combination) of representations of a user interface according to one embodiment.
- 5A and 5B illustrate a combination (or combination) of events of a user interface according to one embodiment.
- FIG. 6 illustrates a combination (or combination) of events of a user interface according to another embodiment.
- FIG. 7 illustrates a client including an apparatus for generating a user interface according to an exemplary embodiment.
- Embodiments provide a method and apparatus for generating a user interface of a user interface client, and provide a computer readable recording medium having recorded thereon a program for executing the method.
- a user can control a plurality of devices at one time through one client.
- a method of generating a user interface including: receiving user interfaces from at least two servers; And combining (or combining) the user interfaces received from the servers to generate a combined user interface.
- the user interfaces received from the servers are user interfaces encoded in a multimedia data format using the scene description method of MPEG.
- user interfaces received from the servers are information for representing objects included in the user interface, information about events generated by the objects, and processing the events. Contains information about the function being called.
- the generating step comprises: decoding a user interface encoded in the multimedia data format; Analyzing information for representing objects included in the user interface of the user interfaces generated as a result of the decoding, information about events generated by the objects, and information about a function called to process the events. ; And combining (or combining) the user interfaces based on the analysis result to generate the combined user interface.
- the step of combining (or combining) the user interfaces to generate the combined user interface comprises arranging the user interfaces to generate the combined user interface.
- the step of combining (or combining) the user interfaces to generate the combined user interface comprises: combining the at least two events of the user interfaces so that a combined event is possible; Generating a customized user interface.
- the step of combining (or combining) the user interfaces to generate the combined user interface also generates events associated with the occurrence of one of the events of the user interfaces. Generating the combined user interface to perform the operation.
- An apparatus for generating a user interface according to an embodiment of the present invention for solving the technical problem is connected to receive the user interface from at least two or more servers; And a UI generator for combining (or combining) the user interfaces received from the servers to generate a combined user interface.
- an embodiment of the present invention provides a computer-readable recording medium having recorded thereon a program for executing the above-described method for generating a user interface.
- FIG. 1 is a flowchart illustrating a method of providing / receiving a user interface according to an exemplary embodiment.
- first server 120 and a second server 130 provide a user interface to a client 110.
- first server 120 and the second server 130 are only examples of a plurality of servers, and three or more servers may provide a user interface to the client 110.
- the client 110 discovers the first server 120 and the second server 130 in step 140.
- the client 110 which is a user interface client, searches for a first server 120 and a second server 130, which are user interface servers, through a predetermined network.
- the client 110 may be a first user interface server through a control point.
- the server 120 and the second server 130 are searched for.
- the first server 120 and the second server 130 provide a user interface to the client.
- the client 110 provides a user interface for accessing the first server 120 and a user interface for accessing the second server 130, respectively.
- the user interface provided to the client 110 may be a widget.
- the user interfaces provided by the first server 120 and the second server 130 may be user interfaces encoded in a format of multimedia data.
- the representation of the user interface may be limited. In other words, it may not be possible to express the user interface in the form of various media.
- the client 110 should include a separate software or hardware module for representing a user interface such as a web browser. This is not suitable when a device with limited hardware resources that can be used, such as when the client 110 is a mobile device.
- the servers 120 and 130 respectively encode information about at least one user interface into a multimedia data format. Since most devices, including mobile devices, can play multimedia including video, voice, etc., the user interface is encoded in a multimedia data format.
- the user interface may be encoded based on the Moving Picture Experts Group (MPEG) standard.
- MPEG Moving Picture Experts Group
- the MPEG standard is an international standard for compressing and encoding video and audio, and there are various versions of standards such as MPEG-1, MPEG-2, MPEG-4, MPEG-7, and MPEG-21.
- Servers 120 and 130 use this MPEG standard to create a user interface. For example, by encoding the user interface in the format of a video to be reproduced by the client 110 to solve the compatibility problem according to the performance difference of the above-described devices.
- the user interface may be encoded using an object-based multimedia encoding scheme such as MPEG-4 Binary Format for Scene (BIFS) and Lightweight Applications Scene Representation (LASeR) for mobile devices.
- BIFS Binary Format for Scene
- LASeR Lightweight Applications Scene Representation
- Objects included in the user interface are viewed as objects encoded based on the BIFS or LASeR format, and the spatio-temporal arrangement of the user interface objects is represented and encoded using the scene description of the BIFS or LASeR.
- BIFS or LASeR includes information about scene description that can express the spatiotemporal arrangement of objects included in the image. Therefore, BIFS or LASeR is used to represent the spatiotemporal arrangement of user interface objects such as buttons and menus.
- the user interface is encoded using an image codec such as BIFS or LASER to generate multimedia data, for example an AV-stream, containing the image for the user interface.
- the client 110 only needs to play the received AV-stream, and the user interface is displayed.
- the user interface can be displayed only by playing the AV stream, most devices capable of playing the AV stream can display the user interface provided by the server 120 or 130.
- Combination of the user interfaces can easily encode the user interface in the format of a layered user interface package. This will be described in detail with reference to FIGS. 2 and 3.
- FIG. 2 illustrates a user interface package according to an embodiment.
- the first server 120 and / or the second server 130 may encode and provide the user interface to the client 110 in the form of the user interface package shown in FIG. 2.
- the user interface package 200 according to an embodiment of the present invention includes a plurality of user interfaces, that is, a plurality of user interface elements 210 to 230.
- the user interface elements 210-230 each include at least one user interface object.
- the user interface object refers to the smallest unit of the user interface capable of generating a predetermined event and calling a predetermined function accordingly.
- the information about the plurality of user interfaces may include information about the user interface that is continuously displayed as the client 110 selects a predetermined object in the user interface. It may include.
- an initial user interface in which information about movies selectable by a user is displayed in the form of a thumbnail-nail may be stored in the user interface element # 1 210.
- the user interface for controlling the playback of the movie may be stored in user interface element # 2 220.
- the information on the plurality of user interfaces may be information for displaying the user interface of the server in a plurality of different clients.
- the plurality of clients may differ from each other in the resolution of the supporting display device, the memory held, the CPU, or a combination thereof. Therefore, the user interface package 200 may include information about a plurality of user interfaces that may be displayed on different clients.
- the first server 120 is an IP set-top box, and a digital TV, a computer, or a portable media player (PMP) is connected to the IP set-top box through a network
- Display device resolution and hardware performance are different.
- user interface element # 1 210 includes information about the user interface that the digital TV can display
- user interface element # 2 220 includes information about the user interface that the computer can display
- the user interface element # 3 230 may include information about a user interface that the PMP may display.
- the user interface package 200 is then provided to all types of clients so that each client can select and display one of the user interfaces.
- the client 110 is a digital TV
- the client 110 selects and displays a user interface element including information about the user interface of the digital TV.
- the network environment and the client's preference may also be a criterion for selecting one user interface in the user interface package 200.
- the bandwidth of the network to which the client 110 is connected and the personal profile of the user of the client 110 may be used as criteria for selecting a user interface.
- the personal profile may include the user's age, nationality, language available, and the like.
- the information on the propensity of the user may include information generated by standards such as MPEG-21 UED (Usage Environment Description) or W3C Composite Capabilities / Preference Profile (CC / PP).
- the information on the plurality of user interfaces may be information for sequentially displaying the user interface.
- user interface element # 1 210 may include only some objects of the user interface
- user interface element # 2 220 may also include the remaining objects of the user interface.
- FIG 3 illustrates a structure of a user interface element according to an embodiment of the present invention.
- the user interface element 310 includes information for representing objects included in the user interface, information about events generated by the objects, and information about a function called to process the events.
- Information about the representation, event and / or function is layered and included in the user interface element 210 or 220 or 230. This allows for dynamic extension of the user interface using a combination of representations, events and / or functions.
- the user interface element 300 includes information 310 for representing objects included in a user interface scene, information 320 about events generated by the objects, and information about a function called to process the events ( 330).
- the information 310 for representing the objects included in the user interface is information about how the objects included in the user interface are arranged, what media is used, and in what form.
- 'Scene Description' 312 is information for describing the structure of the user interface. 'Scene Description' 312 is information on where objects are placed in the user interface, and may include information for describing layout, form, theme, and / or template of a scene. Can be. Information about the presentation method of the user interface may also be included. If the user interface is represented using special effects such as fade out or fade in, it may include information about these special effects.
- 'Object Description' 314 is information about a method of representing each object. Describes information about which media each of the user interface objects is represented using an image, video and / or audio. In addition, information about the presentation time, the representation method, etc. of the objects may be described. For example, when objects included in the user interface are represented at different times, information about time for adjusting the timing may be included. In addition, when objects are represented in a scene using a special effect, information about such a representation method may be included. If the objects are each represented using a fade out or fade in, information on this may be included. If the size or shape of the objects is not fixed and moving animation effects are applied, the information may be included.
- 'Adaptation Utility' 316 includes information for dynamic configuration of the user interface. For example, if the user interface includes user interface objects A, B, C, and D (not shown), but the client 110 expresses only A and B objects in the user interface scene in consideration of its performance. Information for such dynamic configuration is included. Information is included in the performance of the client 110 and the criteria for dynamically configuring the user interface accordingly. For example, a client with SD (standard definition) display capability represents only A and B objects, while a client with HD (high definition) display capability represents A, B, C, and D objects (not shown). Information about the criteria to express all may be included. The performance of the client 110, which is a standard of dynamic configuration, is merely an example, and all individual characteristics of the client 110, such as a network environment or a preference of the client 110, may be the criteria of the dynamic configuration.
- SD standard definition
- HD high definition
- the 'Adaptation Utility' 316 may include information about criteria for selecting a user interface element.
- the user interface package 200 includes information on a plurality of user interfaces for displaying the user interface on a plurality of different clients.
- 'Adaptation Utility' 316 may include information that is the basis of this selection. For example, if information about the minimum performance each user interface element 210 or 220 or 230 can be displayed is included in the 'Adaptation Utility' 316, the client 112 refers to it to display itself. A user interface element 210 or 220 or 230 may be selected from the user interface package 200.
- 'Resource' 318 includes the sources of the user interface. Multimedia data such as images, video and / or audio.
- the information 320 about events generated by the objects includes information about events generated by the objects included in the user interface. It includes information about events that occur according to the interaction with the user, such as the user's object selection.
- Event description' 322 includes information about events generated by the object. Types of user interactions that can be performed through user interface objects, such as clicks, touches, and rotations, are described.
- 'Even handle' 324 contains information about how to handle the events that occur. For example, if an event called a click is defined in a user interface object, what action should be performed according to this click event. If the clicked user interface object is an object for adjusting a volume, information for associating an event called a click with an action called volume up or volume down is included.
- 'Binding Interface' 326 includes information about the mapping between the defined events and the device application programming interface (API) that is called to process the events. Contains information about the mapping between the events and the device API called to associate the events generated by the user interface objects with the function called by the events. Information 330 about the function called to process the events includes detailed information about the device APIs called to perform the function.
- API application programming interface
- 'Function description' 332 includes detailed operation of device APIs called by events, that is, information about specific functions that a user can implement through the device API. For example, when a device API for a vibration function is called, information about specific functions such as vibration and adjustment of vibration intensity and vibration time that can be implemented may be included.
- 'Function invocation' 334 includes information about specific parameters of the function called by the user interface object. For example, if the device API for the vibration function is described in the 'Function description' (332) to adjust the vibration intensity and vibration time to 1 to 5 levels, the 'Function invocation' (334) It specifically includes parameters indicating which level of vibration intensity and vibration time to invoke the function. In other words, when the user interface object A calls the vibration function, the vibration function is called with the vibration intensity of three levels and the vibration time of one of the five levels of vibration intensity and vibration time described in 'Function description' 332. As described in 'Function invocation' (334).
- step 144 the client 110 combines (or combines) the user interfaces received from the first server 120 and the second server 130 in step 142 to generate a combined user interface. .
- a user interface received from the first server 120 and the second server 130 is decrypted, respectively, and a new user interface (combined user interface) is generated by combining (or combining) the user interfaces generated as a result of the decryption.
- Such combinations (or combinations) of the user interface may include, for example, aggregation of presentation dimensions, event dimension combinations, or a combination thereof.
- 4A-4D illustrate a combination of representations of a user interface in accordance with one embodiment of the present invention.
- FIGS. 4C and 4D illustrate a user interface received from three servers, i.e., received from a first server 120.
- a user interface A 410, the user interface B 420 received from the second server 130, and the user interface C 430 received from the third server (not shown) are combined (or combined) and displayed on the screen. It shows how.
- FIG. 4A illustrates a combination of representations of a user interface in accordance with one embodiment of the present invention.
- the user interface A (received from the first server 120 is positioned at the upper left of the screen 400 and the user interface B received from the second server 130 is located at the lower right of the screen 400). 410 and user interface B 420 are combined to create a combined user interface.
- Information 310 for analyzing the user interface elements received from the first server 120 and the user interface elements received from the second server 130, and representing the objects included in each user interface, that is, the screen description and Modify, combine (or combine) object descriptions.
- a combined user interface element is created and displays the user interface according to the generated combined user interface element.
- FIG. 4B illustrates a combination of representations of a user interface according to another embodiment of the present invention.
- the difference from FIG. 4B is that the user interface A 410 of the first server 120 and the user interface B 420 of the second server 130 are displayed on the screen in an overlapped state.
- 4C illustrates a combination (or combination) of representations of a user interface according to another embodiment of the present invention.
- the user interface A 410 of the first server 120 and the user interface C 430 of the third server are connected to the user interface B 420 of the second server 130. Is embedded in the.
- the user interface is analyzed by analyzing user interface elements received from the respective servers as described above with reference to FIG. 4A, and modifying, combining (or combining) information 310 for representing objects included in the user elements in the scene. May be combined (or combined).
- FIG. 4D illustrates a combination (or combination) of representations of a user interface in accordance with another embodiment of the present invention.
- the user interface A 410 of the first server 120 and the user interface C 430 of the third server (not shown) as shown in FIG. 4C are the user interface B (of the second server 130). And embedded in 420.
- the user interface C of the third server (not shown) is highlighted and displayed for emphasis.
- the user interface may be combined (or combined) by separately defining the time and / or order in which the user interfaces are highlighted.
- the objects included in the user interface A of the first server 120 and the objects included in the user interface B of the second server 130 may be combined (or combined) with each other to form a new user interface ( Not shown).
- some user interface objects included in the user interface A and some user interface objects included in the user interface B may be combined (or combined) to generate a combined user interface (not shown).
- 5A and 5B illustrate a combination of events of a user interface according to one embodiment.
- the client 110 may generate a new user interface for generating a plurality of events.
- 5A illustrates a combination (or combination) of events in a user interface in accordance with one embodiment of the present invention.
- step 144 when the client 110 combines the user interfaces of the first server 120 and the second server 130, the combined user interface 112 where a plurality of events occur. Can be generated.
- the first server 120 and the user interface provided by the first server 120 and the second server 130 are combined (or combined) based on the information on the event and the function included in the user interface element. It is also possible to create a combined user interface (new user interface) in which events for the second server 130 occur simultaneously. In addition, the generated combined user interface may generate an event for the third server 140 as well as the first server 120 and the second server 130.
- the client 110 which is a digital TV
- the client 110 may have a first server 120 and a second server ( From 130 may be combined (or combined) to create a combined user interface called 'DVD playback'.
- a DVD play event for the first server 120 occurs, and an event for playing an AV signal for the second server 130 occurs.
- the user controls the home theater and the DVD player simultaneously by selecting the 'DVD Play' user interface of the digital TV. While watching a DVD image on a digital TV, you can listen to DVD audio through a home theater.
- the newly created combined user interface 112 may also generate an event for adjusting living room lighting. As the user clicks on the combined user interface (new user interface) associated with 'play DVD', an event occurs on the third server 140 to dim the living room lighting.
- 5B illustrates a combination (or combination) of events in a user interface according to another embodiment of the present invention.
- the client 110 may combine (or combine) user interface A 114 and user interface B 116 provided by the first server 120 and the second server 130. Create a combined user interface 112.
- the event When an event occurs in the user interface 112 combined by user input, the event also occurs in the user interface A 114 and the user interface B 116. In addition, an event occurs for the third server 140 that is independent of the first server 120 and the second server 130 that provided the user interface.
- a combined user interface 112 is generated that generates an event called 'DVD Stop', and when the user clicks on the 'DVD Stop' user interface, the DVD stops for the first server 120, which is a DVD player.
- An event occurs and a reproduction stop event of the AV signal for the second server 130 which is the AV receiver occurs.
- an event that illuminates the living room light for the third device 140, which is the living room light also occurs.
- 5A also provides a combined user interface that generates an event that combines (or combines) related events into one, while maintaining the user interface provided by the first server 120 and the second server 130. Is different.
- FIG. 6 illustrates a combination (or combination) of events of a user interface according to another embodiment.
- the client 110 is a digital TV and a picture of the digital camera 610 through the client 110 is printed through the printer 620 will be described as an example.
- the client 110 receives a user interface from the digital camera 610 and the printer 620 to combine (or combine) the events.
- the digital camera 610 provides the user interface A 612 to the client 110
- the printer 620 provides the user interface B 614 to the client 110.
- User interface A 612 is a user interface for viewing pictures stored in the digital camera 610 on the client 110
- user interface B 614 is a user interface for performing a print job using the printer 620.
- Client 110 combines user interface A and user interface B to define a new event.
- an event for printing a photo stored in the digital camera 610 using the printer 620 may be defined through the user interface A.
- FIG. When the user selects one of the photos displayed on the screen through the user interface A and moves it to the user interface B by dragging and dropping, the printer 620 may define an event for printing it.
- the photo data to be printed may be transmitted from the digital mecha 610 to the printer 620 through the client 110, the digital camera 620 directly to the printer 620 without passing through the client 110 You can also transfer picture data.
- the events of user interface A and the events of user interface B are combined (or combined) to create a combined event called printing of photos.
- step 144 the client 110 generates a combined user interface by combining a plurality of user interfaces as shown in FIGS. 4A through 4D, 5A through 5B, and 6, and generates the combined user interface in step 146. Display on the screen.
- step 148 the client 110 accesses the first server 120 and / or the second server 130 based on the user input entered through the displayed user interface.
- FIG. 7 illustrates a client including an apparatus for generating a user interface according to an exemplary embodiment.
- the client 110 includes a connection unit 710, a UI generator 720, a display unit 730, an input receiver 740, and an event processor 750.
- the connection unit 710 and the UI generating unit 720 correspond to the user interface generating device according to the present invention.
- the connector 710 receives a user interface from at least two servers. Receive a user interface encoded in the format of multimedia data from the servers. In addition to receiving the user interface, it also plays a role in transmitting events generated by user input to the servers.
- the UI generator 720 combines (or combines) at least two user interfaces received by the connection unit 710 to generate a combined user interface.
- the decoder 722 decodes the multimedia data received by the connector 710 to process user interface elements, that is, information for representing objects included in the user interface, information on events generated by the objects, and events. Get information about the function that is called to.
- the combiner 724 combines at least two user interfaces based on the information obtained by the decoder 722 to generate a combined user interface. It has been described above that the combination (or combination) of the user interface may include the combination (or aggregation) of the presentation dimension, the combination (or combination) of the event dimensions, and the like.
- the display unit 730 displays the combined user interface generated by the combiner 724 on the screen.
- the input receiver 740 detects a user input through the combined user interface displayed on the screen. It receives user input through various user interface input devices such as a mouse and a touch screen rather than a key.
- the event processor 750 processes an input received from the input receiver 740, that is, an event of a user interface. Call a function to handle an event on the user interface. To this end, a message for calling a function for processing an event is transmitted to the servers through the connection unit 710.
- the system according to the present invention can be embodied as computer readable code on a computer readable recording medium.
- the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the recording medium include those implemented in the form of ROM, RAM, CD-ROM, magnetic tape, floppy disk and optical data storage device.
- the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
Abstract
사용자는 하나의 클라이언트를 통해 복수의 디바이스들을 한꺼번에 제어할 수 있도록 하는 사용자 인터페이스가 필요하다. 본 발명은 사용자 인터페이스를 생성하는 방법 및 장치에 관한 것으로 본 발명에 따른 사용자 인터페이스 생성 방법은 복수의 서버들로부터 사용자 인터페이스를 수신하고, 수신된 사용자 인터페이스들을 조합하여 조합된 사용자 인터페이스를 생성하고, 디스플레이함으로써, 사용자는 하나의 클라이언트를 통해 복수의 디바이스들을 한꺼번에 제어할 수 있다.
Description
실시예 또는 실시예들은 사용자 인터페이스를 생성하는 방법 및 장치에 관한 것으로 보다 상세히는 복수의 서버와 연결된 클라이언트가 사용자 인터페이스를 동적으로 생성하는 방법 및 장치에 관한 것이다.
다양한 종류의 멀티미디어 디바이스들이 개발되고, 이러한 멀티미디어 디바이스들 사이의 융합(convergence)이 가속화되고 있다. 서로 다른 종류의 멀티미디어 디바이스들이 네트워크를 구성하여 멀티미디어 데이터를 송수신하거나, 서로를 제어하는 일이 빈번해지고 있다.
물리적으로 서로 떨어진 사이의 원격 제어는 원격 사용자 인터페이스(RUI : Remote User Interface)를 통해 수행된다. 사용자 인터페이스 서버가 제어를 위한 사용자 인터페이스를 사용자 인터페이스 클라이언트에 제공하고, 사용자 인터페이스 클라이언트는 제공된 사용자 인터페이스를 통해 사용자 인터페이스 서버를 제어한다. 예를 들어, 사용자 인터페이스 서버는 원격 제어를 위한 사용자 인터페이스를 웹 페이지의 형태로 사용자 인터페이스 클라이언트에 제공하고, 사용자 인터페이스 클라이언트는 브라우저를 통해 웹 페이지를 사용자에게 디스플레이한다. 그런 다음, 클라이언트의 사용자는 디스플레이된 사용자 인터페이스를 통해 사용자 인터페이스 서버를 제어한다.
이와 같은 및/또는 다른 측면들 및 효과들은 다음 도면들은 참조하여 다음과 같은 실시예들의 상세한 설명으로부터 명확해지고 보다 충실히 인식될 것이다.
도 1은 일 실시예에 따른 사용자 인터페이스를 제공/수신하는 방법을 설명하기 위한 흐름도이다.
도 2는 일 실시예에 따른 사용자 인터페이스 패키지를 도시한다.
도 3은 일 실시예에 따른 사용자 인터페이스 엘리먼트의 구조를 도시한다.
도 4a 내지 4d는 일 실시예에 따른 사용자 인터페이스의 표현의 조합(또는 결합)을 도시한다.
도 5a 및 5b는 일 실시예에 따른 사용자 인터페이스의 이벤트의 조합(또는 결합)을 도시한다.
도 6은 또 다른 실시예에 따른 사용자 인터페이스의 이벤트의 조합(또는 결합)을 도시한다.
도 7은 일 실시예에 따른 사용자 인터페이스 생성 장치를 포함하는 클라이언트를 도시한다.
추가적인 측면들 및/또는 효과들은 상세한 설명의 부분에서 밝혀질 것이고, 상세한 설명으로부터 명확해질 것이며, 또한, 발명의 실무에서 배워질 수도 있다.
실시예들은 사용자 인터페이스 클라이언트의 사용자 인터페이스를 생성하는 방법 및 장치를 제공하고, 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.
사용자는 하나의 클라이언트를 통해 복수의 디바이스들을 한꺼번에 제어할 수 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 사용자 인터페이스를 생성하는 방법은 적어도 2 이상의 서버들로부터 사용자 인터페이스들을 수신하는 단계; 및 상기 서버들로부터 수신된 사용자 인터페이스들을 조합(또는 결합)하여 조합된 사용자 인터페이스를 생성하는 단계를 포함한다.
본 발명의 보다 바람직한 실시예에 따르면, 상기 서버들로부터 수신된 사용자 인터페이스들은 MPEG의 장면 기술 방법을 이용한 멀티미디어 데이터 포맷으로 부호화된 사용자 인터페이스들인 것을 특징으로 한다.
본 발명의 보다 바람직한 실시예에 따르면, 상기 서버들로부터 수신된 사용자 인터페이스들은 상기 사용자 인터페이스에 포함된 객체들을 표현하기 위한 정보, 상기 객체들에 의해 발생하는 이벤트들에 대한 정보 및 상기 이벤트들을 처리하기 위해 호출되는 기능에 대한 정보를 포함한다.
본 발명의 보다 바람직한 실시예에 따르면, 상기 생성하는 단계는 상기 멀티미디어 데이터 포맷으로 부호화된 사용자 인터페이스를 복호화하는 단계; 상기 복호화 결과 생성된 사용자 인터페이스들의 상기 사용자 인터페이스에 포함된 객체들을 표현하기 위한 정보, 상기 객체들에 의해 발생하는 이벤트들에 대한 정보 및 상기 이벤트들을 처리하기 위해 호출되는 기능에 대한 정보를 분석하는 단계; 및 상기 분석 결과에 기초해 상기 사용자 인터페이스들을 조합(또는 결합) 상기 조합된 사용자 인터페이스를 생성하는 단계를 포함한다.
본 발명에 따른 보다 바람직한 실시예에 따르면, 상기 사용자 인터페이스들을 조합(또는 결합)하여 상기 조합된 사용자 인터페이스를 생성하는 단계는 상기 사용자 인터페이스들을 배치하여 상기 조합된 사용자 인터페이스를 생성하는 단계를 포함한다.
본 발명에 따른 보다 바람직한 실시예에 따르면, 상기 사용자 인터페이스들을 조합(또는 결합)하여 상기 조합된 사용자 인터페이스를 생성하는 단계는 상기 사용자 인터페이스들의 적어도 2 이상의 이벤트가 결합된 조합된 이벤트가 가능하도록 상기 조합된 사용자 인터페이스를 생성하는 단계를 포함한다.
본 발명에 따른 보다 바람직한 실시예에 따르면, 상기 사용자 인터페이스들을 조합(또는 결합)하여 상기 조합된 사용자 인터페이스를 생성하는 단계는 상기 사용자 인터페이스들의 이벤트들 중 하나의 이벤트 발생시에 그와 연관된 이벤트들도 발생하도록 상기 조합된 사용자 인터페이스를 생성하는 단계를 포함한다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 사용자 인터페이스를 생성하는 장치는 적어도 2 이상의 서버들로부터 사용자 인터페이스들을 수신하는 연결부; 및 상기 서버들로부터 수신된 사용자 인터페이스들을 조합(또는 결합)하여 조합된 사용자 인터페이스를 생성하는 UI생성부를 포함한다.
상기 기술적 과제를 해결하기 위해 본 발명의 일 실시예는 상기된 사용자 인터페이스를 생성하는 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.
해당 참조 번호들이 해당 실시예들을 참조하는 삽입된 도면들에 의해 나타나는 예들인, 실시예들에 대한 상세한 참조가 이루어질 것이다. 도면들을 참조함으로써 본 발명을 설명하기 위해 실시예들이 상술된다.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다.
도 1은 일 실시예에 따른 사용자 인터페이스를 제공/수신하는 방법을 설명하기 위한 흐름도이다.
도 1은 제1 서버(120) 및 제2 서버(130)가 클라이언트(110)에 사용자 인터페이스를 제공하는 경우를 예로 들어 설명한다. 그러나, 제1 서버(120) 및 제2 서버(130)는 복수의 서버들의 예시일 뿐이며, 3 이상의 서버들이 클라이언트(110)에 사용자 인터페이스를 제공할 수 있다.
도 1을 참조하면, 클라이언트(110)는 단계 140에서 제1 서버(120) 및 제2 서버(130)를 검색(discovery)한다. 사용자 인터페이스 클라이언트인 클라이언트(110)가 사용자 인터페이스 서버인 제1 서버(120) 및 제2 서버(130)를 소정의 네트워크를 통해 검색한다. 예를 들어, 클라이언트(110), 제1 서버(120) 및 제2 서버(130)가 모두 UPnP 네트워크의 디바이스들인 경우, 클라이언트(110)는 제어 포인트(control point)를 통해 사용자 인터페이스 서버인 제1 서버(120) 및 제2 서버(130)를 검색한다.
단계 142에서 제1 서버(120) 및 제2 서버(130)는 클라이언트에 사용자 인터페이스를 제공한다. 제1 서버(120)에 액세스하기 위해 필요한 사용자 인터페이스 및 제2 서버(130)에 액세스하기 위해 필요한 사용자 인터페이스를 각각 클라이언트(110)에 제공한다. 단계 142에서 클라이언트(110)에 제공되는 사용자 인터페이스는 위젯(widget)일 수 있다.
제1 서버(120) 및 제2 서버(130)가 제공하는 사용자 인터페이스들은 멀티 미디어 데이터의 포맷으로 부호화된 사용자 인터페이스일 수 있다. 종래 기술과 같이 서버들(120 및 130)이 사용자 인터페이스를 웹 페이지 형태로 생성하여 클라이언트(112)에 전송하면, 사용자 인터페이스의 표현에 제약이 있을 수 있다. 다시 말해, 다양한 미디어의 형태로 사용자 인터페이스를 표현할 수 없을 수 있다. 또한, 클라이언트(110)가 웹 브라우저와 같은 사용자 인터페이스를 표현하기 위한 별도의 소프트웨어 또는 하드웨어 모듈을 포함하고 있어야 한다. 이는 클라이언트(110)가 모바일 기기인 경우와 같이 사용할 수 있는 하드웨어 자원이 제약된 기기인 경우 적합하지 않다.
따라서, 단계 142에서 서버들(120 및 130)은 각각 적어도 하나의 사용자 인터페이스에 대한 정보를 멀티미디어 데이터 포맷으로 부호화한다. 모바일 기기를 포함하는 대부분의 기기들이 동영상, 음성 등을 포함하는 멀티미디어를 재생할 수 있으므로 멀티미디어 데이터 포맷으로 사용자 인터페이스를 부호화한다.
예를 들어, MPEG(Moving Picture Experts Group) 표준에 기초해 사용자 인터페이스를 부호화할 수 있다. MPEG 표준은 동영상 및 오디오를 압축 부호화하는 방법의 국제적인 표준으로써, MPEG-1, MPEG-2, MPEG-4, MPEG-7, MPEG-21과 같은 다양한 버전의 표준이 존재한다. 서버들(120 및 130)은 이러한 MPEG 표준을 이용해 사용자 인터페이스를 생성한다. 예를 들어, 사용자 인터페이스를 동영상의 포맷으로 부호화하여 이를 클라이언트(110)가 재생할 수 있게 함으로써 전술한 기기들의 성능 차이에 따른 호환성 문제를 해결한다.
특히, MPEG-4 BIFS(Binary Format for Scene) 및 모바일 기기를 위한 LASeR(Lightweight Applications Scene Representation)과 같이 객체 기반(object-based) 멀티미디어 부호화 방식을 이용해 사용자 인터페이스를 부호화할 수 있다. 사용자 인터페이스에 포함된 객체들을 BIFS 또는 LASeR 포맷에 기초해 부호화되는 객체들로 보고, BIFS 또는 LASeR의 장면 기술을 이용해 사용자 인터페이스 객체들의 시공간적 배치를 표현하여 부호화한다.
BIFS 또는LASeR는 영상에 포함된 객체들의 시공간적인 배치를 표현할 수 있는 장면 기술에 대한 정보를 포함한다. 따라서, 이러한 BIFS 또는 LASeR를 이용해 버튼, 메뉴 등과 같은 사용자 인터페이스 객체들의 시공간적인 배치를 표현한다.
BIFS 또는LASeR와 같은 영상 코덱을 이용해 사용자 인터페이스를 부호화하여 사용자 인터페이스에 대한 영상을 포함하는 멀티미디어 데이터 예를 들어, AV-스트림을 생성한다. 클라이언트(110)는 수신된 AV-스트림을 재생하기만 하면, 사용자 인터페이스가 디스플레이된다.
AV- 스트림의 재생만으로 사용자 인터페이스를 디스플레이할 수 있으므로, AV-스트림을 재생할 수 있는 대부분의 디바이스들이 서버(120 또는 130)가 제공하는 사용자 인터페이스를 디스플레이 할 수 있다.
사용자 인터페이스들의 결합이 용이하게 계층화된 사용자 인터페이스 패키지의 포맷으로 사용자 인터페이스를 부호화할 수 있다. 도 2 및 도 3을 참조하여 상세히 설명한다.
도 2는 일 실시예에 따른 사용자 인터페이스 패키지를 도시한다.
제1 서버(120) 및/또는 제2 서버(130)는 도2에 도시된 사용자 인터페이스 패키지의 형태로 사용자 인터페이스를 부호화하여 클라이언트(110)에 제공할 수 있다. 본 발명의 일 실시예에 따른 사용자 인터페이스 패키지(200)는 복수의 사용자 인터페이스 즉, 복수의 사용자 인터페이스 엘리먼트(210 내지 230)를 포함한다.
도 2에 도시된 예에서 사용자 인터페이스 엘리먼트들(210 내지 230)은 각각 적어도 하나의 사용자 인터페이스 객체를 포함한다. 사용자 인터페이스 객체는 소정의 이벤트를 발생시키고, 이에 따라 소정의 기능을 호출할 수 있는 사용자 인터페이스의 최소 단위를 의미한다.
복수의 사용자 인터페이스에 대한 정보 즉, 복수의 사용자 인터페이스 엘리먼트를 포함하는 사용자 인터페이스 패키지(200)는 클라이언트(110)가 사용자가 사용자 인터페이스에서 소정의 객체를 선택함에 따라 연속적으로 디스플레이되는 사용자 인터페이스에 대한 정보를 포함할 수 있다.
예를 들어, 사용자가 선택할 수 있는 영화들에 대한 정보가 썸네일(thumb-nail)의 형태로 디스플레이되는 최초 사용자 인터페이스는 사용자 인터페이스 엘리먼트 #1(210)에 저장될 수 있다. 최초 사용자 인터페이스에서 사용자가 영화들 중 하나를 선택했을 때, 영화의 재생을 제어하기 위한 사용자 인터페이스는 사용자 인터페이스 엘리먼트 #2(220)에 저장될 수 있다.
또한, 복수의 사용자 인터페이스에 대한 정보는 서버의 사용자 인터페이스를 복수의 서로 다른 클라이언트에서 디스플레이하기 위한 정보일 수 있다. 서버로부터 네트워크를 통해 사용자 인터페이스를 수신하는 클라이언트가 복수인 경우에, 서로 다른 클라이언트는 서로 다른 성능을 가지고 있는 경우가 많다. 복수의 클라이언트는 지원하는 디스플레이 장치의 해상도, 보유하고 있는 메모리, CPU 또는 이들의 조합 등에서 서로 상이할 수 있다. 따라서, 서로 다른 클라이언트에서 각각 디스플레이 될 수 있는 복수의 사용자 인터페이스에 대한 정보가 사용자 인터페이스 패키지(200)에 포함될 수 있다.
예를 들어, 제1 서버(120)가 IP-셋톱박스이고, IP-셋톱박스에 디지털 TV, 컴퓨터, PMP(portable media player) 등이 네트워크를 통해 연결되어 있는 경우에 디지털 TV, 컴퓨터, PMP의 디스플레이 장치 해상도 및 하드웨어 성능은 상이하다. 따라서, 사용자 인터페이스 엘리먼트#1(210)은 디지털 TV가 디스플레이할 수 있는 사용자 인터페이스에 대한 정보를 포함하고, 사용자 인터페이스 엘리먼트 #2(220)는 컴퓨터가 디스플레이할 수 있는 사용자 인터페이스에 대한 정보를 포함하며, 사용자 인터페이스 엘리먼트 #3(230)은 PMP가 디스플레이할 수 있는 사용자 인터페이스에 대한 정보를 포함할 수 있다. 그런 다음, 사용자 인터페이스 패키지(200)를 모든 종류의 클라이언트에 제공하여 각각의 클라이언트가 그 중 하나의 사용자 인터페이스을 선택하여 디스플레이 할 수 있게 한다. 클라이언트(110)가 디지털 TV인 경우에 클라이언트(110)는 디지털 TV의 사용자 인터페이스에 대한 정보를 포함하는 사용자 인터페이스 엘리먼트를 선택하여 표시한다.
클라이언트의 성능을 예로 들어 설명하였으나, 네트워크 환경 및 클라이언트의 성향(preference)도 사용자 인터페이스 패키지(200)에서 하나의 사용자 인터페이스를 선택하는 기준이 될 수 있다. 클라이언트(110)가 접속해 있는 네트워크의 대역폭 및 클라이언트(110) 사용자의 개인 프로파일 등이 사용자 인터페이스를 선택하는 기준이 될 수 있다. 개인 프로파일에는 사용자의 나이, 국적, 사용 가능한 언어 등이 포함될 수 있다. 이러한 사용자의 성향에 대한 정보는MPEG-21 UED(Usage Environment Description) 또는 W3C CC/PP(Composite Capabilities/Preference Profile)와 같은 표준에 의해 생성된 정보를 포함할 수 있다.
또한, 복수의 사용자 인터페이스에 대한 정보는 사용자 인터페이스를 순차적(progressive)으로 디스플레이하기 위한 정보일 수 있다. 예를 들어, 사용자 인터페이스 엘리먼트 #1(210)은 사용자 인터페이스의 일부 객체만을 포함하고 있고, 사용자 인터페이스 엘리먼트#2(220)는 사용자 인터페이스의 나머지 객체들도 포함할 수 있다.
도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스 엘리먼트의 구조를 도시한다.
사용자 인터페이스 엘리먼트(310)는 사용자 인터페이스에 포함된 객체들을 표현하기 위한 정보, 객체들에 의해 발생하는 이벤트들에 대한 정보 및 이벤트들을 처리하기 위해 호출되는 기능에 대한 정보를 포함한다.
표현, 이벤트 및/또는 기능에 대한 정보가 계층화되어 사용자 인터페이스 엘리먼트(210 또는 220 또는 230)에 포함된다. 이에 따라 표현, 이벤트 및/또는 기능의 결합을 이용한 사용자 인터페이스의 동적인 확장이 가능해진다.
사용자 인터페이스 엘리먼트(300)는 사용자 인터페이스 장면에 포함된 객체들을 표현하기 위한 정보(310), 객체들에 의해 발생하는 이벤트들에 대한 정보(320) 및 이벤트들을 처리하기 위해 호출되는 기능에 대한 정보(330)를 포함한다.
사용자 인터페이스에 포함된 객체들을 표현하기 위한 정보(310)는 사용자 인터페이스에 포함된 객체들이 어떻게 배치되고, 어떠한 미디어를 이용해 표현되며, 어떠한 형태로 표현되는지에 대한 정보이다.
'Scene Description'(312) 은 사용자 인터페이스의 구조를 기술하기 위한 정보이다. 'Scene Description'(312)은 사용자 인터페이스에 객체들이 배치되는 위치에 대한 정보로서, 장면의 레이아웃(layout), 폼(form), 테마 및/또는 템플릿(template) 등을 기술하기 위한 정보를 포함할 수 있다. 사용자 인터페이스의 표현 방법에 대한 정보도 포함할 수 있다. 사용자 인터페이스가 페이드 아웃 또는 페이드 인과 같은 특수 효과를 이용해 표현되는 경우 이러한 특수 효과에 대한 정보를 포함할 수도 있다.
'Object Description'(314) 은 객체들 각각의 표현 방법에 대한 정보이다. 사용자 인터페이스 객체들 각각이 이미지, 영상 및/또는 오디오 중 어떠한 미디어를 이용해 표현되는지에 대한 정보를 기술한다. 또한, 객체들의 표현 시간, 표현 방법 등에 대한 정보를 기술할 수도 있다. 예를 들어, 사용자 인터페이스에 포함된 객체들이 서로 다른 시간에 표현되는 경우, 이러한 타이밍 조절을 위한 시간에 대한 정보가 포함될 수 있다. 또한, 객체들이 특수 효과를 이용해 장면에 표현되는 경우에 이러한 표현 방법에 대해 정보가 포함될 수 있다. 객체들이 각각이 페이드 아웃 또는 페이드 인을 이용해 표현되는 경우 이에 대한 정보가 포함될 수 있다. 객체들의 크기나 모양이 고정되어 있지 않고, 계속 움직이는 애니메이션 효과가 적용된 경우에도 이에 대한 정보가 포함될 수 있다.
'Adaptation Utility'(316) 는 사용자 인터페이스의 동적 구성을 위한 정보를 포함하고 있다. 예를 들어, 사용자 인터페이스가 사용자 인터페이스 객체 A, B, C, D(미도시)를 포함하고 있으나, 클라이언트(110)가 자신의 성능을 고려하여 이중 A, B 객체만을 사용자 인터페이스 장면에 표현하는 경우 이와 같은 동적 구성을 위한 정보가 포함된다. 클라이언트(110)의 성능과 그에 따라 사용자 인터페이스를 동적으로 구성하기 위한 기준에 정보가 포함된다. 예를 들어, SD(standard definition)의 디스플레이 성능을 가진 클라이언트는 A, B 객체만 표현하고, HD(high definition)의 디스플레이 성능을 가진 클라이언트는 A, B, C, D 객체들(미도시)을 모두 표현하도록 하는 기준에 대한 정보가 포함될 수 있다. 동적 구성의 기준이 되는 클라이언트(110)의 성능은 예시일 뿐이며, 네트워크 환경 또는 클라이언트(110)의 성향(preference)과 같은 클라이언트(110)의 개별적인 특성이 모두 동적 구성의 기준이 될 수 있다.
또한, 'Adaptation Utility'(316)는 사용자 인터페이스 엘리먼트의 선택의 기준에 대한 정보를 포함할 수 있다. 전술한 바와 같이 사용자 인터페이스 패키지(200)는 사용자 인터페이스를 복수의 서로 다른 클라이언트에서 디스플레이하기 위한 복수의 사용자 인터페이스에 대한 정보를 포함하고 있다.
따라서, 복수의 서로 다른 클라이언트가 사용자 인터페이스 패키지(200)에서 하나의 사용자 인터페이스 엘리먼트(210 또는 220 또는 230)를 선택하여 디스플레이하기 위해서는 선택에 참조할 수 있는 정보가 필요하다. 'Adaptation Utility'(316)는 이러한 선택의 기준이 되는 정보를 포함할 수 있다. 예를 들어, 각각의 사용자 인터페이스 엘리먼트(210 또는 220 또는 230)가 디스플레이될 수 있는 최소 성능에 대한 정보가 'Adaptation Utility'(316)에 포함되어 있으면, 클라이언트(112)가 이를 참조하여 자신이 디스플레이할 수 있는 사용자 인터페이스 엘리먼트(210 또는 220 또는 230)를 사용자 인터페이스 패키지(200)에서 선택할 수도 있다.
'Resource'(318) 은 사용자 인터페이스의 소스들을 포함한다. 이미지, 동영상 및/또는 오디오와 같은 멀티미디어 데이터를 포함한다.
객체들에 의해 발생하는 이벤트들에 대한 정보(320)는 사용자 인터페이스에 포함되어 있는 객체들에 의해 발생하는 이벤트들에 대한 정보를 포함한다. 사용자의 객체 선택 등과 같은 사용자와의 인터액션(interaction)에 따라 발생하는 이벤트들에 대한 정보를 포함한다.
'Event description'(322) 은 객체에 의해 발생하는 이벤트들에 대한 정보를 포함한다. 클릭, 터치, 회전 등과 같은 사용자 인터페이스 객체를 통해 수행될 수 있는 사용자 인터액션의 종류에 대해 기술한다.
'Even handle'(324) 는 발생하는 이벤트들을 처리하는 방법에 대한 정보를 포함한다. 예를 들어, 소정의 사용자 인터페이스 객체에 클릭이라는 이벤트가 정의되어 있으면, 이러한 클릭이라는 이벤트에 따라 어떠한 동작을 수행해야 하는지가 정의된다. 클릭된 사용자 인터페이스 객체가 볼륨(volume)을 조절하기 위한 객체라면, 클릭이라는 이벤트를 볼륨 업(volume up) 또는 볼륨 다운(volume down)이라는 동작으로 연관시키기 위한 정보가 포함되어 있다.
'Binding Interface'(326) 는 정의된 이벤트들과 이벤트들을 처리하기 위해 호출되는 디바이스 API(application programming interface) 사이의 매핑에 대한 정보를 포함한다. 사용자 인터페이스 객체들에 의해 발생하는 이벤트들과 이벤트들에 의해 호출되는 기능을 연관시키기 위해 이벤트들과 호출되는 디바이스 API 사이의 매핑에 대한 정보를 포함한다. 이벤트들을 처리하기 위해 호출되는 기능에 대한 정보(330)는 기능 수행을 위해 호출되는 디바이스 API들에 대한 상세한 정보를 포함한다.
'Function description'(332) 은 이벤트들에 의해 호출되는 디바이스 API들의 상세한 동작 다시 말해, 디바이스 API를 통해 사용자가 구현할 수 있는 구체적인 기능들에 대한 정보를 포함한다. 예를 들어, 진동 기능에 대한 디바이스 API가 호출되는 경우에 진동과 구현될 수 있는 진동 세기의 조절, 진동 시간의 조절과 같은 구체적인 기능에 대한 정보를 포함한다.
'Function invocation'(334) 은 사용자 인터페이스 객체에 의해 호출되는 기능의 구체적인 파라미터에 대한 정보가 포함된다. 예를 들어, 진동 기능에 대한 디바이스 API가 1~5 다섯 가지 수준으로 진동 세기 및 진동 시간을 조절할 수 있는 것으로 'Function description'(332)에 기술되어 있다면, 'Function invocation'(334)은 이러한 다섯 가지 수준의 진동 세기 및 진동 시간 중 어떠한 수준으로 기능을 호출해야 하는지를 나타내는 파라미터들을 구체적으로 포함한다. 다시 말해, 사용자 인터페이스 객체 A가 진동 기능을 호출함에 있어 'Function description'(332)에 기술된 다섯 가지 수준의 진동 세기 및 진동 시간 중 3 수준의 진동 세기 및 1 수준의 진동 시간으로 진동 기능을 호출하는 것으로 'Function invocation'(334)에 기술되어 있을 수 있다.
다시 도 1을 참조하면, 단계 144에서 클라이언트(110)는 단계 142에서 제1 서버(120) 및 제2 서버(130)로부터 수신한 사용자 인터페이스를 조합(또는 결합)하여 조합된 사용자 인터페이스를 생성한다.
제1 서버(120) 및 제2 서버(130)로부터 수신한 사용자 인터페이스를 각각 복호화하고, 복호화 결과 생성된 사용자 인터페이스들을 조합(또는 결합)하여 새로운 사용자 인터페이스(조합된 사용자 인터페이스)를 생성한다.
이러한 사용자 인터페이스의 조합(또는 결합)은 예를 들어 표현(presentation) 차원의 결합(aggregation), 이벤트 차원의 결합 또는 이들의 조합 등이 있을 수 있는 바, 도4a-4b, 5a-5b 및 도 6을 참조하여 상세히 설명한다 .
도 4a 내지 4d는 본 발명의 일 실시예에 따른 사용자 인터페이스의 표현의 결합을 도시한다.
도 4a 내지 4d는 클라이언트(110)가 복수의 서버로부터 수신한 사용자 인터페이스의 표현을 조합(또는 결합)하는 방법을 도시한다. 도 4a 및 4b는 두개의 서버로부터 수신한 사용자 인터페이스의 표현을 조합(또는 결합)하는 방법을 도시하고, 도 4c 및 4d는 세 개의 서버로부터 수신한 사용자 인터페이스 즉, 제1 서버(120)로부터 수신한 사용자 인터페이스 A(410), 제2 서버(130)로부터 수신한 사용자 인터페이스 B(420) 및 제3 서버(미도시)로부터 수신한 사용자 인터페이스 C(430)를 조합(또는 결합)하여 화면에 표시하는 방법을 도시한다.
도 4a는 본 발명의 일 실시예에 따른 사용자 인터페이스의 표현의 결합을 도시한다.
제1 서버(120)로부터 수신된 사용자 인터페이스 A를 화면(400)의 좌측 상단에 위치하고, 제2 서버(130)로부터 수신된 사용자 인터페이스 B를 화면(400)의 우측 하단에 위치하도록 사용자 인터페이스 A(410) 및 사용자 인터페이스 B(420)를 결합하여 조합된 사용자 인터페이스를 생성한다.
제1 서버(120)로부터 수신한 사용자 인터페이스 엘리먼트 및 제2 서버(130)로부터 수신한 사용자 인터페이스 엘리먼트를 분석하고, 각각의 사용자 인터페이스에 포함된 객체들을 표현하기 위한 정보(310) 즉, 화면 기술 및 객체 기술을 수정, 조합(또는 결합)한다. 조합된 사용자 인터페이스 엘리먼트가 생성되고, 생성된 조합된 사용자 인터페이스 엘리먼트에 따라 사용자 인터페이스를 표시한다.
도 4b는 본 발명의 또 다른 실시예에 따른 사용자 인터페이스의 표현의 결합을 도시한다. 도4b와 상이한 점은 제1 서버(120)의 사용자 인터페이스 A(410)와 제2 서버(130)의 사용자 인터페이스 B(420)가 서로 겹쳐진(overlay) 상태로 화면에 표시된다는 점이다.
도 4c는 본 발명의 또 다른 실시예에 따른 사용자 인터페이스의 표현의 조합(또는 결합)을 도시한다. 도 4a 및 4b와 상이한 점은 제1 서버(120)의 사용자 인터페이스 A(410) 및 제3 서버(미도시)의 사용자 인터페이스 C(430)가 제2 서버(130)의 사용자 인터페이스 B(420)에 임베드되어(embedded) 표시된다는 점이다. 도4a와 관련하여 전술한 바와 각각의 서버들로부터 수신한 사용자 인터페이스 엘리먼트를 분석하고, 사용자 엘리먼트에 포함된 객체들을 장면에 표현하기 위한 정보(310)를 수정, 조합(또는 결합)함으로써 사용자 인터페이스를 조합(또는 결합)할 수 있다.
도 4d는 본 발명의 또 다른 실시예에 따른 사용자 인터페이스의 표현의 조합(또는 결합)을 도시한다. 도 4d를 참조하면, 도 4c와 같인 제1 서버(120)의 사용자 인터페이스 A(410) 및 제3 서버(미도시)의 사용자 인터페이스 C(430)가 제2 서버(130)의 사용자 인터페이스 B(420)에 임베드되어 표시된다. 다만, 제3 서버(미도시)의 사용자 인터페이스 C가 강조를 위해 하이라이트되어 표시된다. 사용자 인터페이스들의 하이라이트되는 시간 및/또는 순서들을 별도로 정의하여 사용자 인터페이스를 조합(또는 결합)할 수도 있다.
도 4a 내지 4d에 도시된 바와 이외에 제1 서버(120)의 사용자 인터페이스A에 포함된 객체 및 제2 서버(130)의 사용자 인터페이스 B에 포함된 객체를 각각 조합(또는 결합)하여 새로운 사용자 인터페이스(미도시)를 생성할 수도 있다. 예를 들어, 사용자 인터페이스 A에 포함된 일부의 사용자 인터페이스 객체와 사용자 인터페이스 B에 포함된 일부의 사용자 인터페이스 객체를 조합(또는 결합)하여 조합된 사용자 인터페이스(미도시)를 생성할 수 있다.
도 5a 및 5b는 일 실시예에 따른 사용자 인터페이스의 이벤트의 결합을 도시한다. 단계 144에서 클라이언트(110)는 복수의 이벤트가 발생하는 새로운 사용자 인터페이스를 생성할 수 있다.
도 5a는 본 발명의 일 실시예에 따른 사용자 인터페이스의 이벤트의 조합(또는 결합)을 도시한다.
도 5a에 도시된 바와 같이, 단계144에서 클라이언트(110)가 제1 서버(120) 및 제2 서버(130)의 사용자 인터페이스를 결합함에 있어, 복수의 이벤트가 발생하는 조합된 사용자 인터페이스(112)를 생성할 수 있다.
사용자 인터페이스 엘리먼트에 포함된 이벤트에 대한 정보 및 기능에 대한 정보에 기초해 제1 서버(120) 및 제2 서버(130)가 제공하는 사용자 인터페이스를 조합(또는 결합)하여 제1 서버(120) 및 제2 서버(130)에 대한 이벤트가 동시에 발생하는 조합된 사용자 인터페이스(새로운 사용자 인터페이스)를 생성할 수도 있다. 또한, 생성된 조합된 사용자 인터페이스는 제1 서버(120) 및 제2 서버(130)뿐만 아니라, 제3의 서버(140)에 대한 이벤트도 발생시킬 수 있다.
예를 들어, 제1 서버(120)가 DVD 플레이어이고, 제2 서버(130)가 홈 시어터의 AV 리시버인 경우에, 디지털 TV인 클라이언트(110)는 제1 서버(120) 및 제2 서버(130)로부터 사용자 인터페이스를 조합(또는 결합)하여 'DVD 재생'라는 조합된 사용자 인터페이스를 생성할 수 있다. 'DVD 재생' 사용자 인터페이스를 사용자가 클릭하면, 제1 서버(120)에 대한 DVD 재생 이벤트가 발생하고, 제2 서버(130)에 대한 AV 신호를 재생하는 이벤트가 발생한다. 다시 말해, 사용자는 디지털 TV의 'DVD 재생' 사용자 인터페이스를 선택함으로써, 홈 시어터 및 DVD 플레이어를 동시에 제어한다. 디지털 TV를 통해 DVD 영상을 감상하면서, 홈 시어터를 통해 DVD 음성을 들을 수 있게 된다.
DVD 플레이어 및 AV 리시버 이외에 다른 디바이스도 한꺼번에 제어할 수 있다. 예를 들어, 제3의 서버(140)가 거실 조명인 경우, 새로 생성된 조합된 사용자 인터페이스(112)는 거실 조명을 조절할 수 있는 이벤트도 함께 발생시킬 수 있다. 사용자가 'DVD 재생'과 관련된 조합된 사용자 인터페이스(새로운 사용자 인터페이스)를 클릭함과 동시에 거실 조명이 어두워지도록 제3의 서버(140)에 대한 이벤트가 발생한다.
도 5b는 본 발명의 또 다른 실시예에 따른 사용자 인터페이스의 이벤트의 조합(또는 결합)을 도시한다.
도 5b를 참조하면, 단계 144에서 클라이언트(110)는 제1 서버(120) 및 제2 서버(130)가 제공한 사용자 인터페이스 A(114) 및 사용자 인터페이스B(116)를 조합(또는 결합)하여 조합된 사용자 인터페이스(112)를 생성한다.
사용자 입력에 의해 조합된 사용자 인터페이스(112)에서 이벤트가 발생하면, 사용자 인터페이스 A(114) 및 사용자 인터페이스 B(116)에서도 이벤트가 발생한다. 또한, 사용자 인터페이스를 제공한 제1 서버(120) 및 제2 서버(130)와 무관한 제3의 서버(140)에 대한 이벤트도 발생한다.
예를 들어, 'DVD 정지'라는 이벤트를 발생시키는 조합된 사용자 인터페이스(112)가 생성되고, 사용자가 'DVD 정지' 사용자 인터페이스를 클릭하면, DVD 플레이어인 제1 서버(120)에 대한 DVD의 정지 이벤트가 발생하고, AV 리시버인 제2 서버(130)에 대한 AV 신호의 재생 정지 이벤트가 발생한다. 동시에 거실 조명인 제3의 디바이스(140)에 대한 거실 조명을 밝히는 이벤트도 발생한다.
도 5a와 상이한 점은 제1 서버(120) 및 제2 서버(130)가 제공하는 사용자 인터페이스를 그대로 유지하면서, 관련있는 이벤트들을 하나로 조합(또는 결합)한 이벤트를 발생시키는 조합된 사용자 인터페이스도 제공된다는 점이 상이하다.
도 6은 또 다른 실시예에 따른 사용자 인터페이스의 이벤트의 조합(또는 결합)을 도시한다.
도 6을 참조하면, 클라이언트(110)가 디지털 TV이고, 클라이언트(110)를 통해 디지털카메라(610)의 사진을 보던 도중 이를 프린터(620)를 통해 프린트하는 경우를 예로 들어 설명한다.
클라이언트(110)는 디지털카메라(610) 및 프린터(620)로부터 사용자 인터페이스를 수신하여, 이벤트들을 조합(또는 결합)한다. 도 6에서 디지털카메라(610)는 사용자 인터페이스 A(612)를 클라이언트(110)에 제공하고, 프린터(620)는 사용자 인터페이스 B(614)를 클라이언트(110)에 제공한다. 사용자 인터페이스 A(612)는 디지털 카메라(610)에 저장된 사진들을 클라이언트(110)에서 보기 위한 사용자 인터페이스이고, 사용자 인터페이스 B(614)는 프린터(620)를 이용해 프린트 작업을 수행하기 위한 사용자 인터페이스이다.
클라이언트(110)는 사용자 인터페이스 A 및 사용자 인터페이스 B를 결합하여 새로운 이벤트를 정의한다. 예를 들어, 사용자 인터페이스 A를 통해 디지털카메라(610)에 저장된 사진을 프린터(620)를 이용해 프린트하는 이벤트를 정의할 수 있다. 사용자가 사용자 인터페이스 A를 통해 화면에 표시된 사진들 중 하나를 선택해 드래그 & 드롭으로 사용자 인터페이스 B에 이동시키면, 프린터(620)가 이를 프린트하는 이벤트를 정의할 수 있다. 이 때, 프린트될 사진 데이터는 클라이언트(110)를 통해 디지털메카라(610)로부터 프린터(620)로 전송될 수 있고, 클라이언트(110)를 거치지 않고 디지털카메라(620)가 직접 프린터(620)에 사진 데이터를 전송할 수도 있다. 요컨대, 사용자 인터페이스 A의 이벤트와 사용자 인터페이스 B의 이벤트가 조합(또는 결합)되어 사진의 프린트라는 조합된 이벤트가 생성된다.
다시 도 1을 참조하면, 단계 144에서 클라이언트(110)는 도 4a 내지 4d, 5a 내지 5b 및 6과 같이 복수의 사용자 인터페이스를 결합하여 조합된 사용자 인터페이스를 생성하고, 단계 146에서 생성된 사용자 인터페이스를 화면에 디스플레이한다.
단계 148에서 클라이언트(110)는 디스플레이된 사용자 인터페이스를 통해 입력되는 사용자 입력에 기초해 제1 서버(120) 및/또는 제2 서버(130)에 액세스한다.
도 7은 일 실시예에 따른 사용자 인터페이스 생성 장치를 포함하는 클라이언트를 도시한다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 클라이언트(110)는 연결부(710), UI생성부(720), 표시부(730), 입력수신부(740) 및 이벤트처리부(750)를 포함한다. 연결부(710) 및 UI 생성부(720)이 본 발명에 따른 사용자 인터페이스 생성 장치에 대응된다.
연결부(710)는 적어도 2 이상의 서버들로부터 사용자 인터페이스를 수신한다. 서버들로부터 멀티미디어 데이터의 포맷으로 부호화된 사용자 인터페이스를 수신한다. 사용자 인터페이스의 수신은 물론 사용자의 입력에 의해 발생한 이벤트를 서버들에게 전송하는 역할도 수행한다.
UI 생성부(720)는 연결부(710)에서 수신한 적어도 2 이상의 사용자 인터페이스를 조합(또는 결합)하여 조합된 사용자 인터페이스를 생성한다. 복호화부(722)는 연결부(710)에서 수신한 멀티미디어 데이터를 복호화하여 사용자 인터페이스 엘리먼트 즉, 사용자 인터페이스에 포함된 객체들을 표현하기 위한 정보, 객체들에 의해 발생하는 이벤트들에 대한 정보 및 이벤트들을 처리하기 위해 호출되는 기능에 대한 정보를 얻는다.
결합부(724)는 상기 복호화부(722)에서 얻어진 정보들에 기초해 적어도 2 이상의 사용자 인터페이스를 결합하여 조합된 사용자 인터페이스를 생성한다. 사용자 인터페이스의 조합(또는 결합)은 표현(presentation) 차원의 조합(또는 결합) (aggregation), 이벤트 차원의 조합(또는 결합) 등이 있을 수 있음은 전술하였다.
표시부(730)는 결합부(724)에서 생성된 조합된 사용자 인터페이스를 화면에 디스플레이한다.
입력수신부(740)는 화면에 디스플레이된 조합된 사용자 인터페이스를 통한 사용자 입력을 검출한다. 키보다, 마우스, 터치 스크린 등 다양한 사용자 인터페이스 입력 장치를 통한 사용자 입력을 수신한다.
이벤트처리부(750)는 입력수신부(740)에서 수신한 입력 즉, 사용자 인터페이스의 이벤트를 처리한다. 사용자 인터페이스의 이벤트를 처리하기 위한 기능(function)을 호출한다. 이를 위해 이벤트의 처리를 위한 기능을 호출하는 메시지를 연결부(710)를 통해 서버들에 전송한다.
본 발명에 따른 시스템은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크 및 광데이터 저장장치의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
비록 몇몇 실시예들이 보여지고 설명되었지만, 본 발명의 사상 및 원리에서 벗어남이 없이 당업자에 의해 이러한 실시예들에 변경이 가해질 수 있다는은 쉽게 예측할 수 있고, 본 발명의 범위는 청구항들 및 그들의 균등물에 의해 결정된다.
Claims (17)
- 【청구항 1】사용자 인터페이스를 생성하는 방법에 있어서,적어도 2 이상의 서버들로부터 사용자 인터페이스들을 수신하는 단계; 및상기 적어도 2 이상의 서버들로부터 수신된 사용자 인터페이스들을 조합하여 조합된 사용자 인터페이스를 생성하는 단계를 포함하는 것을 특징으로 하는 사용자 인터페이스 생성 방법.
- 【청구항 2】제 1 항에 있어서, 상기 적어도 2 이상의 서버들로부터 수신된 상기 사용자 인터페이스들은MPEG 의 장면 기술 방법을 이용한 멀티미디어 데이터 포맷으로 부호화된 사용자 인터페이스들인 것을 특징으로 하는 사용자 인터페이스 생성 방법.
- 【청구항 3】제 2 항에 있어서, 상기 사용자 인터페이스들은상기 사용자 인터페이스에 포함된 객체들을 표현하기 위한 정보, 상기 객체들에 의해 발생하는 이벤트들에 대한 정보 및 상기 이벤트들을 처리하기 위해 호출되는 기능에 대한 정보를 포함하는 것을 특징으로 하는 사용자 인터페이스 생성 방법.
- 【청구항 4】제 3 항에 있어서, 상기 조합된 사용자 인터페이스를 생성하는 단계는상기 멀티미디어 데이터 포맷으로 부호화된 사용자 인터페이스를 복호화하는 단계;상기 복호화 결과 생성된 사용자 인터페이스들의 상기 사용자 인터페이스에 포함된 객체들을 표현하기 위한 정보, 상기 객체들에 의해 발생하는 이벤트들에 대한 정보 및 상기 이벤트들을 처리하기 위해 호출되는 기능에 대한 정보를 분석하는 단계; 및상기 분석 결과에 기초해 상기 사용자 인터페이스들을 조합하여 상기 조합된 사용자 인터페이스를 생성하는 단계를 포함하는 것을 특징으로 하는 사용자 인터페이스 생성 방법.
- 【청구항 5】제 4 항에 있어서, 상기 사용자 인터페이스들을 조합하여 상기 조합된 사용자 인터페이스를 생성하는 단계는상기 객체들을 표현하기 위한 정보에 기초해 상기 사용자 인터페이스들을 배치하여 상기 조합된 사용자 인터페이스를 생성하는 단계를 포함하는 것을 특징으로 하는 사용자 인터페이스 생성 방법.
- 【청구항 6】제 4 항에 있어서, 상기 사용자 인터페이스들을 결합하여 상기 조합된 사용자 인터페이스를 생성하는 단계는상기 이벤트들에 대한 정보 및 상기 기능에 대한 정보에 기초해 상기 사용자 인터페이스들의 적어도 2 이상의 이벤트가 결합된 조합된 이벤트가 가능하도록 상기 조합된 사용자 인터페이스를 생성하는 단계를 포함하는 것을 특징으로 하는 사용자 인터페이스 생성 방법.
- 【청구항 7】제 4 항에 있어서, 상기 사용자 인터페이스들의 객체들을 조합하여 상기 조합된 사용자 인터페이스를 생성하는 단계는상기 이벤트들에 대한 정보 및 상기 기능에 대한 정보에 기초해 상기 사용자 인터페이스들의 이벤트들 중 하나의 이벤트 발생시에 그와 연관된 조합된 이벤트도 발생하도록 상기 조합된 사용자 인터페이스를 생성하는 단계를 포함하는 것을 특징으로 하는 사용자 인터페이스 생성 방법.
- 【청구항 8】제 1 항에 있어서, 상기 서버들로부터 수신된 사용자 인터페이스들은상기 서버들로부터 수신된 위젯들(widgets)인 것을 특징으로 하는 사용자 인터페이스 생성 방법.
- 【청구항 9】사용자 인터페이스를 생성하는 장치에 있어서,적어도 2 이상의 서버들로부터 사용자 인터페이스들을 수신하는 연결부; 및상기 적어도 2 이상의 서버들로부터 수신된 사용자 인터페이스들을 조합하여 조합된 사용자 인터페이스를 생성하는 UI생성부를 포함하는 것을 특징으로 하는 사용자 인터페이스 생성 장치.
- 【청구항 10】제 9 항에 있어서, 상기 적어도 2 이상의 서버들로부터 수신된 사용자 인터페이스들은MPEG 의 장면 기술 방법을 이용한 멀티미디어 데이터 포맷으로 부호화된 사용자 인터페이스들인 것을 특징으로 하는 사용자 인터페이스 생성 장치.
- 【청구항 11】제 10 항에 있어서, 상기 적어도 2 이상의 서버들로부터 수신된 사용자 인터페이스들은적어도 두개의 사용자 인터페이스에 포함된 객체들을 표현하기 위한 정보, 상기 객체들에 의해 발생하는 이벤트들에 대한 정보 및 상기 이벤트들을 처리하기 위해 호출되는 기능에 대한 정보를 포함하는 것을 특징으로 하는 사용자 인터페이스 생성 장치.
- 【청구항 12】제 11 항에 있어서, 상기 UI생성부는상기 멀티미디어 데이터 포맷으로 부호화된 사용자 인터페이스를 복호화하는 복호화부;상기 복호화 결과 생성된 사용자 인터페이스들의 상기 사용자 인터페이스에 포함된 객체들을 표현하기 위한 정보, 상기 객체들에 의해 발생하는 이벤트들에 대한 정보 및 상기 이벤트들을 처리하기 위해 호출되는 기능에 대한 정보를 분석하는 분석부; 및상기 분석 결과에 기초해 상기 사용자 인터페이스들을 조합하여 상기 조합된 사용자 인터페이스를 생성하는 결합부를 포함하는 것을 특징으로 하는 사용자 인터페이스 생성 장치.
- 【청구항 13】제 12 항에 있어서, 상기 결합부는상기 사용자 인터페이스에 포함된 객체들을 표현하기 위한 정보에 기초해 상기 사용자 인터페이스들을 배치하여 상기 조합된 사용자 인터페이스를 생성하는 것을 특징으로 하는 사용자 인터페이스 생성 장치.
- 【청구항 14】제 12 항에 있어서, 상기 결합부는상기 이벤트들에 대한 정보 및 상기 기능에 대한 정보에 기초해 상기 사용자 인터페이스들의 적어도 2 이상의 이벤트가 결합된 조합된 이벤트가 가능하도록 상기 조합된 사용자 인터페이스를 생성하는 것을 특징으로 하는 사용자 인터페이스 생성 장치.
- 【청구항 15】제 12 항에 있어서, 상기 결합부는상기 이벤트들에 대한 정보 및 상기 기능에 대한 정보에 기초해 상기 사용자 인터페이스들의 이벤트들 중 하나의 이벤트 발생시에 그와 연관된 조합된 이벤트도 발생하도록 상기 조합된 사용자 인터페이스를 생성하는 것을 특징으로 하는 사용자 인터페이스 생성 장치.
- 【청구항 16】제 9 항에 있어서, 상기 사용자 인터페이스들은위젯들(widgets)인 것을 특징으로 하는 사용자 인터페이스 생성 장치.
- 【청구항 17】제 1 항 내지 제8 항 중 어느 한 항의 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009801135766A CN102007482B (zh) | 2008-04-17 | 2009-04-17 | 生成用户接口的方法及装置 |
EP09732302A EP2267608A4 (en) | 2008-04-17 | 2009-04-17 | METHOD AND APPARATUS FOR PRODUCING USER INTERFACE |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US4578708P | 2008-04-17 | 2008-04-17 | |
US61/045,787 | 2008-04-17 | ||
KR1020080079034A KR101545137B1 (ko) | 2008-04-17 | 2008-08-12 | 사용자 인터페이스를 생성하는 방법 및 장치 |
KR10-2008-0079034 | 2008-08-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
WO2009128670A2 true WO2009128670A2 (ko) | 2009-10-22 |
WO2009128670A3 WO2009128670A3 (ko) | 2010-01-14 |
Family
ID=41199587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2009/001994 WO2009128670A2 (ko) | 2008-04-17 | 2009-04-17 | 사용자 인터페이스를 생성하는 방법 및 장치 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9389881B2 (ko) |
EP (1) | EP2267608A4 (ko) |
KR (1) | KR101545137B1 (ko) |
CN (1) | CN102007482B (ko) |
WO (1) | WO2009128670A2 (ko) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8402373B2 (en) * | 2008-10-10 | 2013-03-19 | Sharp Laboratories Of America, Inc. | Device cloning method for non-programmatic interfaces |
KR101656882B1 (ko) * | 2009-12-04 | 2016-09-12 | 삼성전자주식회사 | 네트워크에서 원격 유저 인터페이스 목록을 제공하는 방법 및 장치 |
KR101698354B1 (ko) | 2010-07-16 | 2017-01-23 | 삼성전자주식회사 | 홈 네트워크에서 멀티캐스트 메시지를 이용하여 복수 개의 원격 사용자 인터페이스 서버들을 제어하기 위한 장치 및 방법 |
CN103348312A (zh) | 2010-12-02 | 2013-10-09 | 戴斯帕克有限公司 | 用于流化数字容器中多个不同媒体内容的系统、装置和方法 |
WO2013192113A1 (en) * | 2012-06-18 | 2013-12-27 | Brian Mark Shuster | Transfer of virtual objects between applications |
US9743017B2 (en) * | 2012-07-13 | 2017-08-22 | Lattice Semiconductor Corporation | Integrated mobile desktop |
US20160092159A1 (en) * | 2014-09-30 | 2016-03-31 | Google Inc. | Conversational music agent |
CN107888631A (zh) * | 2016-09-28 | 2018-04-06 | 北京京东尚科信息技术有限公司 | 一种可配置组合的接口调用方法和装置 |
KR102310543B1 (ko) * | 2021-06-24 | 2021-10-08 | 주식회사 애자일소다 | 사용자 인터페이스 생성 장치 및 방법 |
Family Cites Families (125)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5544320A (en) * | 1993-01-08 | 1996-08-06 | Konrad; Allan M. | Remote information service access system based on a client-server-service model |
FR2741972B1 (fr) * | 1995-11-30 | 1998-01-02 | Thomson Multimedia Sa | Dispositif et procede de chargement d'une interface utilisateur |
US5828840A (en) * | 1996-08-06 | 1998-10-27 | Verifone, Inc. | Server for starting client application on client if client is network terminal and initiating client application on server if client is non network terminal |
US5905492A (en) | 1996-12-06 | 1999-05-18 | Microsoft Corporation | Dynamically updating themes for an operating system shell |
US6895430B1 (en) * | 1999-10-01 | 2005-05-17 | Eric Schneider | Method and apparatus for integrating resolution services, registration services, and search services |
US6751623B1 (en) | 1998-01-26 | 2004-06-15 | At&T Corp. | Flexible interchange of coded multimedia facilitating access and streaming |
US7756892B2 (en) | 2000-05-02 | 2010-07-13 | Digimarc Corporation | Using embedded data with file sharing |
US7346689B1 (en) * | 1998-04-20 | 2008-03-18 | Sun Microsystems, Inc. | Computer architecture having a stateless human interface device and methods of use |
AU4676800A (en) * | 1999-04-26 | 2000-11-10 | Dodots, Inc. | Apparatus and method for delivering internet content |
US6476828B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Systems, methods and computer program products for building and displaying dynamic graphical user interfaces |
JP2001243043A (ja) | 2000-02-29 | 2001-09-07 | Sony Corp | ユーザインタフェースシステム、シーン記述生成装置及び方法、シーン記述変換装置及び方法、記録媒体並びに伝送媒体 |
JP4389323B2 (ja) | 2000-02-29 | 2009-12-24 | ソニー株式会社 | シーン記述変換装置及び方法 |
US7350138B1 (en) | 2000-03-08 | 2008-03-25 | Accenture Llp | System, method and article of manufacture for a knowledge management tool proposal wizard |
US6971086B2 (en) * | 2000-03-16 | 2005-11-29 | Silicon Graphics, Inc. | Common user interface development toolkit for a system administration program |
GB0007886D0 (en) * | 2000-03-31 | 2000-05-17 | British Telecomm | User interface for data accquisition |
US6327628B1 (en) * | 2000-05-19 | 2001-12-04 | Epicentric, Inc. | Portal server that provides a customizable user Interface for access to computer networks |
WO2001097082A2 (en) * | 2000-06-09 | 2001-12-20 | Eclik Corporation | Network interface having client-specific information and associated method |
US20020070978A1 (en) | 2000-07-13 | 2002-06-13 | Clayton Wishoff | Dynamically configurable graphical user environment |
US6738077B1 (en) * | 2000-07-18 | 2004-05-18 | Apple Computer, Inc. | Dynamic generation and automated distribution of user interface from database model |
US7412605B2 (en) * | 2000-08-28 | 2008-08-12 | Contentguard Holdings, Inc. | Method and apparatus for variable encryption of data |
WO2002023741A2 (en) * | 2000-09-18 | 2002-03-21 | Mprest Technologies Ltd. | Improved apparatus and methods for displaying information on mobile communication devices |
US7171475B2 (en) | 2000-12-01 | 2007-01-30 | Microsoft Corporation | Peer networking host framework and hosting API |
US20020116708A1 (en) | 2000-12-11 | 2002-08-22 | Morris Richard M. | User interface for a streaming media client |
US7194743B2 (en) * | 2000-12-12 | 2007-03-20 | Citrix Systems, Inc. | Methods and apparatus for communicating changes between a user interface and an executing application using property paths |
KR100394834B1 (ko) | 2000-12-16 | 2003-08-19 | 박찬준 | 영상 수신 및 인터넷 접속이 가능한 이동단말기를 이용한원격 감시 시스템 및 이를 이용한 원격 감시 방법 |
US20020082730A1 (en) | 2000-12-21 | 2002-06-27 | Microsoft Corporation | Universal media player |
US20020111995A1 (en) | 2001-02-14 | 2002-08-15 | Mansour Peter M. | Platform-independent distributed user interface system architecture |
US7003726B2 (en) | 2001-02-21 | 2006-02-21 | Nanonation Incorporated | Computer network having context sensitive and interactive multimedia applications and controls, forming dynamic user interfaces on local computer terminals |
GB0108354D0 (en) | 2001-04-03 | 2001-05-23 | Thirdspace Living Ltd | System and method for providing a user with access to a plurality of sevices and content from a broadband television service |
MXPA03009656A (es) | 2001-04-20 | 2004-06-30 | Gen Instrument Corp | Visualizacion en tiempo real de la utilizacion del ancho de banda en un multiplexor de transporte. |
EP1253750A1 (en) | 2001-04-24 | 2002-10-30 | Deutsche Thomson-Brandt Gmbh | Method for the control of network devices connected via a bus system |
US8014283B2 (en) | 2001-06-01 | 2011-09-06 | Fujitsu Limited | System and method for topology constrained QoS provisioning |
US20020191950A1 (en) | 2001-06-15 | 2002-12-19 | Xiaoling Wang | Apparatus and a method for preventing commercial skipping |
US20020196912A1 (en) | 2001-06-26 | 2002-12-26 | Norris Mariah J. | Download and playback of audio content using short-distance wireless communication |
US20030004897A1 (en) | 2001-06-27 | 2003-01-02 | Smith James E. | Method and system for communicating user specific information |
US7234111B2 (en) * | 2001-09-28 | 2007-06-19 | Ntt Docomo, Inc. | Dynamic adaptation of GUI presentations to heterogeneous device platforms |
US6791529B2 (en) * | 2001-12-13 | 2004-09-14 | Koninklijke Philips Electronics N.V. | UI with graphics-assisted voice control system |
US7752256B2 (en) * | 2002-01-16 | 2010-07-06 | Laszlo Systems, Inc. | Presentation server |
EP1479057A2 (en) | 2002-02-22 | 2004-11-24 | Koninklijke Philips Electronics N.V. | Method, device and system for providing a single user interface to a plurality of devices |
KR100434292B1 (ko) | 2002-02-28 | 2004-06-05 | 엘지전자 주식회사 | 홈 네트워크 시스템 |
US7197715B1 (en) | 2002-03-29 | 2007-03-27 | Digeo, Inc. | System and method to provide customized graphical user interfaces via an interactive video casting network |
US7103844B2 (en) * | 2002-06-26 | 2006-09-05 | International Business Machines Corporation | Portal/portlet application data synchronization |
US7437720B2 (en) * | 2002-06-27 | 2008-10-14 | Siebel Systems, Inc. | Efficient high-interactivity user interface for client-server applications |
US7412658B2 (en) | 2002-11-14 | 2008-08-12 | Sap Ag | Modeling system for graphic user interface |
US20050192771A1 (en) * | 2002-12-20 | 2005-09-01 | International Business Machines Corporation | System and method for dynamically integrating remote portal fragments into a local portal |
US7257775B1 (en) | 2003-03-31 | 2007-08-14 | Microsoft Corporation | Providing user interface elements in an application that change in response to content |
US7644367B2 (en) | 2003-05-16 | 2010-01-05 | Microsoft Corporation | User interface automation framework classes and interfaces |
US20060156315A1 (en) * | 2003-05-27 | 2006-07-13 | Wood Larry J | Method, computer-readable medium and apparatus for providing a graphical user interface in a client-server environment |
US20050010634A1 (en) * | 2003-06-19 | 2005-01-13 | Henderson Roderick C. | Methods, systems, and computer program products for portlet aggregation by client applications on a client side of client/server environment |
US7869068B2 (en) | 2003-06-27 | 2011-01-11 | Zoran Corporation | Printer driver extension and related method |
WO2005008477A2 (en) | 2003-07-11 | 2005-01-27 | Computer Associates Think, Inc. | System and method for dynamic generation of a graphical user interface |
KR20060066096A (ko) | 2003-08-18 | 2006-06-15 | 소프트뱅크 가부시키가이샤 | 콘텐츠 배신 시스템, 콘텐츠 배신 방법, 콘텐츠 배신 서버,콘텐츠 재생 장치, 콘텐츠 배신 프로그램 및 콘텐츠 재생프로그램 |
US20050091584A1 (en) | 2003-10-23 | 2005-04-28 | Microsoft Corporation | Methods for applying styles to visual aspects of user interface elements |
DE10351351B4 (de) | 2003-11-04 | 2007-03-22 | Siemens Ag | Verfahren und System zur dynamischen Generierung von User Interfaces |
US7720906B2 (en) * | 2003-11-24 | 2010-05-18 | Microsoft Corporation | Web service for remote application discovery |
US7818658B2 (en) | 2003-12-09 | 2010-10-19 | Yi-Chih Chen | Multimedia presentation system |
US7434158B2 (en) * | 2003-12-10 | 2008-10-07 | International Business Machines Corporation | Presenting multimodal web page content on sequential multimode devices |
US8196044B2 (en) | 2004-01-05 | 2012-06-05 | Microsoft Corporation | Configuration of user interfaces |
US7934159B1 (en) | 2004-02-19 | 2011-04-26 | Microsoft Corporation | Media timeline |
US10156959B2 (en) * | 2005-03-16 | 2018-12-18 | Icontrol Networks, Inc. | Cross-client sensor user interface in an integrated security network |
US7526588B1 (en) | 2004-04-27 | 2009-04-28 | Apple Inc. | Communication between an accessory and a media player using a protocol with multiple lingoes |
US7529370B1 (en) | 2004-04-29 | 2009-05-05 | Hewlett-Packard Development Company, L.P. | Digital media-playing device and a method of playing digital media therein |
US7624160B2 (en) * | 2004-05-04 | 2009-11-24 | International Business Machines Corporation | Methods, systems, and computer program products for client side prefetching and caching of portlets |
US7324069B2 (en) * | 2004-05-14 | 2008-01-29 | Pixar | Animation review methods and apparatus |
US8065383B2 (en) * | 2004-05-17 | 2011-11-22 | Simplefeed, Inc. | Customizable and measurable information feeds for personalized communication |
US7590947B1 (en) | 2004-05-28 | 2009-09-15 | Adobe Systems Incorporated | Intelligent automatic window sizing |
JP4955544B2 (ja) | 2004-06-03 | 2012-06-20 | ヒルクレスト・ラボラトリーズ・インコーポレイテッド | ズーム可能ユーザインターフェースのためのクライアント/サーバアーキテクチャおよび方法 |
KR20060001550A (ko) | 2004-06-30 | 2006-01-06 | 엘지전자 주식회사 | 인터넷을 이용한 UPnP 디바이스 제어 방법 |
US8244099B2 (en) | 2004-08-19 | 2012-08-14 | Sony Computer Entertainment Inc. | Picture reproducing apparatus and method, recording medium, and picture reproducing program |
US8046440B2 (en) * | 2004-08-19 | 2011-10-25 | International Business Machines Corporation | Managing resources through user-facing web services aggregated in portals |
US7212212B2 (en) | 2004-09-01 | 2007-05-01 | Sap Ag | Context attribute determination |
KR100643282B1 (ko) | 2004-11-02 | 2006-11-10 | 삼성전자주식회사 | UPnP 네트워크 상에서 특정 기기를 식별하는 방법,식별된 특정 기기를 통하여 컨텐츠를 재생하는 방법, 및장치 |
US7571425B2 (en) | 2004-11-18 | 2009-08-04 | Hewlett-Packard Development Company, L.P. | Automated binding for object oriented programming user interface components |
US7546522B2 (en) | 2004-12-20 | 2009-06-09 | Microsoft Corporation | Method, system, and computer-readable medium for applying a global formatting scheme to a chart in an electronic document |
US7734999B2 (en) | 2005-01-03 | 2010-06-08 | Emergis Inc. | System and method for providing forms on a user interface |
EP1839177A4 (en) | 2005-01-05 | 2010-07-07 | Divx Inc | SYSTEM AND METHOD RELATING TO OFF-SITE USER INTERFACE |
US7660416B1 (en) | 2005-01-11 | 2010-02-09 | Sample Digital Holdings Llc | System and method for media content collaboration throughout a media production process |
US20060212798A1 (en) * | 2005-01-12 | 2006-09-21 | Lection David B | Rendering content natively on local operating system |
JP4013980B2 (ja) | 2005-02-14 | 2007-11-28 | 株式会社日立製作所 | Ip通信システム、ipネットワークにおける通信制御方法およびクライアント端末、ならびにクライアントサーバ |
KR20060105813A (ko) | 2005-04-04 | 2006-10-11 | 엘지전자 주식회사 | 이종 네트워크 기반의 원격 ui 서비스 시스템 및 방법 |
US7818668B2 (en) | 2005-04-19 | 2010-10-19 | Microsoft Corporation | Determining fields for presentable files |
US20060232573A1 (en) | 2005-04-19 | 2006-10-19 | Sharp Kabushiki Kaisha | Display description format providing device, method of controlling same, communications network system, display control device, method of controlling same, display system, program for controlling display description format providing device, program for controlling display control device and storage mediun storing program |
US8244796B1 (en) * | 2005-05-31 | 2012-08-14 | Adobe Systems Incorporated | Method and apparatus for customizing presentation of notification lists |
KR100709790B1 (ko) | 2005-07-05 | 2007-04-19 | 주식회사 알티캐스트 | 셋톱박스 유저인터페이스 갱신 시스템 및 방법 |
US20070033522A1 (en) * | 2005-08-02 | 2007-02-08 | Lin Frank L | System and method for dynamic resizing of web-based GUIs |
WO2007021923A2 (en) | 2005-08-11 | 2007-02-22 | Sokol Anthony B | System and method of adjusting audiovisual content to improve hearing |
US20090037396A1 (en) * | 2005-10-18 | 2009-02-05 | Justsystems Corporation | Search apparatus and search method |
US20070150816A1 (en) | 2005-12-22 | 2007-06-28 | Innopath Software, Inc. | User interface authoring utility for changing user interface elements on wireless devices |
KR101133855B1 (ko) | 2006-01-06 | 2012-04-06 | 에스케이플래닛 주식회사 | Ui 정보 제공 시스템 및 방법과 이를 위한 이동통신 단말 |
US7496815B2 (en) | 2006-03-06 | 2009-02-24 | Sapphire Infotech, Inc. | Method and apparatus for automatic generation of system test libraries |
US20070214431A1 (en) | 2006-03-08 | 2007-09-13 | Microsoft Corporation | Smart gadget resizing |
CA2686151A1 (en) | 2006-05-03 | 2007-11-15 | Cloud Systems, Inc. | System and method for managing, routing, and controlling devices and inter-device connections |
US7529977B2 (en) | 2006-05-31 | 2009-05-05 | Microsoft Corporation | Automated extensible user interface testing |
US8032609B2 (en) * | 2006-06-09 | 2011-10-04 | Research In Motion Limited | Dynamic endpoint aggregator for web services |
FR2902543A1 (fr) | 2006-06-20 | 2007-12-21 | Alcatel Sa | Procede de creation de contenus multimedia pour terminaux mobiles, produit programme d'ordinateur pour la mise en oeuvre d'un tel procede |
US9069870B2 (en) * | 2006-07-12 | 2015-06-30 | International Business Machines Corporation | Client-side aggregation of context-sensitive request results where results for aggregation are asynchronously produced by multiple servers |
US20100058220A1 (en) | 2006-07-17 | 2010-03-04 | Carpenter Carl E | Systems, methods, and computer program products for the creation, monetization, distribution, and consumption of metacontent |
US8677257B2 (en) * | 2006-08-04 | 2014-03-18 | Apple Inc. | Granular graphical user interface element |
KR20080018061A (ko) | 2006-08-23 | 2008-02-27 | 주식회사 로직플랜트 | 원격지 컴퓨터 제어를 위한 사용자 인터페이스 방법 |
US8201143B2 (en) | 2006-09-29 | 2012-06-12 | Microsoft Corporation | Dynamic mating of a modified user interface with pre-modified user interface code library |
US20080155062A1 (en) | 2006-11-02 | 2008-06-26 | Andre Rabold | System for providing media data |
US20080127133A1 (en) * | 2006-11-28 | 2008-05-29 | International Business Machines Corporation | Aggregating portlets for use within a client environment without relying upon server resources |
JP4361080B2 (ja) | 2006-11-28 | 2009-11-11 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 画像データを生成するための方法、プログラム、および装置 |
US7836475B2 (en) | 2006-12-20 | 2010-11-16 | Verizon Patent And Licensing Inc. | Video access |
KR101446939B1 (ko) | 2007-03-30 | 2014-10-06 | 삼성전자주식회사 | 원격 제어 장치 및 그 제어 방법 |
KR20080089119A (ko) | 2007-03-30 | 2008-10-06 | 삼성전자주식회사 | Mpeg 기반의 ui 장치 및 이를 이용한 기능 제어 방법 |
US8756512B2 (en) * | 2007-05-09 | 2014-06-17 | International Business Machines Corporation | Dynamic GUI rendering by aggregation of device capabilities |
US8340196B2 (en) * | 2007-05-17 | 2012-12-25 | Lsi Corporation | Video motion menu generation in a low memory environment |
US20080288866A1 (en) | 2007-05-17 | 2008-11-20 | Spencer James H | Mobile device carrousel systems and methods |
US8132147B2 (en) * | 2007-05-29 | 2012-03-06 | Sap Ag | Semantic interpretation of software models for generating user interfaces |
US8145704B2 (en) * | 2007-06-13 | 2012-03-27 | Ntech Properties, Inc. | Method and system for providing media programming |
US10019570B2 (en) * | 2007-06-14 | 2018-07-10 | Microsoft Technology Licensing, Llc | Protection and communication abstractions for web browsers |
US20090006979A1 (en) * | 2007-06-27 | 2009-01-01 | International Business Machines Corporation | Text exchange facility for joining multiple text exchange communications into a single topic based communication |
US9563718B2 (en) * | 2007-06-29 | 2017-02-07 | Intuit Inc. | Using interactive scripts to facilitate web-based aggregation |
US8595634B2 (en) * | 2007-11-30 | 2013-11-26 | Red Hat, Inc. | Distributed hosting of web application styles |
US20090204885A1 (en) * | 2008-02-13 | 2009-08-13 | Ellsworth Thomas N | Automated management and publication of electronic content from mobile nodes |
KR101560183B1 (ko) * | 2008-04-17 | 2015-10-15 | 삼성전자주식회사 | 사용자 인터페이스를 제공/수신하는 방법 및 장치 |
JP2009290729A (ja) * | 2008-05-30 | 2009-12-10 | Ricoh Co Ltd | 画像形成装置、情報処理方法、及びプログラム |
KR101531164B1 (ko) | 2008-08-12 | 2015-06-25 | 삼성전자주식회사 | 사용자 인터페이스 디렉터리를 이용한 사용자 인터페이스 제공/수신하는 방법 및 장치 |
US8438485B2 (en) | 2009-03-17 | 2013-05-07 | Unews, Llc | System, method, and apparatus for generating, customizing, distributing, and presenting an interactive audio publication |
US9195775B2 (en) | 2009-06-26 | 2015-11-24 | Iii Holdings 2, Llc | System and method for managing and/or rendering internet multimedia content in a network |
US8812959B2 (en) | 2009-06-30 | 2014-08-19 | International Business Machines Corporation | Method and system for delivering digital content |
US8635546B2 (en) | 2009-09-22 | 2014-01-21 | Microsoft Corporation | Zero fixed placement ads |
US20110202842A1 (en) | 2010-02-12 | 2011-08-18 | Dynavox Systems, Llc | System and method of creating custom media player interface for speech generation device |
US20120054602A1 (en) | 2010-08-30 | 2012-03-01 | Sap Ag | Management of display of object fields of layout elements |
-
2008
- 2008-08-12 KR KR1020080079034A patent/KR101545137B1/ko active IP Right Grant
-
2009
- 2009-03-13 US US12/382,361 patent/US9389881B2/en not_active Expired - Fee Related
- 2009-04-17 CN CN2009801135766A patent/CN102007482B/zh not_active Expired - Fee Related
- 2009-04-17 EP EP09732302A patent/EP2267608A4/en not_active Withdrawn
- 2009-04-17 WO PCT/KR2009/001994 patent/WO2009128670A2/ko active Application Filing
Non-Patent Citations (2)
Title |
---|
None |
See also references of EP2267608A4 |
Also Published As
Publication number | Publication date |
---|---|
KR20090110201A (ko) | 2009-10-21 |
WO2009128670A3 (ko) | 2010-01-14 |
KR101545137B1 (ko) | 2015-08-19 |
CN102007482B (zh) | 2013-12-11 |
US9389881B2 (en) | 2016-07-12 |
EP2267608A4 (en) | 2013-01-16 |
EP2267608A2 (en) | 2010-12-29 |
CN102007482A (zh) | 2011-04-06 |
US20090265645A1 (en) | 2009-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2009128670A2 (ko) | 사용자 인터페이스를 생성하는 방법 및 장치 | |
WO2009128671A2 (ko) | 개인화된 사용자 인터페이스를 디스플레이하는 방법 및 장치 | |
WO2009128650A2 (ko) | 사용자 인터페이스를 제공/수신하는 방법 및 장치 | |
WO2010008230A2 (en) | Apparatus and method for providing user interface service in a multimedia system | |
WO2013077525A1 (ko) | 제어 방법 및 그를 이용한 장치 | |
WO2009128651A2 (ko) | 클라이언트의 특성을 고려한 사용자 인터페이스를 제공, 수신하는 방법 및 장치 | |
US7664872B2 (en) | Media transfer protocol | |
Li et al. | Distributed multimedia systems | |
WO2011059275A2 (en) | Method and apparatus for managing data | |
WO2013077524A1 (ko) | 사용자 인터페이스 표시 방법 및 그를 이용한 장치 | |
WO2010021449A1 (en) | Menu navigation method, apparatus and user interface having menu navigation function, and recording medium having recorded thereon program for executing the menu navigation method | |
US20100064332A1 (en) | Systems and methods for presenting media content obtained from multiple sources | |
JP4393872B2 (ja) | Ip映像コンテンツへのstbmhpデジタルtvミドルウェアのトランスペアレントなアクセス | |
JP2008527851A (ja) | リモートユーザインターフェースシステム及び方法 | |
WO2011115424A2 (ko) | 컨텐츠 출력 시스템 및 그 시스템에서 코덱 정보 공유 방법 | |
KR20040081390A (ko) | 디지털 방송 프로그램 서비스를 제공하기 위한 확장메타데이터의 데이터 구조와 이를 이용한 적응적 프로그램서비스 제공 시스템 및 그 방법 | |
WO2010041848A2 (en) | Iptv receiver and method for changing channel of iptv receiver | |
JP2000513179A (ja) | 適応制御を行うことができるmpegコード化オーディオ・ビジュアル対象物をインターフェースで連結するためのシステムおよび方法 | |
WO2011062340A1 (en) | Providing graphic user interface based upon usage history | |
EP2129110A2 (en) | Information processing device, display method and program | |
WO2010147433A2 (en) | Apparatus and method for transmitting and receiving a user interface in a communication system | |
WO2011111987A2 (en) | Apparatus and method for playing media content data | |
WO2010041887A2 (en) | Apparatus and method for providing ui based on structured rich media data | |
JP2000049847A (ja) | マルチメディア・コンテンツの動的変更方法及び装置 | |
WO2021139045A1 (zh) | 播放媒体项目的方法及显示设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 200980113576.6 Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 09732302 Country of ref document: EP Kind code of ref document: A2 |
|
REEP | Request for entry into the european phase |
Ref document number: 2009732302 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2009732302 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |