WO2016178442A1 - Digital device and digital device control method - Google Patents

Digital device and digital device control method Download PDF

Info

Publication number
WO2016178442A1
WO2016178442A1 PCT/KR2015/004506 KR2015004506W WO2016178442A1 WO 2016178442 A1 WO2016178442 A1 WO 2016178442A1 KR 2015004506 W KR2015004506 W KR 2015004506W WO 2016178442 A1 WO2016178442 A1 WO 2016178442A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
window
output
application
menu
Prior art date
Application number
PCT/KR2015/004506
Other languages
French (fr)
Korean (ko)
Inventor
임세준
정영경
임형진
이기호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020177026246A priority Critical patent/KR20180002599A/en
Priority to KR1020227008155A priority patent/KR102418149B1/en
Priority to PCT/KR2015/004506 priority patent/WO2016178442A1/en
Publication of WO2016178442A1 publication Critical patent/WO2016178442A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Definitions

  • the present invention relates to a digital device, and more particularly, to a digital device and a method for maximizing user's convenience through a more intuitive and quick content access by constructing a content-oriented menu.
  • the digital system is more resistant to external noise than conventional analog systems, and thus has low data loss, is advantageous in error correction, and can provide bidirectional services.
  • Conventional digital TVs receive a control signal through control means such as a remote controller provided in pairs at the time of manufacture, or through key buttons provided on an external frame or front panel of the digital TV. Was performed and the result was output.
  • control means such as a remote controller provided in pairs at the time of manufacture, or through key buttons provided on an external frame or front panel of the digital TV.
  • a menu screen including a predetermined format or contents at the time of manufacture is provided on the screen.
  • the conventional digital TV outputs only the preset contents to the requested menu screen. Therefore, in order to search and use a function or content desired by a user through a digital TV, the user must go through various depths or through separate operations or function buttons. Inconvenience and difficulty in quickly accessing and using a desired function or content in such an environment.
  • the digital device is to make it easier and faster to access and use data, such as a function, content, etc. desired by the user than one conventional.
  • the digital device provides a method for easily and quickly accessing and using desired data through a minimum depth or screen change on a called menu while minimizing interruption in viewing content being displayed on a main screen, that is, content being previously viewed. Make it another task.
  • the digital device can easily provide a multi-view screen based on a Web OS platform while the main content or / and a menu launcher is being output. Letting him control is another task.
  • Another object of the digital device according to the present invention is to allow anyone to easily and conveniently use the digital device by configuring and providing a menu screen that is more intuitive and maximizing convenience than in the related art.
  • the receiving unit for receiving the content and the signaling data for the content
  • a user input receiving unit for receiving a first user input for requesting the multi-view content output
  • a decoder for decoding the content and signaling data, controlling to output the decoded content on a screen, and overlaying a window for outputting the multi-view content on a predetermined area on the screen where the content is output according to the first user input
  • a control unit for controlling the output and an output unit for outputting the content and the window, wherein the control unit controls to output an interface for outputting one or more sub-windows when the pointer is located in the window, and to select the interface. According to the above one or Controls such that the output of one sub-window in the screen area with the window.
  • a method of processing multi-view data in a digital device may include receiving content and signaling data for the content, decoding the content and signaling data, and displaying the decoded content on a screen. Outputting, receiving a first user input for requesting multi-view content output, and overlaying and outputting a window for outputting the multi-view content on a predetermined area on a screen where the content is output according to the first user input And the output window includes an interface for outputting one or more subwindows, and outputs the one or more subwindows together with the window to a screen area according to the selection of the interface. .
  • a digital device has an effect of allowing a user to easily access and use data, such as a desired function and content, more easily and faster than before.
  • the digital device may display desired data through a minimum depth or screen change on a called menu while minimizing interruption in viewing content that is being output on the main screen, that is, previously viewed content. It has the effect of making it quick and easy to access and use.
  • a digital device may be configured to easily provide and control a multi-view screen based on a webOS platform while a main content or / and menu launcher is being output. It works.
  • the digital device has an effect that makes it easy and convenient for anyone to use the digital device by configuring and providing a menu screen that is more intuitive and maximized convenience than in the related art.
  • FIG. 1 is a view for schematically illustrating a service system including a digital device according to an embodiment of the present invention
  • FIG. 2 is a block diagram illustrating a digital device according to one embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating a digital device according to another embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a WebOS architecture according to an embodiment of the present invention.
  • FIG. 5 is a diagram for explaining the architecture of a WebOS device according to one embodiment of the present invention.
  • FIG. 6 is a diagram for explaining a graphic composition flow in a webOS device according to one embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a media server according to one embodiment of the present invention.
  • FIG. 8 is a block diagram illustrating a configuration block of a media server according to one embodiment of the present invention.
  • FIG. 9 is a diagram illustrating a relationship between a media server and a TV service according to an exemplary embodiment.
  • FIG. 10 illustrates a screen of a digital device on which content is output
  • FIG. 11 illustrates a digital device for outputting a requested menu with a menu output according to an embodiment of the present invention
  • 22 to 27 are diagrams for explaining the past mode menu configuration and control according to the present invention.
  • 36 is a diagram illustrating an example of a digital service system according to one embodiment of the present invention.
  • FIG. 37 is a diagram for explaining an embodiment of outputting a menu requested from a digital device 3710 on a mobile device according to the present invention.
  • FIG. 38 is a diagram illustrating an embodiment of a menu launcher configuration in the form of a mobile device according to the present invention.
  • 39 is a flowchart illustrating a menu data processing method in a digital device according to the present invention.
  • 40 is a diagram for explaining a sound control method in screen division in relation to multi-view mode data processing
  • 41 and 42 illustrate a method of entering a multi-view mode according to the present invention
  • 44 is a diagram for explaining a multi-view window control method according to another embodiment of the present invention.
  • 45 is a diagram illustrating a detailed control method of a multi-view window according to one embodiment of the present invention.
  • 46 and 47 are diagrams for explaining a detailed reproduction control method of a multi-view window according to one embodiment of the present invention.
  • 48 is a diagram to describe a method of exiting a multi-view mode according to the present invention.
  • 49 to 58 are diagrams for explaining a sub multi-view operation control method according to the present invention.
  • FIG. 59 is a flowchart illustrating a control method of a digital device supporting a multi-view mode according to an embodiment of the present invention.
  • the term "digital device” is used herein to mean all devices capable of performing at least one or more of transmission, reception, processing, and output of data, content, services, applications, and the like.
  • the digital device may be paired or connected (hereinafter referred to as 'pairing') with another digital device, an external server, or the like through a wire / wireless network, and transmit / receive predetermined data therethrough. Can be received.
  • the predetermined data also includes control data. If necessary, the data can be properly converted before its transmission / reception.
  • the digital device includes, for example, a standing device such as a Network TV, a Hybrid Broadcast Broadband TV (HBBTV), a Smart TV, an Internet Protocol TV (IPTV), a PC, or the like, and a PDA (A mobile device or a handheld device, such as a personal digital assistant, a smart phone, a tablet PC, a notebook, a wearable device, and the like, may all be included.
  • the digital device described herein may be a digital signage, monitor, or display device composed only of panels, and may be a set-top box (STB). Or may be part of one service system in combination with a server.
  • STB set-top box
  • wired / wireless network refers to a communication network supporting various communication standards or protocols for pairing and / or transmitting and receiving data between digital devices or digital devices and external servers.
  • wired / wireless networks include all communication networks that are currently or will be supported by the specification and are capable of supporting one or more communication protocols for them.
  • Such wired and wireless networks include, for example, Universal Serial Bus (USB), Composite Video Banking Sync (CVBS), Component, S-Video (Analog), Digital Visual Interface (DVI), High Definition Multimedia Interface (HDMI), Network for wired connection such as RGB, D-SUB and communication standard or protocol therefor, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), Zigbee (ZigBee), Digital Living Network Alliance (DLNA), Wireless LAN (WLAN) (Wi-Fi), Wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), LTE / LTE It may be formed by a network for a wireless connection such as Long Term Evolution / LTE-Advanced (A), Wi-Fi Direct, and a communication standard or protocol therefor.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • the digital device is, for example, an intelligent device that supports a broadcast receiving function, a computer function or support, at least one external input, and the like, and includes e-mail and web browsing through the wired / wireless network described above. , Banking, games, applications, and more.
  • the digital device may include an interface for supporting at least one input or control means such as a handwritten input device, a touch-screen, a spatial remote controller, and the like. have.
  • the digital device may use a standard general-purpose operating system (OS), and in particular, the Linux OS may be included therein.
  • OS general-purpose operating system
  • the digital device described in the present specification an example of processing data, services, applications, etc. based on the Web OS (Web OS) platform. Therefore, the digital device can add, delete, modify, and update various services or applications on a general-purpose OS kernel or Linux kernel, thereby constructing a more user-friendly environment. Can be provided.
  • the above-described digital device may receive and process an external input, wherein the external input is connected to an external input device, that is, the above-described digital device through a wired / wireless network to transmit / receive data.
  • the external input may be a gaming device such as a high-definition multimedia interface (HDMI), a playstation or an X-box, a smartphone, a tablet PC, a pocket photo, or the like.
  • Digital devices such as printing devices, smart TVs, Blu-ray device devices and the like.
  • server refers to a digital device or system for supplying data to or receiving data from the above-mentioned digital device, that is, a client, and also referred to as a processor. do.
  • a portal server for providing a web page, a web content or a web service
  • an advertising server for providing advertising data
  • Providing a content server providing content an SNS server providing a social network service (SNS), a service server provided by a manufacturer, and providing a video on demand (VOD) or streaming service
  • SNS social network service
  • VOD video on demand
  • It may include a multi-channel video programming distributor (MVDP), a service server for providing a pay service, a cloud server, and the like.
  • MVDP multi-channel video programming distributor
  • a digital device includes a receiver for receiving content and signaling data for the content, a user input receiving unit for receiving a first user input for requesting multi-view content output, and decoding the content and signaling data.
  • a decoder configured to control the output of the decoded content on a screen, and to output an overlay of a window for outputting the multi-view content in a predetermined area on a screen on which the content is output according to the first user input;
  • an output unit for outputting a content and a window, wherein the control unit controls to output an interface for outputting one or more sub-windows when the pointer is located in the window, and according to the interface selection. Remind windows Controls output to the screen area with a window.
  • the content output through the one or more sub-windows may be content associated with at least one of the content and the multi-view content output through the window.
  • the user input receiver may receive a user input for requesting a menu launcher output, and the controller may control to output one or more menu items on the screen according to the menu launcher output request user input. .
  • the first user input may be a multi-view function icon selection signal provided around the selected menu item as one of one or more menu items belonging to the output menu launcher is selected.
  • the controller may control to output the window for outputting the multi-view content to an area not overlapping with the output menu launcher, and to output the size of the one or more sub-windows differently from the window.
  • the controller may control the one or more sub-windows to be output to a screen area adjacent to the window or to an edge of the screen, and when the output window is changed from an initial position to another position in the screen area.
  • one or more sub-windows may be output.
  • the at least one of the output window and the sub-windows may include content of the same category. If the pointer is located in the corresponding window or sub-window, the content list in the group unit can be controlled to be output on the corresponding window in the form of a window or an icon.
  • FIG. 1 is a diagram schematically illustrating a service system including a digital device according to an embodiment of the present invention.
  • the service system includes a content provider 10, a service provider 20, a network provider 30, and a home network end user (HNED). (Customer) 40.
  • the HNED 40 comprises, for example, a client 100, ie a digital device according to the invention.
  • the content provider 10 produces and provides various contents. As shown in FIG. 1, a terrestrial broadcast sender, a cable SO (cable system operator) or MSO (multiple SO), a satellite broadcast sender, various Internet broadcast senders, and an individual may be used as the content provider 10. Content providers and the like. The content provider 10 may produce and provide various services or applications in addition to broadcast content.
  • the service provider 20 service packetizes the content produced by the content provider 10 and provides it to the HNED 40.
  • the service provider 20 packages at least one or more of contents produced by the first terrestrial broadcast, the second terrestrial broadcast, the cable MSO, satellite broadcast, various Internet broadcasts, applications, and the like for the service, and HNED. Provide 40.
  • the service provider 20 provides a service to the client 100 in a uni-cast or multi-cast manner. Meanwhile, the service provider 20 may transmit data to a plurality of clients 100 registered in advance. For this, the service provider 20 may use an Internet Group Management Protocol (IGMP) protocol.
  • IGMP Internet Group Management Protocol
  • the content provider 10 and the service provider 20 described above may be the same entity.
  • the content produced by the content provider 10 may be packaged as a service and provided to the HNED 40 to perform the functions of the service provider 20 together or vice versa.
  • the network provider 30 provides a network for data exchange between the content provider 10 or / and the service provider 20 and the client 100.
  • the client 100 is a consumer belonging to the HNED 40, and for example, establishes a home network through the network provider 30 to receive data, and receives data about various services or applications such as VoD and streaming. You can also send / receive.
  • the content provider 10 and / or the service provider 20 in the service system may use conditional access or content protection means to protect the transmitted content.
  • the client 100 may use a processing means such as a cable card (or point of deployment) or a downloadable casing (DCAS) in response to the limited reception or content protection.
  • a processing means such as a cable card (or point of deployment) or a downloadable casing (DCAS) in response to the limited reception or content protection.
  • the client 100 may also use a bidirectional service through a network. Accordingly, the client 100 may perform a role or function of the content provider, and the service provider 20 may receive it and transmit it to another client.
  • the content provider 10 and / or the service provider 20 may be a server that provides a service described later herein.
  • the server may mean to own or include the network provider 30 as necessary.
  • the service or service data includes not only services or applications received from the outside described above but also internal services or applications, and these services or applications are services for the client 100 based on Web OS (Web OS). To application data.
  • Web OS Web OS
  • FIG. 2 is a block diagram illustrating a digital device according to an embodiment of the present invention.
  • the digital device described herein corresponds to the client 100 of FIG. 1.
  • the digital device 200 includes a network interface 201, a TCP / IP manager 202, a service delivery manager 203, an SI decoder 204, A demux or demultiplexer 205, an audio decoder 206, a video decoder 207, a display A / V and OSD module 208, a service control manager (service control manager) 209, service discovery manager 210, SI & metadata DB 211, metadata manager 212, service manager 213, And a UI manager 214.
  • a network interface 201 includes a network interface 201, a TCP / IP manager 202, a service delivery manager 203, an SI decoder 204, A demux or demultiplexer 205, an audio decoder 206, a video decoder 207, a display A / V and OSD module 208, a service control manager (service control manager) 209, service discovery manager 210, SI & metadata DB 211, metadata manager 212, service manager 213, And a UI
  • the network interface unit 201 is an IP packet (s) (Internet Protocol (IP) packet (s)) or IP datagram (s) (hereinafter referred to as' IP packet (s) ').
  • IP Internet Protocol
  • s IP datagram
  • the network interface unit 201 may receive a service, an application, content, additional information, and the like from the service provider 20 of FIG. 1 through a network.
  • the additional information may include SI (System Information) information.
  • the network interface 201 may coexist with a tuner, a demodulator, or the like, or may be replaced with a tuner, a demodulator, or the like.
  • the network interface unit 201 may include, for example, an Ethernet terminal for connection with a wired network, and for example, a wireless LAN (WLAN) for connection with a wireless network.
  • WLAN wireless LAN
  • the network interface unit 201 can access a predetermined web page through a connected network or another network linked to the connected network. That is, by accessing a predetermined web page through the network, it is possible to send or receive data with the server. In addition, it may receive content or data provided by a content provider or a network operator. That is, content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider may be received through a network.
  • the network interface unit 201 may select and receive a desired application from among applications that are open through the network.
  • the TCP / IP manager 202 may be configured to transfer packets between the source and the destination for IP packets received by the digital device 200 and IP packets transmitted by the digital device 200. involved in packet delivery).
  • the TCP / IP manager 202 classifies the received packet (s) to correspond to an appropriate protocol, and classifies the classified packet (s) into a service delivery manager 205, a service discovery manager 210, and a service control manager ( 209, the metadata manager 212, and the like.
  • the service delivery manager 203 is in charge of controlling service data.
  • the service delivery manager 203 may use RTP / RTCP when controlling real-time streaming data.
  • the service delivery manager 203 parses the received data packet according to the RTP and transmits it to the demultiplexer 205 or controls the service manager 213. In accordance with the SI & metadata database 211. Meanwhile, the service delivery manager 203 feeds back the network reception information to a server that provides a service using RTCP.
  • the demultiplexer 205 demultiplexes the received packet into audio, video, SI data, and the like, and transmits the demultiplexer 205 to the audio / video decoders 206/207 and the SI decoder 204, respectively.
  • the SI decoder 204 decodes the demultiplexed SI data.
  • the SI data includes PSI (Program Specific Information), PSIP (Program and System Information Protocol), DVB-SI (Digital Video Broadcasting-Service Information), DTMB / CMMB (Digital Television Terrestrial Multimedia Broadcasting / Coding Mobile Multimedia Broadcasting), and the like. It can be either.
  • the SI decoder 204 may store the SI data to be decoded in the SI & metadata database 211. The SI data stored in the SI & database 211 may be read out and used as necessary, for example, by a user's request.
  • the audio / video decoder 206/207 decodes each demultiplexed audio data and video data.
  • the decoded audio data and video data are provided to the user through the display unit 208.
  • the application manager may include, for example, the UI manager 214 and the service manager 213 and perform a control function of the digital device 200.
  • the application manager may manage the overall state of the digital device 200, provide a user interface (UI), and manage other managers.
  • UI user interface
  • the UI manager 214 provides a Graphic User Interface (UI) / UI for a user using an OSD (On Screen Display), etc., and receives a key input from the user to perform a device operation according to the input. For example, the UI manager 214 transmits the key input signal to the service manager 213 when receiving a key input related to channel selection from the user.
  • UI Graphic User Interface
  • OSD On Screen Display
  • the service manager 213 controls a manager associated with a service such as a service delivery manager 203, a service discovery manager 210, a service control manager 209, and a metadata manager 212.
  • the service manager 213 generates a channel map and controls the channel selection using the generated channel map according to the key input received from the UI manager 214.
  • the service manager 213 receives service information from the SI decoder 204 and sets the audio / video packet identifier (PID) of the selected channel to the demultiplexer 205.
  • PID audio / video packet identifier
  • the PID set as described above may be used in the above demultiplexing process. Accordingly, the demultiplexer 205 filters (PID or section filtering) audio data, video data, and SI data by using the PID.
  • the service discovery manager 210 provides information necessary for selecting a service provider that provides a service. Upon receiving a signal regarding channel selection from the service manager 213, the service discovery manager 210 searches for a service using the information.
  • the service control manager 209 is responsible for selecting and controlling services.
  • the service control manager 209 uses IGMP or RTSP when the user selects a live broadcasting service such as a conventional broadcasting method, and selects a service such as VOD (Video on Demand).
  • the RTSP is used to perform service selection and control.
  • the RTSP protocol may provide a trick mode for real time streaming.
  • the service control manager 209 may initialize and manage a session through the IMS gateway 250 using an IP Multimedia Subsystem (IMS) or a Session Initiation Protocol (SIP).
  • IMS IP Multimedia Subsystem
  • SIP Session Initiation Protocol
  • the protocols are one embodiment, and other protocols may be used depending on implementation.
  • the metadata manager 212 manages metadata associated with the service and stores the metadata in the SI & metadata database 211.
  • the SI & metadata database 211 stores service information decoded by the SI decoder 204, metadata managed by the metadata manager 212, and information necessary to select a service provider provided by the service discovery manager 210. Save it.
  • the SI & metadata database 211 can store set-up data and the like for the system.
  • the SI & metadata database 211 may be implemented using non-volatile memory (NVRAM), flash memory, or the like.
  • NVRAM non-volatile memory
  • the IMS gateway 250 is a gateway that collects functions necessary for accessing an IMS-based IPTV service.
  • the storage unit may store a program for each signal processing and control, or may store a signal-processed video, audio, or data signal. In addition, the storage unit may perform a function for temporarily storing an image, audio, or data signal input from the external device interface unit or the network interface unit 201.
  • the storage unit may store information about a predetermined broadcast channel through a channel storage function.
  • the storage unit may store an application or an application list input from the external device interface unit or the network interface unit 201.
  • the storage unit may store webOS platform data described below.
  • the storage unit may be, for example, a flash memory type, a hard disk type, a multimedia card micro type, a memory of a card type (eg SD or XD memory, etc.),
  • the storage medium may include at least one type of storage medium (RAM), ROM (EEPROM, etc.).
  • the digital device 200 may provide a user with a content file (video file, still image file, music file, document file, application file, etc.) stored in the storage unit.
  • the digital device 200 described above may be a digital broadcast receiver capable of processing a fixed or mobile ATSC or DVB digital broadcast signal.
  • the digital device according to the present invention may omit some of the configurations of the illustrated configurations, or may further include components not shown on the contrary.
  • the digital device does not include a tuner and a demodulator, and may receive and play content through a network interface unit or an external device interface unit.
  • FIG. 3 is a block diagram illustrating a digital device according to another embodiment of the present invention.
  • FIG. 2 the digital device, which is a fixed device, has been described as an embodiment of the digital device, and FIG.
  • the mobile device 300 may include a wireless communication unit 310, an A / V input unit 320, a user input unit 330, a sensing unit 340, an output unit 350,
  • the memory 360 may include an interface unit 370, a controller 380, a power supply unit 390, and the like.
  • the wireless communication unit 310 may include one or more modules that enable wireless communication between the mobile device 300 and the wireless communication system or between the mobile device and the network in which the mobile device is located.
  • the wireless communication unit 310 may include a broadcast receiving module 311, a mobile communication module 312, a wireless internet module 313, a short range communication module 314, a location information module 315, and the like. .
  • the broadcast receiving module 311 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal.
  • the broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
  • the broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider.
  • the broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 312.
  • the broadcast related information may exist in various forms, for example, in the form of an electronic program guide (EPG) or an electronic service guide (ESG).
  • EPG electronic program guide
  • ESG electronic service guide
  • the broadcast receiving module 311 may be, for example, ATSC, DVB-T (Digital Video Broadcasting-Terrestrial), DVB-S (Satellite), MediaFLO (Media Forward Link Only), DVB-H (Handheld), ISDB-T ( Digital broadcasting signals may be received using a digital broadcasting system such as Integrated Services Digital Broadcast-Terrestrial.
  • the broadcast receiving module 311 may be configured to be suitable for not only the above-described digital broadcasting system but also other broadcasting systems.
  • the broadcast signal and / or broadcast related information received through the broadcast receiving module 311 may be stored in the memory 360.
  • the mobile communication module 312 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice signal, a video call signal, or a text / multimedia message.
  • the wireless internet module 313 may include a module for wireless internet access and may be embedded or external to the mobile device 300.
  • Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.
  • the short range communication module 314 refers to a module for short range communication.
  • Short range communication technology such as Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, RS-232, RS-485, etc. This can be used.
  • the location information module 315 may be a module for acquiring location information of the mobile device 300, and may use a Global Position System (GPS) module as an example.
  • GPS Global Position System
  • the A / V input unit 320 is for inputting audio or video signals, and may include a camera 321 and a microphone 322.
  • the camera 321 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the imaging mode.
  • the processed image frame may be displayed on the display unit 351.
  • the image frame processed by the camera 321 may be stored in the memory 360 or transmitted to the outside through the wireless communication unit 310. Two or more cameras 321 may be provided depending on the use environment.
  • the microphone 322 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data.
  • the processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 312 and output in the call mode.
  • the microphone 322 may be implemented with various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
  • the user input unit 330 generates input data for the user to control the operation of the terminal.
  • the user input unit 330 may include a key pad, a dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like.
  • the sensing unit 340 may determine the current state of the mobile device 300 such as an open / closed state of the mobile device 300, a location of the mobile device 300, presence or absence of user contact, orientation of the mobile device, acceleration / deceleration of the mobile device, and the like.
  • the sensing unit generates a sensing signal for controlling the operation of the mobile device 300. For example, when the mobile device 300 is moved or tilted, the position or tilt of the mobile device may be sensed. Also, whether the power supply unit 390 is supplied with power or whether the interface unit 370 is coupled to an external device may be sensed.
  • the sensing unit 340 may include a proximity sensor 341 including near field communication (NFC).
  • the output unit 350 is to generate an output related to visual, auditory or tactile senses, and may include a display unit 351, a sound output module 352, an alarm unit 353, a haptic module 354, and the like. have.
  • the display unit 351 displays (outputs) information processed by the mobile device 300. For example, when the mobile device is in the call mode, the UI or GUI related to the call is displayed. When the mobile device 300 is in a video call mode or a shooting mode, the mobile device 300 displays a captured image and / or a received image, UI, or GUI.
  • the display unit 351 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display ( flexible display) and three-dimensional display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display flexible display
  • three-dimensional display three-dimensional display.
  • Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display.
  • a representative example of the transparent display is TOLED (Transparant OLED).
  • the rear structure of the display unit 351 may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 351 of the terminal body.
  • two or more display units 351 may exist.
  • a plurality of display units may be spaced apart or integrally disposed on one surface of the mobile device 300, or may be disposed on different surfaces.
  • the display unit 351 and a sensor for detecting a touch operation form a mutual layer structure (hereinafter referred to as a touch screen)
  • the display unit 351 may input other than an output device. It can also be used as a device.
  • the touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 351 or capacitance generated at a specific portion of the display unit 351 into an electrical input signal.
  • the touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.
  • the corresponding signal (s) is sent to the touch controller.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 380.
  • the controller 380 may determine which area of the display unit 351 is touched.
  • the proximity sensor 341 may be disposed in an inner region of the mobile device surrounded by the touch screen or near the touch screen.
  • the proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays.
  • Proximity sensors have a longer life and higher utilization than touch sensors.
  • the proximity sensor examples include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer.
  • the touch screen may be classified as a proximity sensor.
  • the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch
  • the act of actually touching the pointer on the screen is called “contact touch.”
  • the position where the proximity touch is performed by the pointer on the touch screen refers to a position where the pointer is perpendicular to the touch screen when the pointer is in proximity proximity.
  • the proximity sensor detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state).
  • a proximity touch and a proximity touch pattern for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state.
  • Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.
  • the sound output module 352 may output audio data received from the wireless communication unit 310 or stored in the memory 360 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output module 352 may output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the mobile device 300.
  • the sound output module 352 may include a receiver, a speaker, a buzzer, and the like.
  • the alarm unit 353 outputs a signal for notifying occurrence of an event of the mobile device 300. Examples of events occurring in the mobile device include call signal reception, message reception, key signal input, and touch input.
  • the alarm unit 353 may output a signal for notifying the occurrence of an event by vibration, in addition to a video signal or an audio signal.
  • the video signal or the audio signal may also be output through the display unit 351 or the audio output module 352, so that they 351 and 352 may be classified as part of the alarm unit 353.
  • the haptic module 354 generates various tactile effects that a user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 354.
  • the intensity and pattern of vibration generated by the haptic module 354 can be controlled. For example, different vibrations may be synthesized and output or may be sequentially output.
  • the haptic module 354 may be configured to provide a pin array that vertically moves with respect to the contact skin surface, a jetting force or suction force of air through the jetting or suction port, grazing to the skin surface, contact of the electrode, electrostatic force, and the like.
  • Various tactile effects can be generated, such as effects due to the effects of cold / warm reproduction using an element that can absorb heat or generate heat.
  • the haptic module 354 may not only deliver the haptic effect through direct contact, but also may implement the user to feel the haptic effect through muscle sensation such as a finger or an arm.
  • the haptic module 354 may be provided with two or more according to the configuration aspect of the mobile device 300.
  • the memory 360 may store a program for the operation of the controller 380 and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.).
  • the memory 360 may store data regarding vibration and sound of various patterns output when a touch input is input on the touch screen.
  • the memory 360 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, It may include a storage medium of at least one type of magnetic disk, optical disk.
  • the mobile device 300 may operate in association with web storage that performs a storage function of the memory 360 on the Internet.
  • the interface unit 370 serves as a path to all external devices connected to the mobile device 300.
  • the interface unit 370 receives data from an external device, receives power, transfers the power to each component inside the mobile device 300, or transmits data within the mobile device 300 to the external device.
  • wired / wireless headset port, external charger port, wired / wireless data port, memory card port, port for connecting a device with an identification module, audio input / output (I / O) port, The video I / O port, the earphone port, and the like may be included in the interface unit 370.
  • the identification module is a chip that stores various types of information for authenticating the usage rights of the mobile device 300, and includes a user identification module (UIM), a subscriber identification module (SIM), and a universal user authentication module (UI). Universal Subscriber Identity Module (USIM), and the like.
  • a device equipped with an identification module (hereinafter referred to as an “identification device”) may be manufactured in the form of a smart card. Thus, the identification device can be connected with the terminal via a port.
  • the interface unit 370 may be a path through which power from the cradle is supplied to the mobile device 300 or may be input by the user from the cradle. It may be a passage through which a command signal is transmitted to the mobile device. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile device is correctly mounted in the cradle.
  • the controller 380 typically controls the overall operation of the mobile device 300.
  • the controller 380 performs, for example, related control and processing for voice call, data communication, video call, and the like.
  • the controller 380 may include a multimedia module 381 for multimedia playback.
  • the multimedia module 381 may be implemented in the controller 380 or may be implemented separately from the controller 380.
  • the controller 380 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on a touch-screen as a character and an image, respectively.
  • the power supply unit 390 receives an external power source and an internal power source under the control of the controller 380 to supply power for operation of each component.
  • Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.
  • the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of a processor, a controller, micro-controllers, microprocessors, and other electrical units for performing other functions. Examples may be implemented by the controller 380 itself.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • embodiments such as the procedures and functions described herein may be implemented as separate software modules.
  • Each of the software modules may perform one or more functions and operations described herein.
  • Software code may be implemented in software applications written in a suitable programming language.
  • the software code may be stored in the memory 360 and executed by the controller 380.
  • the mobile terminal can be extended to a wearable device that can be worn on the body beyond the user mainly holding in the hand.
  • wearable devices include a smart watch, a smart glass, a head mounted display (HMD), and the like.
  • HMD head mounted display
  • the wearable device may be configured to exchange (or interlock) data with another mobile terminal 300.
  • the short range communication module 314 may detect (or recognize) a wearable device that can communicate around the mobile terminal 300. Further, when the detected wearable device is a device that is authenticated to communicate with the mobile terminal 300, the controller 380 transmits at least a part of data processed by the mobile terminal 300 to the wearable device through the short range communication module 314. Can be sent to. Accordingly, the user may use data processed by the mobile terminal 300 through the wearable device. For example, when a call is received by the mobile terminal 300, a phone call may be performed through the wearable device, or when the message is received by the mobile terminal 300, the received message may be confirmed through the wearable device. .
  • the digital device described herein may be operated by a webOS platform.
  • a webOS-based configuration or algorithm or the like may be performed by the controller of the above-described digital device.
  • the control unit includes the above-described control unit and uses the concept broadly. Therefore, hereinafter, the configuration for the processing of WebOS-based or related services, applications, content, etc. in the digital device, the hardware or components including the related software (software), firmware (firmware), etc. to the controller (controller) Can be explained by naming.
  • the webOS based platform is designed to enhance development independence and function scalability by integrating services and applications based on the Luna-service bus, for example, and to develop applications based on the web application framework. Productivity can also be increased. In addition, multi-tasking may be supported by efficiently utilizing system resources through webOS processes and resource management.
  • the webOS platform described in the present specification may be used in mobile devices such as mobile phones, smart phones, tablet pcs, notebooks, and wearable devices, as well as fixed devices such as PCs, TVs, and STBs. .
  • the architecture of software for digital devices is a monolithic structure that is based on conventional problem solving and market-dependent monolithic structures, and is a single process and closed product based on multi-threading technology. Afterwards, there was a difficulty in external application, and after that, we aimed for new platform-based development, and then layered and componentized by pursuing cost innovation and efficient UI and external application development through chip-set replacement. ), Which had a three-layered structure, add-on, single source product, and add-on structure for open applications.
  • the software architecture has been further developed to provide a modular architecture of functional units, to provide a Web Open API (Application Programming Interface) for the eco-system, and to provide a game engine. Modular design for the native open API (Native Open API), etc. is being made, and accordingly, it is generated as a multi-process structure based on the service structure.
  • FIG. 4 is a diagram illustrating a webOS architecture according to an embodiment of the present invention.
  • the platform may be largely classified into a kernel, a system library based web OS core platform, an application, a service, and the like.
  • the architecture of the WebOS platform is a layered structure, with the OS at the bottom layer, system library (s) at the next layer, and applications at the top.
  • the lowest layer may include a Linux kernel as an OS layer and include Linux as an OS of the digital device.
  • BSP Board Support Package
  • HAL Hardware Abstraction Layer
  • Web OS core modules layer Web OS core modules layer
  • Service layer Service layer
  • Luna-Service bus layer In the bus layer, the Enyo framework / NDK / QT layer, and the top layer
  • the application layer is sequentially present.
  • some layers of the above-described webOS layer structure may be omitted, and a plurality of layers may be one layer or conversely, one layer may have a plurality of layer structures.
  • the webOS core module layer is based on a Luna Surface Manager (LSM) that manages surface windows, etc., a System & Application Manager (SAM), a WebKit (WebKit) that manages execution and execution states of applications, etc. It may include a WAM (Web Application Manager) for managing a web application.
  • LSM Luna Surface Manager
  • SAM System & Application Manager
  • WebKit WebKit
  • WAM Web Application Manager
  • the LSM manages an application window displayed on the screen.
  • the LSM manages the display hardware, provides a buffer for rendering the contents required by the applications, and synthesizes the rendering results of the plurality of applications on the screen. You can print
  • the SAM manages performance policies for various conditions of systems and applications.
  • WAM is based on the Enyo Framework, which can be viewed as a web application as a basic application.
  • the service use of the application is made through the Luna-service bus, and the service can be newly registered on the bus, and the application can find and use the service that it needs.
  • the service layer may include services of various service levels, such as a TV service and a WebOS service.
  • the webOS service may include a media server, Node.JS, and the like.
  • the Node.JS service supports, for example, JavaScript.
  • WebOS services can communicate over the bus to Linux processes that implement function logic. It can be divided into four parts, which are migrated from the TV process and the existing TV to webOS or services that are differentiated from manufacturers, webOS common service and JavaScript developed and used through Node.js. It consists of a Node.js service.
  • the application layer may include all applications that can be supported in a digital device, such as a TV application, a showcase application, a native application, and a web application.
  • the application on the web OS may be classified into a web application, a Palm Development Kit (PDK) application, a Qt Meta Language or Qt Modeling Language (QML) application, and the like according to an implementation method.
  • the web application is based on the WebKit engine and runs on the WAM Runtime.
  • Such web applications may be based on the Enyo framework, or may be developed and executed based on general HTML5, Cascading Style Sheets (CSS), or JavaScript.
  • the PDK application includes a third-party or native application developed in C / C ++ based on a PDK provided for an external developer.
  • the PDK refers to a development library and a set of tools provided to enable a third party such as a game to develop a native application (C / C ++).
  • a PDK application can be used for the development of applications whose performance is important.
  • the QML application is a Qt-based native application, and includes a basic application provided with a web OS platform such as a card view, a home dashboard, a virtual keyboard, and the like.
  • QML is a mark-up language in script form instead of C ++.
  • the native application refers to an application that is developed in C / C ++, compiled, and executed in a binary form. Such a native application has an advantage in that its execution speed is fast.
  • FIG. 5 is a diagram illustrating an architecture of a webOS device according to an embodiment of the present invention.
  • FIG. 5 is a block diagram based on the runtime of a WebOS device, which can be understood with reference to the layered structure of FIG. 4.
  • FIGS. 4 and 5 services and applications and WebOS core modules are included on a system OS (Linux) and system libraries, and communication therebetween may be via a luna-service bus.
  • system OS Linux
  • system libraries system libraries
  • communication therebetween may be via a luna-service bus.
  • Node.js services based on HTML5, CSS, JavaScript, e-mail, contacts, calendar, logging, backup, file notifier WebOS services such as notify, database (DB), activity manager, system policy, audio daemon (AudioD), update, media server, etc.
  • TV services such as Electronic Program Guide (PVR), Personal Video Recorder (PVR), data broadcasting, etc., voice recognition, Now on, Notification, search CP services such as ACR (Auto Content Recognition), CBOX (Contents List Broswer), wfdd, DMR, Remote Application, Download, SDPIF (Sony Philips Digital Interface Format), PDK applications, browser , Native applications such as QML applications And the enyo framework based on the TV UI-related applications and web applications, Luna - made the process via the Web OS core modules, such as the aforementioned SAM, WAM, LSM via the service bus. Meanwhile, in the above, TV applications and web applications may not necessarily be Enyo framework based or UI related.
  • CBOX can manage the list and metadata of the content of external devices such as USB, DLNA, cloud, etc. connected to the TV. Meanwhile, the CBOX may output content listings of various content containers such as USB, DMS, DVR, cloud, etc. in an integrated view. In addition, the CBOX can display various types of content listings such as pictures, music, and videos, and manage its metadata. In addition, the CBOX may output the contents of the attached storage in real-time. For example, when a storage device such as USB is plugged in, the CBOX should be able to immediately output a content list of the storage device. In this case, a standardized method for processing the content listing may be defined. In addition, CBOX can accommodate a variety of connection protocols.
  • SAM is intended to improve module complexity and enhance scalability.
  • the existing System Manager processes multiple functions such as system UI, window management, web application runtime, and handling constraints on UX in one process, so that the complexity of implementation is large. Clear implementation interfaces reduce implementation complexity.
  • LSM supports the development and integration of system UX implementations, such as card views and launcher, independently, and makes it easy to respond to changes in product requirements.
  • LSM in the case of synthesizing a plurality of application screens such as an App on App (multiple window) to enable the multi-tasking to maximize the hardware resources (HW resources), multi-window (multi-window) and It can provide a window management mechanism (21: 9, etc.).
  • LSM supports the implementation of system UI based on QML and improves its development productivity.
  • QML UX is based on MVC, which makes it easy to compose views of layouts and UI components, and to easily develop code to handle user input.
  • the interface between QML and WebOS components is made through QML extension plug-in, and the graphic operation of the application may be based on the wayland protocol, luna-service call, and so on. have.
  • LSM stands for Luna Surface Manager and functions as an application window compositor. LSM allows you to synthesize independently developed applications, UI components, etc. on the screen. In this regard, when components such as a Recents application, a showcase application, a launcher application, and the like, each render their own content, the LSM defines a output area, an interworking method, and the like as a compositor. In other words, the compositor, LSM, handles graphics compositing, focus management, input events, and so on.
  • the LSM receives an event, focus, and the like from an input manager.
  • the input manager may include a remote controller, a HID such as a mouse & keyboard, a joystick, a game pad, an application remote, a pen touch, and the like.
  • LSM supports multiple window models, which can be executed simultaneously in all applications due to the system UI. Related, Launcher, Recents, Settings, Notification, System Keyboard, Volume UI, Search, Finger Gesture, Voice Recognition (STT (Speech to Text), TTS (Text to LSM can support Speech, Natural Language Processing (NLP), pattern gestures (camera, Mobile Radio Control Unit (MRCU)), Live menu, Auto Content Recognition (ACR), etc. .
  • NLP Natural Language Processing
  • MRCU Mobile Radio Control Unit
  • ACR Auto Content Recognition
  • FIG. 6 is a diagram illustrating a graphic composition flow in a webOS device according to one embodiment of the present invention.
  • the graphic composition process includes a web application manager 610 in charge of a UI process, a webkit 620 in charge of a web process, a LSM 630, and a graphic manager (GM). 640.
  • the generated graphic data is transferred to the LSM 630 if the graphic data is not a full-screen application.
  • the web application manager 610 receives an application generated in the web kit 620 for sharing a GPU (Graphic Processing Unit) memory for graphic management between the UI process and the web process, and as a full-screen as described above. If it is not the application passes to the LSM (630). In the case of the full-screen application, the LSM 630 may be bypassed, and in this case, the LSM 630 may be directly transferred to the graphic manager 640.
  • the LSM 630 transmits the received UI application to the Wayland Compositor via the Wayland surface, and processes the received UI application to the graphic manager.
  • the graphic data delivered from the LSM 630 is delivered to the graphic manager compositor via, for example, the LSM GM surface of the graphic manager 640.
  • the full-screen application is delivered directly to the graphic manager 640 without passing through the LSM 630, which is processed by the graphic manager compositor via the WAM GM surface.
  • the graphics manager handles all graphic data in the webOS device, including GM surfaces such as data broadcasting applications, caption applications, as well as data via the LSM GM surfaces and WAM GM surfaces described above. Receives all the graphic data that has passed through and processes it to be properly displayed on the screen.
  • the function of the GM compositor is the same as or similar to that of the compositor described above.
  • FIG. 7 is a diagram illustrating a media server according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating a configuration block diagram of a media server according to an embodiment of the present invention. Is a diagram illustrating a relationship between a media server and a TV service according to an embodiment of the present invention.
  • the media server supports the execution of various multimedia in the digital device and manages necessary resources.
  • the media server can efficiently use hardware resources required for media play.
  • the media server requires audio / video hardware resources in order to execute multimedia, and can efficiently utilize the resource usage status.
  • fixed devices with larger screens than mobile devices require more hardware resources to run multimedia and require faster encoding / decoding and graphics data delivery due to the large amount of data.
  • the media server may perform broadcasting, recording, and tuning tasks, simultaneously record a video, or simultaneously display a sender and a receiver screen during a video call. It should be able to handle
  • the media server has limited hardware resources such as encoders, decoders, tuners, and display engines on a chip-set basis, making it difficult to execute multiple tasks at the same time. Input is processed.
  • the media server can enhance the system stability, for example, by removing and restarting a playback pipeline in which an error occurred during media playback by pipeline and restarting the error. Even if it does not affect other media play.
  • a pipeline is a chain connecting the respective unit functions such as decoding, analysis, and output when a media play request is requested, and required unit functions may vary according to a media type.
  • Media servers can have extensibility, for example, adding new types of pipelines without affecting existing implementations.
  • the media server may accommodate a camera pipeline, a video conference pipeline, a third-party pipeline, and the like.
  • the media server can handle normal media playback and TV task execution as separate services because the interface of the TV service is different from the media playback case.
  • the media server supports operations such as' setchannel ',' channelup ',' channeldown ',' channeltuning 'and' recordstart 'in relation to TV service, and' play 'and' pause in relation to general media playback.
  • operations such as' and 'stop', different operations can be supported for both, and they can be treated as separate services.
  • the media server may control or integrate management of resource management functions.
  • the allocation and retrieval of hardware resources in the device are integrated in the media server.
  • the TV service process transmits the running task and resource allocation status to the media server.
  • the media server frees resources and executes pipelines as each media runs, allowing execution by priority (e.g., policy) upon request for media execution based on the resource status occupied by each pipeline. Recall resources of other pipelines.
  • priority e.g., policy
  • predefined execution priority and required resource information for a specific request are managed by a policy manager, and the resource manager may communicate with the policy manager to process resource allocation and retrieval.
  • the media server may hold an identifier (ID) for all operations related to playback. For example, the media server may direct and direct a particular pipeline based on the identifier. The media server may issue separate commands to the pipelines for more than one media playback.
  • the media server can be responsible for playback of HTML5 standard media.
  • the media server may follow the TV restructuring scope of the separate service processing of the TV pipeline.
  • the media server may be designed and implemented regardless of the TV restructuring scope. If the TV is not serviced separately, the media server may need to be re-executed when there is a problem with a specific task.
  • the media server is also referred to as uMS, or micro media server.
  • the media player is a media client, which is, for example, a web for HTML5 video tag, camera, TV, Skype, 2nd Screen, etc. It can mean a kit.
  • management of micro resources such as a resource manager, a policy manager, and the like is a core function.
  • the media server also controls the playback control role for the web standard media content.
  • the media server may also manage pipeline controller resources.
  • Such media servers support, for example, extensibility, reliability, efficient resource usage, and the like.
  • the uMS that is, the media server
  • the media server is a webOS device such as a TV game and resources such as cloud game, MVPD (pay service, etc.), camera preview, second screen, skype, and the like. It manages and controls the overall use and control of resource for proper processing within the system.
  • each resource uses, for example, a pipeline when the resource is used, and the media server can manage and control the creation, deletion, and use of the pipeline for resource management.
  • a pipeline is created when a media associated with a task starts a continuation of tasks such as parsing a request, a decoding stream, a video output, and the like. Can be.
  • watching, recording, channel tuning, and the like are each processed under control of resource usage through a pipeline generated according to the request. .
  • an application or service is connected to a media server 820 via a luna-service bus 810, and the media server 820 is connected to pipelines re-created via the luna-service bus 810.
  • An application or service may have various clients according to its characteristics and may exchange data with the media server 820 or pipeline through it.
  • the client includes, for example, a uMedia client (web kit) and a resource manager (RM) client (C / C ++) for connecting to the media server 820.
  • a uMedia client web kit
  • RM resource manager
  • the application including the uMedia client is connected to the media server 820 as described above. More specifically, the uMedia client corresponds to, for example, a video object to be described later, and the client uses the media server 820 for operation of the video by request.
  • the video operation relates to a video state
  • loading, unloading, play, playback, or reproduce, pause, stop, and the like are all states related to the video operation. May contain data. Each operation or state of such video can be handled through the creation of a separate pipeline. Accordingly, the uMedia client sends the state data related to the video operation to the pipeline manager 822 in the media server.
  • the pipeline manager 822 obtains information about a resource of the current device through data communication with the resource manager 824 and requests allocation of a resource corresponding to the state data of the uMedia client.
  • the pipeline manager 822 or the resource manager 824 controls resource allocation through data communication with the policy manager 826 when necessary in relation to the resource allocation. For example, when the resource manager 824 does not have enough or insufficient resources to allocate according to the request of the pipeline manager 822, appropriate resource allocation may be performed according to the request according to the priority comparison of the policy manager 826. Can be.
  • the pipeline manager 822 requests the media pipeline controller 828 to generate a pipeline for an operation according to the request of the uMedia client for the allocated resource according to the resource allocation of the resource manager 824. .
  • the media pipeline controller 828 generates the necessary pipeline under the control of the pipeline manager 822.
  • This generated pipeline as shown, not only a media pipeline, a camera pipeline, but also a pipeline related to play, pause, and pause may be generated.
  • the pipeline may include a pipeline for HTML5, web CP, smartshare playback, thumbnail extraction, NDK, cinema, multimedia and hypermedia information coding expert groups (MHEG), and the like.
  • the pipeline may include, for example, a service-based pipeline (own pipeline) and a URI-based pipeline (media pipeline).
  • an application or service including an RM client may not be directly connected to the media server 820. This is because an application or service may handle media directly. In other words, when an application or service directly processes media, it may not go through a media server. However, at this time, resource management is required for pipeline creation and its use. For this, the uMS connector functions. Meanwhile, when the uMS connector receives a resource management request for direct media processing of the application or service, the uMS connector communicates with the media server 820 including the resource manager 824. To this end, the media server 820 should also be provided with a uMS connector.
  • the application or service may respond to a request of the RM client by receiving resource management of the resource manager 824 through the uMS connector.
  • RM clients can handle services such as native CP, TV services, second screens, Flash players, YouTube Source Source Extensions (MSE), cloud games, and Skype.
  • MSE YouTube Source Source Extensions
  • the resource manager 824 may manage the resource through the data communication with the policy manager 826 appropriately when necessary for resource management.
  • the URI-based pipeline is made through the media server 820, rather than directly processing the media as described above.
  • a URI-based pipeline may include a player factory, a Gstreamer, a streaming plug-in, a digital rights management plug-in pipeline, and the like.
  • an interface method between an application and media services may be as follows.
  • the interface is a non-WebOS. In this case, you can call the Luna bus directly to interface.
  • Seamless change is handled by a separate module (e.g. TVWIN), which is the process of first displaying and seamlessly displaying the TV on the screen without webOS before or during the webOS boot. to be. It is used for the purpose of providing the basic functions of TV service for quick response to the user's power on request because the webOS boot time is slow.
  • the module also supports seamless change, factory mode, and the like, which provide fast boot and basic TV functions as part of the TV service process.
  • the module may be responsible for switching from the non-webOS mode to the webOS mode.
  • FIG. 9 a processing structure of the media server is shown.
  • the solid line box may indicate a process processing configuration
  • the dotted line box may indicate an internal processing module during the process.
  • the solid arrow may indicate an inter-process call, that is, a Luna service call
  • the dashed arrow may indicate a notification or data flow such as register / notify.
  • a service or web application or PDK application (hereinafter referred to as an "application") is connected to various service processing configurations via a luna-service bus, through which the application operates or is controlled.
  • the data processing path depends on the type of application. For example, when the application is image data related to a camera sensor, the application is transmitted to the camera processor 930 for processing.
  • the camera processor 930 processes image data of the received application, including a gesture, a face detection module, and the like.
  • the camera processor 930 may generate a pipeline through the media server processor 910 and process the corresponding data, for example, when the data is required to be selected by a user or to automatically use a pipeline.
  • the audio may be processed through the audio processor 940 and the audio module 950.
  • the audio processor 940 processes audio data received from an application and transmits the audio data to the audio module 950.
  • the audio processor 940 may include an audio policy manager to determine the processing of the audio data.
  • the audio data thus processed is processed by the audio module 960.
  • the application may notify data related to audio data processing to the audio module 960, which may also notify the audio module 960 in a related pipeline.
  • the audio module 950 includes an advanced Linux sound architecture (ALSA).
  • the corresponding content data is transmitted to the DRM service processor 1160, and the DRM service processor 1170 generates a DRM instance.
  • the DRM service processor 960 may connect and process the DRM pipeline in the media pipeline through the Luna-service bus to process the content data on which the DRM is applied.
  • the following describes processing when the application is media data or TV service data (e.g., broadcast data).
  • TV service data e.g., broadcast data
  • FIG. 9 illustrates only the media server processing unit and the TV service processing unit in FIG. 8 described above in more detail.
  • FIG. 8 demonstrates with reference to FIGS. 8 and 9.
  • the TV service processor 820 includes at least one of, for example, a DVR / channel manager, a broadcasting module, a TV pipeline manager, a TV resource manager, a data broadcasting module, an audio setting module, a path manager, and the like.
  • the TV service processor 920 may include a TV broadcast handler, a TV broadcast interface, a service processor, a TV middleware, a path manager, and a BSP.
  • the service processor may mean, for example, a module including a TV pipeline manager, a TV resource manager, a TV policy manager, a USM connector, and the like.
  • the TV service processing unit may have a configuration as shown in FIG. 8 or 9 or a combination thereof, and some configurations may be omitted or some components not shown may be added.
  • the TV service processing unit 820/920 transmits the DVR (Digital Video Recorder) or channel related data to the DVR / channel manager based on the property or type of the TV service data received from the application, and then the TV pipeline manager. To create and process the TV pipeline. Meanwhile, when the attribute or type of the TV service data is broadcast content data, the TV service processor 820 generates and processes a TV pipeline through a TV pipeline manager to process the corresponding data through a broadcast module.
  • DVR Digital Video Recorder
  • a json (Javascript standard object notation) file or a file written in c is processed by the TV broadcast handler and transmitted to the TV pipeline manager through the TV broadcast interface to generate and process a TV pipeline.
  • the TV broadcast interface unit may transmit data or files that have passed through the TV broadcast handler to the TV pipeline manager based on the TV service policy and refer to them when generating the pipeline.
  • the TV broadcast interface may also perform a controller function of the TV service processor 920.
  • the TV broadcast interface requests the pipeline creation to the TV pipeline manager, which creates the TV pipeline and requests resources to the TV resource manager.
  • the TV resource manager makes a resource request to the media server through the UMS connector and acquires it, and returns it to the TV pipeline manager.
  • the TV pipeline manager arranges the returned resources in the generated TV pipeline and registers pipeline information in the path manager.
  • the TV pipeline manager then returns the results to the TV pipeline manager, which returns the pipeline to the TV broadcast interface.
  • the TV broadcast interface communicates with the TV middleware (MW) to request a channel change and the like, and returns the result from the TV middleware.
  • MW TV middleware
  • the TV service may be processed.
  • the TV pipeline manager may be controlled by the TV resource manager in generating one or more pipelines in response to a TV pipeline generation request from a processing module or manager in a TV service.
  • the TV resource manager may be controlled by the TV policy manager to request the status and allocation of resources allocated for the TV service according to the TV pipeline creation request of the TV pipeline manager, and the media server processor 810. / 910) and uMS connector to communicate data.
  • the resource manager in the media server processor 810/910 transmits the status of the current resource for the TV service and whether or not it is allocated according to the request of the TV resource manager. For example, as a result of checking the resource manager in the media server processor 810/910, if all resources for the TV service are already allocated, the TV resource manager may notify that all resources are currently allocated.
  • the resource manager in the media server processing unit removes a predetermined TV pipeline according to a priority or a predetermined criterion among the TV pipelines pre-allocated for the TV service along with the notification and generates a TV pipeline for the requested TV service. May be requested or assigned.
  • the TV resource manager may appropriately remove, add, or establish a TV pipeline in accordance with the status report of the resource manager in the media server processor 810/910.
  • the BSP for example, supports compatibility with existing digital devices.
  • the TV pipelines thus generated may be properly operated under the control of the path manager during the processing.
  • the path manager may determine or control the processing path or process of the pipelines in consideration of not only the TV pipeline but also the operation of the pipeline generated by the media server processor 810/910.
  • the media server processor 810/910 processes the data.
  • the media server processor 810/910 includes a resource manager, a policy manager, a media pipeline manager, a media pipeline controller, and the like.
  • a pipeline generated under the control of the media pipeline manager and the media pipeline controller can be variously created such as a camera preview pipeline, a cloud game pipeline, and a media pipeline.
  • the media pipeline may include a streaming protocol, an auto / static gstreamer, a DRM, and the like, which may be determined according to a path manager's control.
  • the detailed processing procedure in the media server processing unit 810/910 uses the description of FIG. 10 described above, and will not be repeated herein.
  • the resource manager in the media server processor 810/910 may manage resources on a counter base, for example.
  • Media Server is a media framework that allows third-party multimedia pipeline (s) to interface with the WebOS platform.
  • the media server may control, manage, isolate, deconflict, and the like, such that the third-party multimedia pipeline (s) are compliant.
  • These media servers provide a generalized API for applications to play media and can be viewed as platform modules that consistently manage hardware resources and policies.
  • the design of the media server is to reduce the complexity through generalization of media processing and separation of related modules.
  • the key to such a media server is to provide integration of, for example, the service interface with the WebOS UI.
  • the media server controls the resource manager, policy manager, pipeline manager, and provides API access according to resource manager queries.
  • the uMS Connector is the main API and SDK to interface client media pipeline processes with the media server.
  • Ums connectors are events and messages about the interface.
  • the client media pipelines implement client media pipeline state events for enabling load, play, pose, seek, stop, unload, release resource (release_resource), aquire resource (acquire_resource), and the like. .
  • uMedia API provides C and C ++ API to media server.
  • the media resource manager provides a method of describing the use of media hardware resources and pipeline client resources in a simple configuration file.
  • the Media Resource Manager provides all the performance and information needed to implement default or third-party media policy management.
  • the media policy manager works when the resource manager rejects the media pipeline because of a resource conflict.
  • the policy manager can provide a consistent API and SDK to enable third-party policy manager implementations.
  • the policy manager supports media pipelines that match Least Recently Used (LRU), and may be used for one or more conflicted resources.
  • LRU Least Recently Used
  • the pipeline manager tracks and maintains client media pipelines.
  • the pipeline controller provides a consistent API for the pipeline manager to control and manage client media pipelines.
  • the media server communicates with the resource manager via a library call, which can communicate via the TV services, media pipeline and Luna service bus.
  • the media resource manager can configure the entire configurable configuration file for disking the media hardware and media client pipelines, detect the resource conflict, and collect all the information needed to implement media policy management. .
  • the media policy manager reads the policy_select and policy_action fields in the resource configuration file, the resource contention attempts to select the active pipeline described by the policy_select field, and issues with outgoing / selected pipelines based on the policy_action field. Issue.
  • the selection function can be a parameter supported by the pipeline configuration setting entry. Policy actions are unload and release. All pipelines support the unload command to release all allocated resources. Pipelines can additionally support the release command to release specific resources. In the above, the release command is for fast switch pipelines competing with common resources, and the unload command of all resources may not be required for the incoming pipeline and deconflict.
  • the pipeline manager manages pipeline controllers.
  • the pipeline manager maintains a running queue of pipeline controllers and provides unique indexing for incoming messages from application (s) via a media server.
  • the pipeline controller maintains a relationship of related media client pipeline processes.
  • the pipeline controller maintains all relevant states and provides the media manager pipeline control interface to the pipeline manager.
  • the pipeline client process is a separate process that uses the uMS connector to provide a control interface to a media server or the like.
  • Pipeline (client) media technologies can be individually and completely decoupled from media server management and services.
  • image data for example, video as well as still image data (picture or photograph), thumbnail image (thumbnail image), capture image (capture image), as well as video It may be used to include moving picture data such as video.
  • the menu is an application that is output through the entire area or the main area of the screen through a web launcher or a web launcher (hereinafter referred to as a 'menu launcher') in a digital device equipped with a web OS. Overlaid on the execution screen.
  • the menu includes a first part containing history data about previously viewed or executed applications, and a second part listing one or more applications available or executable on the digital device. It is configured by.
  • the second part may not only provide the application list but also provide a content list related to an application currently provided through the main area.
  • the second part may provide at least one of the first mode and the second mode.
  • the first mode of the second part provides an application list
  • the second mode of the second part provides a content list. Whether to provide the first mode or the second mode to the second part when providing the menu launcher may be determined according to a setting or an application being provided to the main area.
  • the determination may be determined and provided according to various criteria, such as an application attribute of the main area, according to the user.
  • the first part may be referred to as a recess part and the second part may be referred to as a list part.
  • the accent part and the list part may each include at least one menu item.
  • the menu item may be a unit for identifying, identifying, and accessing content, applications, data, and the like in each part.
  • each menu item may be provided through a window.
  • a menu, a recess part, a list part, a menu item, and the like are respectively illustrated and described in a rectangular or trapezoidal shape, but are not necessarily limited thereto.
  • FIG. 10 is a diagram illustrating a screen of a digital device that an application is outputting.
  • the digital device 1000 When the application execution request signal is received, the digital device 1000 provides an execution screen of the application for which execution is requested through the entire screen or the main area of the screen.
  • the application includes all applications of the digital device on which the web OS is mounted, and the digital device on which the web OS is mounted is also called a web application.
  • the application may include various applications such as a TV (broadcast) application for a broadcast service such as a broadcast program, an application for external input, and an application for image data.
  • FIG. 10 illustrates an embodiment in which broadcast content of a specific channel is provided through execution of a TV application.
  • the application may be executed through data previously stored in a storage medium such as a memory of the digital device 1000 or application data downloaded or streamed from various external servers such as a broadcasting station.
  • a storage medium such as a memory of the digital device 1000 or application data downloaded or streamed from various external servers such as a broadcasting station.
  • the application and the application data may be used interchangeably, and in that case, the meaning may be determined through the context in the sentence or paragraph.
  • the digital device receives application data using a preload function manually or automatically, so that the application can be quickly accessed or switched / interchanged. interchanging).
  • the application execution screen of FIG. 10 is provided according to a user's request through an input means such as a remote controller or a mobile device connected or paired with the digital device 1000.
  • the digital device 1000 may provide the application execution screen according to a predetermined key button signal provided on the front panel of the digital device even without using the above input means.
  • the digital device 1000 may provide various functions, menus, etc. as well as an application execution screen as shown in FIG. 10 based on various input signals such as voice commands and gesture commands, even through the input means or not. .
  • an input means will be used as a signal to a digital device such as a key button, a voice command, a gesture, a face recognition, a fingerprint recognition, a fingerprint command, a control command, as well as a case where the remote control or a mobile device is used.
  • B has the meaning including at least one of all means for command input.
  • the application may be processed through the component (s) of the digital device shown in FIGS.
  • a broadcast program and / or an IP packet (s) or broadcast signal including signaling data for the broadcast program are received, and a demodulator, a demultiplexer, an SI decoder, and an audio / video are received. It is finally output on the screen via a decoder or the like.
  • a decoder or the like For the above process, refer to the aforementioned contents of FIGS. 2 to 3, and a detailed description thereof will be omitted.
  • FIG. 11 is a diagram illustrating a method of providing a menu in a digital device according to one embodiment of the present invention.
  • the digital device When the digital device receives a signal for requesting a menu through an input means while using an application as shown in FIG. 10, the digital device outputs a menu on the current screen according to the received signal. This can be provided by accessing or selecting an icon or a function button provided through the screen even though the menu output is not necessarily a menu key signal of the input means.
  • Conventional digital devices may be inconvenient to use a user's content by covering or overlapping a large portion or a main portion of an application execution screen that is being used even if the screen is not switched or switched entirely to output a menu. there was.
  • the digital device equipped with the webOS platform according to the present invention provides the requested menu through the menu launcher as shown in Figs. 11A to 11C.
  • the provided menu is provided in a region or area on the application execution screen being provided through the full screen as shown in FIG. 11A.
  • one portion of the lower portion of the screen is an example, but is not limited thereto.
  • a size hereinafter referred to as a size for convenience
  • a shape such as the height or width of the menu launcher may be arbitrarily adjusted according to a user's setting or an attribute of an application.
  • the menu launcher when referring to the property of the application being used, when certain data is output at the bottom of the screen such as data broadcasting, the menu launcher may be output to an area different from that shown in FIG. 11A. On the contrary, the menu launcher may be output as shown, but the constant data may be output to another area not overlapping with the menu output area. This is also applicable after the menu is printed.
  • the menu may be output to one of a partial area of the center of the display screen or one of the display screen edge areas.
  • the menu may be provided by separating the two parts into different areas instead of one area.
  • the first part may be provided in one area at the bottom of the screen
  • the second part may be provided in one of the non-overlapping edge areas of the screen edge areas.
  • FIG. 11A may be provided at the bottom of the screen as shown
  • FIG. 11B may be simultaneously provided in the left edge region of the screen and FIG. 11C in the right edge region of the screen.
  • a function or related data related to the selected menu item may be output to at least one edge area of the edge areas.
  • screen obstruction may be minimized as compared with a conventional digital device.
  • the menu may change size based on the position or movement of the pointer. For example, if the pointer is located on a menu, the user's intention is determined as a menu control or access and provided in the size of the original menu launcher. In this case, the size of the menu launcher may or may not be maximum. On the other hand, if the pointer is located in an area other than a menu (for example, an application output area that is being used), the user's intention is determined to be application control or access, so that the menu launcher being used is minimized or temporarily hidden. It can be convenient to use the application. In the case of temporarily hiding a menu launcher provided with a menu, the user may be able to identify that the menu launcher is already being output upon request.
  • a menu launcher including a menu according to a user's request, an attribute of an application being used, a location / movement of a pointer, etc. may be provided in various versions, or the size may be controlled.
  • such a menu launcher can be controlled as described above automatically or manually after the output.
  • FIG. 11A illustrates a digital device in which a menu launcher including a menu is provided according to a user's request while using the application 1110 through the main screen.
  • 11A may be, for example, an initial screen on which a menu launcher including a menu is provided on a screen according to a request of the user.
  • the menu provided through the menu launcher may be largely composed of two parts, and the first part 1120 outputs percentage data and the second part ( 1130 includes or outputs an application list or a content list.
  • One side of the first part 1120 is provided with an interface 1130 for accessing history data or additional history data associated with the first part 1120.
  • the historical data means data about an application provided on the screen before using an application currently provided through the screen. Therefore, when the user selects the interface 1140, the menu launcher may be switched or changed as shown in FIG. 11B.
  • an interface 1140-1 is provided at the rightmost side, and history data is arranged and provided at the left side of the interface 1140-1.
  • the digital device switches back to the screen of FIG. 11A. Accordingly, in accordance with access of the interface 1140-1, a menu launcher is provided as shown in FIG. 11B to FIG. 11A.
  • the history data may be arranged in a timeline basis from the interface 1140-1 to the left. That is, the closer to the interface 1140-1, the historical data may be data of a recently accessed application or vice versa. Meanwhile, the history data provided in FIG. 11B may only access history data for a predetermined time according to a user's request or setting. In addition, the history data provided in FIG. 11B according to the position or the movement of the pointer may be provided with history data of another time unit, that is, additional history data. In this case, the interface 1140-1 may be continuously provided at the corresponding position.
  • one side of the second part 1130 is provided with an interface 1150 for accessing an application list or an additional application list related to the second part 1130.
  • the digital device provides the menu launcher of FIG. 11C.
  • An interface 1150-1 is provided on the left side of FIG. 11C, and menu items corresponding to an application are arranged on the right side of the interface.
  • the aligned menu items may or may not include menu items corresponding to an application that is already output in FIG. 11A.
  • the application-corresponding menu items provided in the second part 1130 of the menu launcher of FIG. 11A may or may not be a basic menu item preset according to the setting of the digital device or the user.
  • the second part 1130 of FIG. 11A or the menu items provided in FIG. 11C may be arranged based on the user's application preference, such as the frequency of use of the application, the number of times of use, the time of use, or the like, or the attributes of the corresponding application. have.
  • the interfaces 1140, 1140-1, 1150, and 1150-1 may be implemented in other forms, as illustrated.
  • the first part 1120 and the second part 1130 constituting the menu launcher provided in FIGS. 11A through 11C may switch / interchange their output positions and regions.
  • each menu item in the corresponding part may also be moved to the corresponding part or another part.
  • the term “access or selection” means that a pointer or the like provided on the screen is positioned, hovered, clicked, dragged, or dropped on an area, part, etc. for a predetermined time. drop) or the like.
  • the selection may be made through separate key button (s) provided on the front panel of the remote controller or the digital device, or may be made through voice, gesture, and the like. It can also be done by each combination.
  • the remote controller is described as an example of a motion remote controller for convenience, but is not limited thereto, and may include other digital devices such as a smartphone.
  • each menu item may identify an application or content corresponding to the menu item or include or output one or more image data corresponding to the menu item.
  • Each menu item may be image data that automatically captures a screen when the application is in use or when a channel or a screen is switched. Therefore, when the user selects the first part 1120, the main screen may be used as the first application (the application being watched) on the main screen to the second application execution screen corresponding to the image data of the first part 1120. Is switched to.
  • Capture image data of the last screen of the first application or the representative thumbnail image data of the first application before the switching is provided on the first part 1120 in place of the second application image data.
  • the first application being provided on the main screen may be located in the background in a stopped or stopped state without being terminated.
  • the screen may not be switched to the whole, but may be played as it is at the corresponding position, and PIP (Picture in Picture), POP (Picture of Picture), PBP (Picture) by Picture).
  • the second part 1130 of the menu launcher is provided with an application list.
  • all application lists provided or available on the digital device through the second part 1130 may not be listed at a time due to the limitation of the device screen size. Therefore, the application list not listed through the second part 1130 of FIG. 11A is provided in the same manner as that of FIG. 11C through the fourth part 1130 as described above. Accordingly, the application list provided to the second part 1130 of FIG. 11A may be viewed as selected from applications available in the digital device. For example, the applications provided in the second part 1130 of FIG.
  • 11A include, among all the applications available on the device, i) a user's setting or request, ii) a user's recently used application, iii) a user's frequency of use, iv) an application related to the application being provided through the main screen, and v) selected and provided based on alphabets or Korean characters / vowels of the application title, or based on i) to v) at least two or more combinations. In the latter case, at least two or more of i) to v) may be selected as priority factors and selected based on factor values.
  • the application of the selected menu item is directly executed on the corresponding area or the main screen. It can be provided together with the application being used by providing a full replacement of the application of the or through screen division. This may be due to the nature of the selected application or may be implemented through providing a function or control icon around the selected application.
  • Image data of the first part 1120 may be changed according to the screen provision result.
  • the position or order of the applications listed on the second part 1120 of FIG. 11A or in FIG. 11C may be arbitrarily changed or controlled. The same applies to the history data of FIG. 11B. That is, the user may arbitrarily control the position or order of the timeline-based history data.
  • the menu item selected in each part may be differently provided in a manner different from that of the non-selected menu item or enlarged in size compared to the non-selected menu item.
  • the selected menu item may be slightly raised upward, the border is highlighted, or title data of an application corresponding to a separate corresponding menu item may be output below.
  • the differentiated content may be combined in at least two or more so that the selected menu item may be variously configured and differentiated from the menu item that is not.
  • a user may not only recognize the menu more intuitively but also access the desired application more easily and quickly than the conventional digital device. Can be.
  • the user may use various functions or sub-menu items of the digital device or the application with a minimum depth in addition to using the menu while minimizing screen obstruction or change of the application being used, thereby maximizing convenience of use.
  • an application can be quickly accessed, fast switching / interchange between contents can be performed, and operations such as multi-tasking can be easily and quickly performed.
  • FIG. 12 is a diagram illustrating a method of providing a menu in a digital device according to another embodiment of the present invention.
  • the digital device may provide a content / application based menu configured as shown in FIG. 12 through the menu launcher unlike FIG. 11.
  • one application is provided on the main screen 1210, and a menu launcher is overlaid on a predetermined area of the main screen 1210.
  • the menu described below may be divided into menus for a current mode, a past mode, and a future mode, and the menu launcher configuration for each mode may be different. Can be.
  • This menu mode division is, for example, to provide a more intuitive and easy menu using convenience as compared to FIG.
  • the past mode may relate to a menu configuration regarding historical data that has been used previously, and the future mode may include a menu configuration regarding recommended content / application to be used in the future.
  • the current mode means a basic menu provided when a menu is called, and may include a menu configuration other than the past mode and the future mode.
  • the current mode may be a menu configured by focusing on an application / content frequently used in a digital device.
  • the digital device in response to a user's menu request, may be set to provide a menu of a current mode as an initial menu through a menu launcher.
  • the past mode and the future mode may be accessible from the first provided current mode.
  • the digital device provides at least one of the current, past and future modes through the menu launcher through the user's setting or various related factors, especially when the user does not request a menu of a specific mode.
  • a menu launcher of the current mode is provided as a basic menu or a basic menu, and the past mode and the future mode will be described as an embodiment.
  • scenarios for mode switching, mode entry, and the like are not limited to those shown and described herein, but may be made in various ways.
  • FIGS. 12 to 21 show the menu launcher of the current mode menu
  • FIGS. 22 to 27 show the menu launcher of the past mode menu
  • FIGS. 28 to 35 show the menu launcher of the future mode menu, which will be described in detail with reference to the accompanying drawings. Explain.
  • the menu launcher includes a reward part 1220 and a list part 1230.
  • the menu launcher may further include an interface part 1250 for entering the future mode.
  • the menu launcher may include an interface for history data list or related functions or data access of the reward part 1220 and an additional application list or related functions or data access for the list part 1230.
  • the interface may further include.
  • the list part 1230 is configured as a second mode, that is, a content list for convenience.
  • the menu is provided by dividing the accent part 1220 and the list part 1230 on the basis of a reference indicator 1240.
  • the accent part 1220 corresponds to the first part of FIG. 11, that is, the accent part of FIG. 11, includes history data, and in the current mode, only the history data for an application used immediately before an application currently provided on the screen is included. You can print In this case, the reward part 1220 may provide at least one of various data such as image data, title data 1225, server data, and icon of the corresponding application as history data.
  • the image data may be, for example, any one of a representative thumbnail image of the corresponding application, image data captured immediately before switching / interchange to an application currently being provided, image data downloaded from a server or stored in a digital device.
  • image data or history data for the corresponding application it may be provided in the corresponding menu item in a slide show manner.
  • the digital device switches / interchanges and reproduces the application included in the receive part 1220, that is, the previously executed application, with the application provided through the main area.
  • the playback may start after the previous playback interrupted portion or may start playback from the beginning again.
  • a real-time application for example, a real-time application (ex.
  • the digital device may display a reproducing icon for playing the corresponding application. It may be provided or detailed information about the content.
  • the digital device does not affect the application running in the main area, instead of switching / interchanging and playing, as described above, even when the recess part 1220 is selected.
  • the application may be executed in the cent part 1220.
  • the digital device may further provide data such as a current play position, a play end time, or a time remaining until the play end by providing a play bar during the play.
  • the digital device when the digital device receives a signal for selecting title data or server data in the receive part 1220 through the pointer 1260, the digital device provides an application related to the title data or server data or a server related to the application.
  • Guide data for access can be provided on the screen or via a browser. In this case, the guide data or the browser may be overlaid and provided at the highest level on the screen.
  • the digital device may provide a menu icon in the form of a menu icon when providing additional or related data during the selection or access of the accent part 1220.
  • the present invention is not limited to the method of providing the icon form.
  • the convenience part 1220 provides only data for one application, this is merely an example and the present invention is not limited thereto.
  • the reference indicator 1240 serves as a reference, that is, a boundary between the accent part 1220 and the list part 1230.
  • the accent part 1220 outputs only one accent data so that the accent part 1220 is not scrolled to the left or right.
  • the list part data may be scrolled left / right according to the number.
  • the list part data is made based on the reference indicator 1240, and even though the scroll part, the receive part 1220 may be continuously provided at a corresponding position without being affected.
  • the reference indicator 1240 may perform a scroll function.
  • List part 1230 provides one or more menu items for the application, as described above.
  • the menu items are sorted, for example, for the list part of the current mode according to various criteria.
  • the various criteria may mean, for example, at least one of a setting of a user or a digital device, a recent execution order of an application, an execution time, an execution frequency, an execution frequency, an attribute, and the like.
  • Each menu item may include icon data 1232 for the corresponding application, as shown in FIG. 12.
  • each menu item may further include image data, title data, etc. for the application.
  • the image data may be, for example, representative thumbnail image data for the corresponding application.
  • various data provided on the menu item may be provided only when a signal for the corresponding menu item is received, or may be provided according to access of an adjacent menu item.
  • the list part although not clearly shown, provides a scroll bar to access additional application menu items based on the reference indicator 1240 without changing the screen configuration.
  • the digital device When the digital device receives a signal for selecting one menu item belonging to the list part, as shown in FIG. 13, the digital device first provides the selected menu item to be differentiated from the unselected menu item (s). In FIG. 13, the menu item rises slightly higher than the menu item that is not selected. In addition, the selected menu item, unlike the menu item (s) not selected, provides data for the application. In FIG. 13, server data (ex, Pooq) of the application and title data (ex, okay, love) of the application are provided. However, the digital device may further provide additional data or provide other data in addition to the data shown and described above. In the above, the server data means, for example, data about a server that provides or services corresponding application data.
  • the list part is still configured and provided in the second mode.
  • the list part may be configured and provided in the first mode in addition to the second mode of providing the application list or the content list related to the application or the content being provided in the main area.
  • the first mode includes a list of applications that can be provided or executable in the digital device regardless of the application or content being provided in the main area.
  • the first mode of the second part provides an application list or content list that is not related to an application or content currently running in the main area, while the second mode provides an associated application list or content list.
  • an interface 1420 for mode switching may be provided as shown in FIG. 14.
  • the digital device when the digital device receives the mode switching interface 1420 selection signal, the digital device switches the mode from the second mode of FIG. 14 to the first mode of FIG. 15.
  • each menu item of the application list 1510 provided in the first mode includes data for identifying the corresponding application, for example.
  • one or more menu items 1520 and 1530 of the application list 1510 provided in the first mode may correspond to or instead of the corresponding application identification data, as shown in FIG. 15. It may include image data for the application.
  • the image data may be image data captured at the end of the previous execution or representative thumbnail image data of the corresponding application, which may be received from a memory of the digital device, a server providing a corresponding application, or a web server.
  • the application list without the image data may be, for example, an application that has never been executed or recently executed.
  • FIG. 16A shows a menu configuration similar to, for example, FIG. 11A.
  • interfaces 1620 and 1630 are provided for accessing additional menu items on one side of each of the first and second parts. Meanwhile, here, the second part is provided in the second mode.
  • FIG. 16B provides an interface different from that of FIG. 16A.
  • FIG. 16B provides arrow-shaped interfaces 1640 and 1650 that function the same as the interface of FIG. 16A.
  • FIG. 16B illustrates that the interfaces 1640 and 1650 are provided in an area not overlapping with the menu launcher, the interface 1640 and 1650 may be provided in the position of FIG. 16A according to an embodiment.
  • FIG. 17 illustrates another embodiment of mode switching of the second part, for example. If FIG. 15 illustrates switching / interchanging from the second mode to the first mode, FIG. 17 is an example of switching from the first mode to the second mode.
  • the digital device provides an interface 1710 for mode switching.
  • the mode switching interface 1710 is accessed, the digital device changes the second part configuration from the existing mode (first mode) to another mode (second mode).
  • a menu includes a first part and a second part, and the second part provides a second mode, that is, an application list or a content list.
  • a second mode that is, an application list or a content list.
  • an application list or content list includes an application or content related to the application or content being provided in the main area.
  • the digital device may scroll the list in the second part from side to side. Accordingly, as shown in FIGS. 18B and 18C, when the user scrolls to the left, the menu item for the application may be scrolled based on the reference indicator 1810.
  • the scroll in FIG. 18 may be performed by, for example, a direction key button signal provided in an input means such as a front panel or a remote controller, or may be made according to the position or movement of the pointer.
  • the digital device may perform an operation for controlling the menu item. For example, when the pointer selects one menu item and is located at an edge of the selected menu item, the digital device may process the size of the corresponding menu item to be changed up and down or left and right. For example, when the pointer is located at the right corner of the selected menu item, as shown in FIG. 18A, an icon for resizing the left and right or the shape of the pointer may be changed and the size of the menu item may be changed according to the selection. have.
  • the digital device may further provide various data such as more detailed data, function icons, recommended content / applications, etc., on the menu item of the changed size as compared to the menu item of the original size. Or it is of course also possible to enlarge only the size of the menu item.
  • the digital device when the pointer 1420 is positioned on one menu item 1910 of the second part, the digital device does not execute an application of the menu item 1910 by switching / interchanging to the full screen. Plays in PIP form in the window as shown in 19b.
  • the digital device may provide a play bar 1930 in the menu item to control the position or play control of the currently executed part.
  • the digital device may provide various function icons for playback control together with the play bar 1930.
  • an application is played on a window that provides a selected menu item. If a user wants to switch / interchange to a full screen to enlarge and play the application, a switching / interchange icon ( 1940 may be further provided.
  • the digital device may play the application of the menu item as shown in FIG. 20B. For example, if it moves upward in FIG. 20A, the application is played as shown in FIG. 20B. Conversely, if the menu item is moved downward in FIG. 20A, playback of the application being played may be terminated.
  • the menu item may be directly moved to the next or previous song as the menu item moves upward or downward.
  • an application eg, an MP3 application
  • the menu item for the application may disappear from the list. Alternatively, it may be defined to remove only the playback file of the application.
  • playback-related icons 2122, 2124, and 2126 are moved around the menu item (eg, the corresponding menu item) as shown in FIG. 21B. The top of the item, etc.).
  • the playback related icons 2122, 2124, and 2126 may be recommended content / applications, function icons for controlling playback of the corresponding application, and preview images of the corresponding application.
  • the selected menu item may be moved to the left and right corners instead of the bottom corners. Moving left and right in this way, the digital device may place the corresponding menu item between other menu items.
  • the entry can be made in a variety of ways.
  • the past mode entry may be performed by accessing, for example, an accent part or an interface or part (eg, the first part 1120 or the third part 1140 in FIG. 11) for checking details of the accent part.
  • an accent part or an interface or part eg, the first part 1120 or the third part 1140 in FIG. 11
  • the UI data guiding the entry into the past mode may be provided.
  • a menu item or a menu icon for entering the past mode, the present mode, and the future mode may be provided and the past mode may be entered according to the selection. It may be.
  • historical modes that is, historical data
  • a used time sequence For example, it can be seen that the time used toward the left based on the right edge of the menu launcher is an old application / content.
  • the sorted applications are provided, for example, grouped by a date unit (eg, yesterday 2210). However, this may be arranged according to other criteria according to the number of applications to be provided in the past mode. For example, in FIG. 22A, even within a date (yesterday 2210) criterion, the data may be divided into time units, minutes, seconds, and the like, and provided to be distinguishable.
  • a date unit eg, yesterday 2210
  • the data may be divided into time units, minutes, seconds, and the like, and provided to be distinguishable.
  • the applications in addition to the time criteria such as date, day of the week, application / content properties, application / content quality, application / content providing channel, characters such as the main actor in the application / content, whether the application / content series, application / The content may be arranged and provided based on at least one of whether content usage is completed, application / content real-time data / streaming, application / content capacity, and the like. Meanwhile, the above-described criteria may be used for arranging applications in combination with at least two or more of each other.
  • FIG. 22B illustrates that when the application in use among the sorted applications is a real-time application, a time-limited application, or the like as shown in FIG. 22A, the use is terminated. If yes, it may be removed 2220 from the application list of the past mode. In this case, the digital device may provide guide data together to identify that the menu item is removed from the application list of the past mode due to the termination of the viewing.
  • the guide data is provided upon removal from the list.
  • the guide data may be provided in advance before the removal, that is, a predetermined time before the application / content of the corresponding menu item is used, to induce additional actions of the user. .
  • the guide data may be provided only when the past mode is performed.
  • providing guide data means that instant recording / reserved recording for convenience of use, since it is not easy to access again after the application / content of the menu item is removed from the list. This is to guide you to use functions such as time-shift and time-shift.
  • a VOD server or an Internet server may be connected to check whether or not recording of related data is performed, and the alarm data may be provided later.
  • the digital device when using the past mode, if any data has been updated, such as history data, that is, modifications or changes to the menu items, the device is provided on the menu item or a predetermined area of the screen. It can be provided so that it can be identified.
  • FIG. 23 is a diagram illustrating an embodiment of controlling a menu item in a past mode.
  • the menu items are provided in line with the viewing time.
  • the position of the menu item 2310 with respect to the previously viewed KBS2 professional baseball broadcast service application among the aligned menu items may be moved within the past mode.
  • the menu item 2310 may be positioned 2320 between the Halcyon Days application menu item and the Rain on Me application menu item arranged as viewed earlier.
  • the menu items included in the past mode associated with the menu item are arranged in a vicinity, or a function icon associated with the menu item is provided. May be provided.
  • 24 is a diagram illustrating an application processing method in a past mode.
  • the past mode is provided by arranging menu items for previously viewed applications. At this time, each menu item captures an image immediately before the end of viewing and provides it on the menu item.
  • the digital device When the menu item 2420 selection signal is received through the pointer 2410, the digital device slightly raises the menu item 2420 upwards to indicate that the selection has been made, and a play icon 2430 and a play bar ( 2440).
  • the digital device may play back the previous play portion on the main area or the corresponding menu item window.
  • 24B and 24C illustrate embodiments of providing a multi-view screen through, for example, accessing a menu item for a past mode.
  • the application of the menu item when the menu item is accessed, the application of the menu item is directly played in the window or the application of the menu item is played in full screen instead of the application running in the main area.
  • the application of the menu item is executed in a PIP window or a divided screen.
  • an application of the selected menu item is provided through the PIP window 2450.
  • the PIP windows 2450 and 2560 are provided at positions similar to those of FIG. 24B. Meanwhile, in FIG. 24C, not only the PIP window 2460 for executing the application of the selected menu item but also one or more PIP windows for executing an application related to an application executed through the PIP window 2460 ( 2470, 2480 is further provided.
  • FIG. 25 is a diagram for explaining an application processing method in a past mode.
  • FIG. 25A is different from FIG. 24 described above, after selecting a menu item corresponding to a previously used application through a pointer, and then moving to a main area where an already used application is provided through a full screen, as shown in FIG. 25B.
  • the application of the menu item is provided over the full screen.
  • the menu launcher of the past mode currently provided may be hidden or terminated.
  • FIG. 26 is a diagram illustrating a method of controlling a menu launcher in a past mode.
  • the menu launcher of the past mode is configured and provided, and the menu items are classified and provided by grouping the use time criteria 2610 and 2620, and each group is provided with guide data (ex, yesterday, one week). Etc.).
  • FIG. 26A may be provided by configuring only a TV service application, for example, in configuring a menu in a go-go mode.
  • the user requests past mode data for other applications such as games, web browsers, HDMI, etc. in addition to the TV service application, it may be provided as shown in FIG. 26B.
  • the digital device provides the menu item switching interface 2630, as in FIG. 26B, similar to the control method in the current mode.
  • the digital device When the menu item switching interface 2630 of FIG. 26B is accessed, the digital device reconfigures or switches the menu item for the past mode by excluding or including the menu items of the TV service application previously provided in FIG. 26A. .
  • FIG. 26B for convenience, an interface 2630 for controlling only a menu item between yesterday and a week ago is provided according to the location of the pointer.
  • FIG. 26B it can also be implemented to enable switching.
  • the menu configuration method described herein may be, for example, according to a user's setting or determined by the digital device. In the latter case, various criteria such as user data, usage pattern, time, date, day of the week, weather, etc. may be used or determined by appropriate combination of the above criteria.
  • 27 is a diagram for explaining the menu item control of the past mode as well.
  • the menu item may move up, down, left, and right after selection to perform a predetermined function.
  • FIG. 27A when a predetermined menu item 2710 is selected through a pointer and the selected menu item is dragged to move toward the bottom corner of the screen, as shown in FIG. 27B, data related to the selected menu item (see FIG. 27B) may be used. 2722,2724,2726.
  • the related data 2722, 2724, and 2726 may be a function icon for performing a predetermined function of an application of the menu item, an application related to the application, or a preview image (including a previous viewing portion) of the application. .
  • the selected menu item is for baseball broadcast content
  • the related data 2722, 2724, 2726 may be baseball broadcast content of another channel.
  • FIGS. 28 to 35 will be described in detail with reference to the accompanying drawings for menu configuration and control in the future mode.
  • FIG. 28 is a diagram to describe a method for entering a future mode menu, for example.
  • the future mode menu may enter through, for example, accessing the interface 2820 for future mode entry provided separately from the menu launcher via the pointer 2810, as shown in FIG. 28A, and FIG. It may be entered through the interface 2840 for entry into the future mode provided with the menu launcher of the current mode (including the past mode) provided according to the menu call, such as 28b.
  • the future mode entry interface 2820 of FIG. 28A may be provided without a current mode menu when a menu is called, for example, as shown in FIG. 28B, but may be provided directly on the screen in response to a key button signal of a remote controller even when the menu is not called. It may be.
  • FIG. 28A illustrates that the future mode entry interface 2820 is provided at the middle of the screen, the present invention is not limited thereto.
  • the future mode entry interface 2820 may be provided at various locations on the screen.
  • the shape of the future mode entry interface 2820 is not limited to the shape shown in FIG. 28A, and may be variously configured.
  • the digital device configures and provides a future mode menu as shown in FIG. 29.
  • Future mode refers to a menu configuration for recommendation for applications / content that the user has not yet used or is likely to use.
  • the future mode menu includes a search area 2910, a category area, and a recommended content area 2930 corresponding to a selected category.
  • the basic category 2920 is selected in the category area, and applications / contents belonging to the basic category are listed in the recommended content area 2930.
  • the basic category of FIG. 29 may list recommended applications / content selected according to all recommended contents or various criteria. Thus, in the former case, it may overlap with other categories of recommended applications / content.
  • the order of sorting in the basic category may be set according to the category order, the priority order, and the like.
  • the various criteria may include, for example, season, weather, time, identified user, recently used application / content attribute, type, etc., whether paid or not.
  • FIG. 29 lists the applications / content associated with selected and recommended winter or / and snow based on the current season (ex, winter) or weather (ex, snowy weather) in which future mode has been implemented. will be. In other words, in the embodiment of FIG. 29, the most popular and available applications / content are listed in the snowy winter.
  • one or more applications / content selected from the recommended applications / contents listed in FIGS. 29 to 35 are switched to the full screen according to the selection, and the PBP (Picture by It may be provided in the form of a picture (eg, a split screen), a picture in picture (PIP), a picture of picture (POP), or the like.
  • the PBP Picture by It may be provided in the form of a picture (eg, a split screen), a picture in picture (PIP), a picture of picture (POP), or the like.
  • FIG. 30 lists live category 3010 and FIG. 31 lists recommended applications / content according to TV show category 3110.
  • 30 and 31 are both categories related to TV service or TV service applications, for example.
  • FIG. 30 provides EPG / ESG data for broadcast contents to be broadcasted later based on the current time
  • FIG. 31 mainly provides VOD contents.
  • immediate recording / reserved recording may be performed immediately in a future mode.
  • a predetermined menu item is selected in FIG. 30, a full screen or a preview image may be provided in a window in which a current menu item is provided.
  • reservation viewing and the like If in the process of using the future mode, if the live broadcast time of the provided menu items, or by reservation viewing, etc. may be removed from the future mode or may be executed in the window as it is. In this case, after setting the reserved viewing and the like, if another category or menu is used, it may be played on the corresponding window through the full screen or after automatically executing the live category in the future mode.
  • guide data for convenience of use or identification can also be provided.
  • FIG. 31 may be a VOD recommendation list according to an embodiment.
  • the free VOD content and the paid VOD content may be separately provided.
  • the VOD content may be classified and listed by the server unit providing the VOD content, the type or the attribute of the VOD content.
  • the recommended application / content list belonging to the movie category may be, for example, a movie VOD or a list of movie contents stored in a digital device but not yet used.
  • the recommended application / content belonging to the movie category may be content to be provided by a movie dedicated channel among one or more channels belonging to the TV service.
  • menu items corresponding to the recommended application / content provided in the future mode may move their positions in any of up, down, left, and right directions.
  • the recommended application / content in the previously provided list may be rearranged or reconfigured according to the meaning.
  • the meaning of the movement is, for example, a priority increase in the digital device
  • the recommended application / content in the previously provided list may be rearranged or reconfigured according to the meaning.
  • categories the user may change the position of each category menu item arranged in the category area, such as moving or changing the recommended application / content list structure.
  • FIG. 33 provides a list of recommended applications / contents belonging to the music category 3310
  • FIG. 34 provides a list of recommended applications / contents belonging to the application category 3410
  • FIG. 35 is a recommendation belonging to the my content category 3510. Provide an application / content list.
  • 36 is a diagram illustrating an example of a digital service system according to one embodiment of the present invention.
  • the digital device 3610 and the second digital device 3640 communicate data with an external server (such as a cloud server) 3650 through menu communication data for configuring a menu according to the present invention.
  • the mobile device 3620 or the repeater 3630 may perform data communication with the external server 3650 described above.
  • the mobile device 3620, the repeater 3630 and the second digital device 3640, the data received through the data communication with the external server 3650 for the menu configuration of the digital device 3610, etc. I can deliver it.
  • the data to be delivered if necessary, may be processed and delivered in a format change or the like.
  • At least one of the mobile device 3620, the repeater 3630, and the second digital device 3640 may receive and output menu data provided by the digital device 3610. For example, if the digital device 3610 is currently outputting a current mode menu, at least one or more of the mobile device 3620 and the second digital device 3640 may receive and output the current mode menu. Receives and prints the menu of past mode or future mode. In addition, each of the mobile device 3620 and the second digital device 3640 may receive and output menu data of different modes from the digital device 3610.
  • FIG. 37 illustrates an example in which a menu requested by the digital device 3710 is transmitted to and output from the mobile device 3720 instead of the screen of the digital device 3710.
  • FIG. 38 may be an embodiment of a new type of menu launcher, that is, a menu launcher configuration in the form of a mobile device.
  • FIG. 38 may be a UI implemented to execute various menus, data, applications, etc. of the mobile device in the digital device according to execution of an application such as OSP of the mobile device.
  • 39 is a flowchart illustrating a menu data processing method in a digital device according to the present invention.
  • the digital device receives a broadcast signal including content and signaling data (S3902), decodes the received content and signaling data, and outputs it on a screen (S3904).
  • the digital device When the first user input signal for a menu call is received (S3906), the digital device composes a menu screen in a predetermined area of the screen on which the content is being output and outputs it in an overlay form (S3908).
  • the digital device After the second user input signal is received after outputting the menu together with the content (S3910), the digital device generates a GUI for switching the menu screen configuration / interchange according to the second user input signal.
  • Output (S3912)
  • the digital device switches / interchanges the configuration of the menu screen according to the third user input signal (S3916).
  • FIG. 40 is a diagram for explaining a sound control method in screen division in relation to multi-view mode data processing.
  • the screen is divided into two screens for convenience.
  • control method described below can be applied in the same or similar manner in the multi-view mode to be described later as well as the two split screens shown.
  • the screen of FIG. 40 includes a first split screen 4010 and a second split screen 4020.
  • the digital device turns on the sound of the first split screen 4010 and outputs it through a speaker, but turns off the sound of the second split screen 4020 and outputs it through a speaker.
  • a subtitle (caption or subtitle) may be provided to the corresponding area for the second split screen 4020 in which the sound is not output.
  • the above-described sound control method may be performed according to a user's setting or a basic setting of a digital device, for example, a sound priority output on a split screen on the left when splitting a screen.
  • a user's setting or a basic setting of a digital device for example, a sound priority output on a split screen on the left when splitting a screen.
  • the sound setting for any one or all divided screens based on the illuminance or noise of the surrounding environment.
  • Such control may be temporary or may be performed in units of content.
  • the user's propensity based on the personalized information or the attribute or type data of the content provided in each divided screen may be further referred to and used for the sound setting.
  • this sound control method can be suitably applied even in the multi-view described later.
  • the control method of the multi-view mode according to the present invention will be described in more detail.
  • the multi-view mode will be described assuming a current mode for convenience, but it is obvious that the multi-view mode can be controlled in the past mode and the future mode.
  • 41 and 42 are diagrams for explaining a multi-view mode entry method according to the present invention.
  • an application execution screen for one content is provided on a main screen, and a menu launcher of the current mode is overlaid on it.
  • the menu launcher of the current mode provides items for the plurality of applications.
  • the digital device enlarges and provides the item 4110 corresponding to the pointer position compared to other items.
  • the digital device may process as shown in FIG. 42.
  • FIG. 42A when the pointer device stays on the corresponding item 4110 for a predetermined time or more, an icon for entering a multi-view on the upper part of the item 4110 (hereinafter, multi) is shown.
  • View icon 4216 or playback bar 4214 For example, the provided play bar 4214 may be displayed and provided to be playable after the execution point immediately before the application of the item.
  • the play bar 4214 is illustrated in FIG. 42A, a play icon is provided on the item or around the multi-view icon 4216 in place of the play bar 4214, and according to the play icon selection.
  • a play bar 4214 may be provided.
  • playback control of the application of the item is possible through the play icon or the play bar.
  • the digital device may provide a corresponding application execution screen on the main screen. You can also play directly on Windows.
  • the user may enter the multi-view mode according to the playback command.
  • FIG. 42B illustrates that the multi-view icon 4202 provided in FIG. 42A can be selected through the pointer.
  • the digital device leaves only the corresponding item as shown in FIG. 42C. The remaining one or more items may be removed such that the menu launcher does not terminate or the menu launcher itself does not terminate and may immediately enter the multi-view mode to provide a multi-view window.
  • the multi-view mode may be simply executed by a multi-view key button, a gesture, a voice, or the like provided in an input means such as a remote controller.
  • the gesture or voice may be recognized or input through the corresponding digital device or through another digital device without necessarily using the input means.
  • 43 illustrates a multi-view mode providing screen and a multi-view control method after entering the multi-view mode.
  • 43 is a diagram illustrating a multi-view entry screen according to an embodiment of the present invention.
  • the multi-view window 4310 is provided in a PIP form on the lower left side of the main screen.
  • the location of the multi-view window 4310 may be changed depending on whether there is a menu launcher, whether there is subtitle data for an application being provided on the main screen, whether data broadcasting is provided, and the like.
  • the multi-view window 4310 may be fixed at a corresponding position but may be moved under the control of a user. Meanwhile, the multi-view window 4310 may be arbitrarily adjusted in size as shown in the drawing.
  • the shape of the multi-view window 4310 does not necessarily have to be a rectangle, and the user may arbitrarily change the setting.
  • the digital device may provide a template for convenience of selection.
  • the multi-view window may have a specific color or be highlighted in order to distinguish it from the application screen being provided on the main screen and also to identify the execution of the multi-view mode.
  • guide data may be separately provided to identify that the multi-view is executed in the form of text or icons on the main screen or around the window.
  • FIG. 43B illustrates an embodiment in which functional icon (s) are provided around the multi-view window, unlike FIG. 43A.
  • FIG. 43B may be a multi-view configuration when the first multi-view window is provided or may be a multi-view configuration provided according to a predetermined action of the user in FIG. 43A.
  • the digital device may display an indicator 4320 provided on one side of the multi-view window when there are additional applications related to the application to be provided on the multi-view window.
  • a delete icon for removing the multi-view window may be provided on the corresponding multi-view window. If a plurality of multi-view windows are being provided, a recycle bin icon may be provided, and the delete icon may be provided on each multi-view window according to the selection of the recycle bin icon, and a multi-view window is defined as the recycle bin icon. You can control the multi-view window by dragging and dropping.
  • the indicator 4320 may be provided in a variety of height, width, color, shape, etc. for the user's identification convenience.
  • the width of the indicator 4320 may be varied so that the number of additionally providing applications can be measured.
  • the number of sub-view-providing applications may be provided in the form of a number on or around the multi-view window or the indicator so as to be identified.
  • FIG. 44 is a diagram illustrating a multi-view window control method according to another embodiment of the present invention.
  • FIG. 44 is an embodiment of control of an application capable of providing a sub multi-view as in FIG. 43B described above.
  • the digital device When the pointer is positioned on the indicator 4410 provided on one side of the main multi-view window or selects the indicator 4410, as shown in FIG. 44A, the digital device corresponds to FIG. 44B in response to the access of the indicator 4410.
  • One or more sub multi-view windows 4420, 4430, and 4440 are unfolded and provided.
  • sub multi-view windows 4420, 4430, and 4440 may be the same application as the application provided by the main multi-view window or may be another application. Meanwhile, each of the sub multi-view windows 4420, 4430, and 4440 may be the same application or another application.
  • sub multi-view windows 4420, 4430, and 4440 may be provided with a size equal to or smaller than that of the main multi-view window.
  • the resolution of the sub multi-view windows 4420, 4430, and 4440 may be lower than that of the main multi-view window.
  • sub-multi-view windows 4420, 4430, and 4440 are described as providing applications related to the initial multi-view window, but are not necessarily limited thereto and may not be related to each other.
  • 45 is a diagram illustrating a detailed control method of a multi-view window according to one embodiment of the present invention.
  • the sub multi-view windows provide sports being provided by another channel.
  • each of the sub-multi-view windows may be assigned to another sub-multi-view window according to the position or access of the pointer 4510 and 4520. In comparison, the access is provided to be identified. In other words, the selected multi-view window is different in size compared to other multi-view windows or highlights, or as shown slightly up, to provide a discernible selection.
  • the corresponding application may not be played in all the multi-view windows according to the resource state.
  • the digital device provides a representative thumbnail image or captured image of the application of the corresponding multi-view window, and processes only the application corresponding to the selected multi-view window as shown in FIGS. 45A and 45B. can do.
  • playback of the main multi-view window may be paused in order to use resources for the main multi-view window.
  • 46 and 47 are diagrams for describing a detailed playback control method of a multi-view window according to one embodiment of the present invention.
  • the digital device may provide a delete icon 4630 as described above.
  • the main multi-view window may be removed and the multi-view mode may end.
  • the digital device may, in this case, include it in the list of rewards for the application provided through the removed multi-view window, and store the reproduction end time.
  • the digital device terminates playback of the application being provided in the main area 4610 and is being provided on the main multi-view window.
  • An application may be provided through the main area 4610.
  • the application provided in the main area 4610 and the application provided through the multi-view window are switched / inter as shown in FIG. 47. You can change it.
  • the multi-view mode can be automatically terminated.
  • the multi-view mode may be automatically terminated according to the drag & drop of the user regardless of whether the multi-view mode exists.
  • FIG. 48 is a diagram illustrating a method of exiting a multi-view mode according to the present invention.
  • the multi-view mode is automatically terminated.
  • FIG. 48B shows a state in which the corresponding multi-view window is removed, for example, when the delete icon of FIG. 48A is selected.
  • the multi-view window is removed and the multi-view mode is removed by the penguin 4830 coming out and disappearing with the multi-view window out of the screen, such as animation, to remove the window according to the deletion icon selection. Ends.
  • termination can also be made simply through input means such as a remote control or multi-view key buttons, gestures or voices provided on the front panel.
  • 49 to 58 are diagrams for explaining a sub multi-view operation control method according to the present invention.
  • FIGS. 49 to 52 disclose various embodiments of a method for controlling a sub multi-view operation through the aforementioned indicator.
  • FIG. 49 illustrates an embodiment in which an indicator 4920 is provided on the upper surface instead of the right side of the multi-view window 4910 unlike FIGS. 43B and 44.
  • the digital device When accessing the indicator 4920 provided on the upper surface of the multi-view window 4910 in FIG. 49, the digital device is one or more in the direction of the upper surface of the multi-view window 4910, as shown in FIG. 50. More sub-multi-view windows 5010 may be provided.
  • the sub multi-view windows 5020 may also be provided on the right side of the main multi-view window.
  • the sub-multi-view windows 5020 may be, for example, preview data for an application provided on the main multi-view window even if it is not accessed by a separate indicator 4920.
  • the preview data may be a still image or a moving image.
  • the sub multi-view windows 5020 may include 10 minutes, 20 minutes, It may be preview data for 30 minutes, 50 minutes and 60 minutes.
  • the application on the sub multi-view windows 5020 is described as data related to the application being provided on the main multi-view window, but is not necessarily limited thereto, and may be irrelevant application data.
  • the sub-multi-view windows 5010 provided on the upper part as the user accesses the indicator 4920 is insufficient due to screen size or the like. May be allocated to the right side of the non-overlapping main multi-view window and provided.
  • the first sub multi-view window 5010 is associated with or preview data of an application on the main multi-view window
  • the second sub multi-view window 5020 is associated with an application on the main multi-view window. It may be for an unrelated application. For example, suppose you are offering a seven-game first baseball game on a TV application on the main multi-view window. In this case, the first sub multi-view window 5010 may be data for one to six times of the first baseball game or may be a highlight image.
  • the second sub multi-view window 5020 may provide data not related to the second baseball game or other broadcast program of the corresponding channel between the teams different from the first baseball game.
  • a main multi-view window 5110 is overlaid on a main screen provided by a first application and provided in a predetermined region.
  • indicators for the sub multi-view window may be provided on each side of the main multi-view window 5110.
  • the first indicator 5120 provided on the right side and the second indicator 5130 provided on the upper side are illustrated for convenience.
  • the present invention is not limited thereto.
  • the digital device upon accessing the indicator provided on the main multi-view window 5110, the digital device provides sub-multi-view windows around the main multi-view window 5110 according to the accessed indicator. It was. In this case, however, in some cases, the main multi-view window 5110 may be obstructed as shown in FIG. 51 because it may impair the concentration of the application being provided on the main screen or the application on the main multi-view window or hide important data. It is also possible to provide sub-multi-view windows 5140 at the edge of the screen rather than around. The location or area in which the sub multi-view windows 5140 are provided is not necessarily limited to the right side of the screen illustrated in FIG.
  • the sub-multi-view windows 5140 are provided at the edges of the screen, not the periphery of the main multi-view window 5110 as described above. In this case, when three sub-multi-view windows are provided as shown in FIG. 51, each may be provided separately from each other at a different position.
  • the sub-multi-view windows 5210, 5220, 5230 are automatically optimized for the main multi-view window size by the indicator or when the main multi-view window is provided. It may be provided at the top.
  • the sub multi-view windows 5210, 5220, and 5230 are not fixed and may be accessed left and right according to a user's action, and may be replaced with windows for other time zones or other applications. You can also switch between windows and main screens.
  • the main multi-view window 5310 may be provided at the bottom of the center of the screen from the initial presentation. On the contrary, as shown in the previous embodiment, the main multi-view window 5310 may be provided at the bottom left of the screen. It may be the case that it is moved and provided.
  • the main multi-view window 5310 may be provided at the center of the bottom of the screen, unlike the above-described embodiments, if one or more sub-multi-view windows exist in the provision thereof. have.
  • the sub multi-view window (s) 5320, 5330, 5340, and 5350 are shown on the left side and / or the right side of the main multi-view window 5310 provided at the bottom center of the screen.
  • the sub multi-view windows 5320 and 5330 may represent a time point provided through the main multi-view window 5310, that is, data previously provided before the present.
  • the sub multi-view windows 5340 and 5350 may indicate a time point provided through the main multi-view window 5310, that is, data to be provided after the present.
  • a still image or a moving image may be provided through the sub multi-view windows 5320 and 5330.
  • the still image data may be provided in the sub multi-view window (such as a thumbnail image because it is future data.
  • 5340, 5350 may be provided.
  • the data to be provided through the sub multi-view windows 5340 and 5350 is application data already stored or downloaded to the digital device, it may be a video.
  • the sub multi-view windows 5320, 5330, 5340, and 5350 are not the same application as the application provided on the main multi-view window 5310, but are related to or not related to the application. It may be.
  • the second sub-multi-view window is automatically provided accordingly. to be.
  • the second sub-view windows 5320, 5330 which were not provided when the main multi-view window is provided, move the main multi-view window 5310 within the screen, one or more of them may be changed accordingly.
  • the second sub multi-view windows 5320 and 5330 are automatically provided.
  • the second sub multi-view windows 5320 and 5330 may be provided differently from the first sub multi-view windows 5340 and 5350, and may be moved or moved in the main multi-view window.
  • the number or position of the sub multi-view windows provided according to the distance moving area may vary.
  • the digital device may provide a multi-view mode at the user's request or automatically.
  • an indicator indicating that the multi-view mode can be provided or an indicator for entering the multi-view mode is provided in one region on the main screen, and the indicator is shown in FIG. 54 through the provided indicator.
  • FIG. 54 it is possible to provide sub-multi-view windows including application data for six times 5520, five 5430, four 5440, three 5450, etc., seven times prior to the current process. .
  • the main multi-view window 5410 is provided with the sub multi-view window 5520 for six times, which is currently just seven times, and the sub-views for five, four, and three times are sequentially around.
  • the multi-view windows 5430, 5440, and 5450 may be aligned and provided. However, this may be the opposite.
  • the application on the selected sub multi-view window may be played at the corresponding location or switched / interchanged with the application data on the main screen. .
  • the latter may switch / interchange with the application data of the main screen.
  • each of the multi-view windows may perform a group function, for example.
  • the application data being provided on the main screen 5510 is eight episodes of season 4
  • the remaining episodes of the application of the season are provided to the first multi-view window 5520
  • the remaining multi-view windows 5530 are provided.
  • 5540 and 5550 provide episodes of different seasons.
  • an indicator for accessing the episode of the season is provided on each multi-view window, and when the provided indicator is accessed, an episode list of the season is provided.
  • each of the multi-view windows may output data for identifying the corresponding season, image data, and data about the number of episodes belonging to the corresponding season.
  • the application data of the season can be automatically reproduced on the window or the main screen in sequence in episode order.
  • the episode list is automatically provided, and the episode may be automatically played on the window or the main screen according to the selection.
  • each multi-view window is configured in group units, and when a predetermined multi-view window 5610 is selected, episodes 5620 and 5630 belonging to the season are selected. It can be provided as shown in the form of a sub-window of.
  • each multi-view window provides previous episodes of the season and episodes of the season that can be provided later.
  • the first multi-view window is provided with an episode immediately before the episode of the application currently being provided on the main screen.
  • the first multi-view window may provide an indicator for access thereof.
  • the remaining multi-view window provides episodes that can be provided after the season episode of the application being provided on the main screen.
  • the function icons for the reserved recording / viewing reservations 5712/5714 are accessed according to the access of the corresponding multi-view window 5710.
  • 5710) may be provided in the vicinity to immediately perform a function or schedule a performance.
  • FIG. 58 is similar to the above-described embodiments, but other contents of the previous embodiments include an area on the main screen that is largely covered by providing a multi-view window when additional seasons or additional episodes exist. It may be inconvenient to watch. Thus, in FIG. 58, accessible seasons or episodes are provided in the form of icons in the periphery of the main multi-view window, thereby minimizing screen obscurity and making it easier to control function execution.
  • the sub multi-view window may also provide an indicator as an interface for providing additional sub multi-view windows, similar to the main multi-view window.
  • one or more second sub multi-view windows 5620 and 5630 provided in FIG. 56 may be provided according to an access of an indicator provided on the first sub multi-view window 5610. .
  • FIG. 59 is a flowchart illustrating a control method of a digital device supporting a multi-view mode according to an embodiment of the present invention.
  • a method of processing multi-view data in a digital device may be as follows.
  • the digital device receives content and signaling data for the content (S5902), decodes the content and signaling data (S5904), and outputs the decoded content to the screen (S5906).
  • the digital device receives a user input for requesting a menu launcher output (S5908), and outputs one or more menu items on the screen according to the menu launcher output request user input (S5910).
  • the digital device receives a user input for requesting output of the multi-view content (S5912), and overlays and outputs a window for outputting the multi-view content on a predetermined area on the screen where the content is output according to the first user input. (S5914).
  • the output window may include an interface for outputting one or more subwindows, and output the one or more subwindows together with the window to a screen area according to the selection of the interface.
  • the content output through the one or more sub-windows may be content associated with at least one of the content and the multi-view content output through the window.
  • the first user input may be a multi-view function icon selection signal provided around the selected menu item as one of one or more menu items belonging to the output menu launcher is selected.
  • the window for outputting the multi-view content may be output in an area not overlapping with the output menu launcher, and the one or more sub-windows may be output in a different size than the window.
  • the window may interact with content being provided on the screen according to drag and drop, and the one or more sub-windows may be output to a screen area adjacent to the window or an edge of the screen. .
  • one or more sub windows may be output in addition to the sub windows output according to the interface selection based on the changed position.
  • At least one of the output window and the sub-windows is configured in a group unit including content of the same category, and when the pointer is located in the corresponding window or sub-window, the content list in the group unit is displayed in a window form or icon.
  • various data that can be processed by the digital device may be provided. Such data may include only image, video, and audio. It can also support external input devices such as DVI / HDMI or gaming devices, or web browser formats.
  • the sub multi-view window may or may not be recommended or provided in the form of a web browser.
  • the sub multi-view window may be changed in full depending on the application on the switched / interchained main multi-view window.
  • a digital device may make accessing and using data, such as a function and content desired by a user, easier and faster than in the related art, and prevents viewing of content being displayed on a main screen, that is, content previously viewed.
  • Multi-view screens based on the webOS platform, with the main content or / and menu launcher being displayed, allowing for quick and easy access and use of the desired data with minimal depth or screen changes on the called menus
  • the digital device and the method for controlling the digital device according to the present invention are not limited to the configuration and method of the embodiments described as described above, but the embodiments are all or part of the embodiments so that various modifications can be made. May be optionally combined.
  • the operating method of the digital device of the present invention can be embodied as a processor-readable code on a processor-readable recording medium provided in the digital device.
  • the processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and are implemented in the form of a carrier wave such as transmission over the Internet. It includes being.
  • the processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
  • the present invention relates to digital devices, and is applicable to various types of digital devices, and thus there is industrial applicability.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A digital device and a digital device control method are disclosed, wherein the digital device according to one embodiment of the present invention comprises: a reception unit for receiving content and signaling data of the content; a user input reception unit for receiving a first user input for a menu call; a decoder for decoding the content and the signaling data; a control unit for controlling the decoded content such that the decoded content is output on a screen and controlling a menu screen such that the menu screen is output, in an overlay manner, in a predetermined region on the screen on which the content is outputted, according to the first user input; and an output unit for outputting the content and the menu screen, wherein the control unit controls the menu screen such that the menu screen is output, the menu screen including an application list or a content list including at least one piece of content related to the content being outputted onto the screen, controls a GUI such that the GUI, for switching a menu screen configuration of the outputted menu screen when a pointer in the menu screen is located or hovers at a predetermined region, is output, and controls the menu screen configuration such that the menu screen configuration is switched according to a user's selection from the outputted GUI.

Description

디지털 디바이스 및 디지털 디바이스 제어 방법Digital Devices and Digital Device Control Methods
본 발명은 디지털 디바이스에 관한 것으로, 더욱 상세하게는 컨텐트 중심의 메뉴(menu)를 구성하여 보다 직관적이고 빠른 컨텐트 접근을 통해 사용자의 이용 편의를 극대화하는 디지털 디바이스 및 그 방법에 관한 것이다.The present invention relates to a digital device, and more particularly, to a digital device and a method for maximizing user's convenience through a more intuitive and quick content access by constructing a content-oriented menu.
아날로그 시스템에서 디지털 시스템으로의 급격한 전환이 이루어지고 있다. 여기서, 상기 디지털 시스템은 종래 아날로그 시스템에 비하여 외부 잡음에 강해 데이터 손실이 작고 에러 정정에도 유리하며, 양방향 서비스도 제공할 수 있다.There is a rapid transition from analog to digital systems. In this case, the digital system is more resistant to external noise than conventional analog systems, and thus has low data loss, is advantageous in error correction, and can provide bidirectional services.
종래 디지털 TV는, 제조 당시 쌍(paired)으로 제공되는 리모컨(remote controller)과 같은 제어수단이나 상기 디지털 TV의 외부 프레임 또는 프론트 패널상에 구비된 키버튼들을 통하여 제어신호를 수신하여 그에 대응되는 동작을 수행하고 그 결과를 출력하였다. 예를 들어, 종래 디지털 TV는, 상기 제어수단이나 키버튼을 통해 메뉴(menu)가 요청되면, 제조 당시에 미리 결정된 포맷이나 내용 등이 포함된 메뉴 화면을 화면상에 제공하는 것이다. 다시 말해, 종래 디지털 TV는, 요청된 메뉴 화면으로 미리 설정된 내용만을 출력한다. 따라서, 사용자는 자신이원하는 기능(function)이나 컨텐트(content) 등을 디지털 TV를 통해 검색(search)하고 이용하기 위해서는 여러 뎁쓰(depth)를 거치거나 별도의 동작, 기능 버튼 등을 통해야 하는 등의 불편함이 있으며 이러한 환경에서는 원하는 기능이나 컨텐트를 빠르게 접근하고 이용하기 어려운 문제점이 있다.Conventional digital TVs receive a control signal through control means such as a remote controller provided in pairs at the time of manufacture, or through key buttons provided on an external frame or front panel of the digital TV. Was performed and the result was output. For example, in the conventional digital TV, when a menu is requested through the control means or the key button, a menu screen including a predetermined format or contents at the time of manufacture is provided on the screen. In other words, the conventional digital TV outputs only the preset contents to the requested menu screen. Therefore, in order to search and use a function or content desired by a user through a digital TV, the user must go through various depths or through separate operations or function buttons. Inconvenience and difficulty in quickly accessing and using a desired function or content in such an environment.
상기와 같은 문제점을 해소하기 위하여, 본 발명에 따른 디지털 디바이스는 사용자가 원하는 기능, 컨텐트 등 데이터를 종래에 비해 더욱 쉽고 빠르게 접근 및 이용할 수 있도록 하는 것을 일 과제로 한다.In order to solve the above problems, the digital device according to the present invention is to make it easier and faster to access and use data, such as a function, content, etc. desired by the user than one conventional.
본 발명에 따른 디지털 디바이스는, 메인 화면상에 출력 중인 컨텐트 즉, 기 시청 중인 컨텐트의 시청 방해를 최소화하면서 호출된 메뉴 상에서 최소한의 뎁쓰나 화면 변화를 통하여 원하는 데이터를 쉽고 빠르게 접근 및 이용할 수 있도록 하는 것을 다른 과제로 한다.The digital device according to the present invention provides a method for easily and quickly accessing and using desired data through a minimum depth or screen change on a called menu while minimizing interruption in viewing content being displayed on a main screen, that is, content being previously viewed. Make it another task.
본 발명에 따른 디지털 디바이스는, 메인 컨텐트 또는/및 메뉴 런처(menu launcher)가 출력 중인 상태에서 웹OS 플랫폼(Web OS Platform)에 기반하여, 멀티-뷰 화면(Multi-view screen)을 쉽게 제공하고 그를 제어할 수 있도록 하는 것을 또 다른 과제로 한다.The digital device according to the present invention can easily provide a multi-view screen based on a Web OS platform while the main content or / and a menu launcher is being output. Letting him control is another task.
본 발명에 따른 디지털 디바이스는, 종래에 비해 더욱 직관적이고 이용 편의성이 극대화된 메뉴 화면을 구성하여 제공함으로써 누구나 디지털 디바이스를 쉽고 편리하게 이용하도록 하는 것을 또 다른 과제로 한다.Another object of the digital device according to the present invention is to allow anyone to easily and conveniently use the digital device by configuring and providing a menu screen that is more intuitive and maximizing convenience than in the related art.
본 발명에서 이루고자 하는 기술적 과제는, 상술한 기술적 과제(들)로 제한되지 않으며, 언급하지 않은 다른 기술적 과제들은 본 명세서에서 개시하는 내용으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problem to be achieved in the present invention is not limited to the above technical problem (s), and other technical problems which are not mentioned are obvious to those skilled in the art from the contents disclosed herein. Can be understood.
상기 과제를 해결하기 위하여, 본 발명의 일 실시 예에 따른 디지털 디바이스는, 컨텐트와 상기 컨텐트에 대한 시그널링 데이터를 수신하는 수신부, 멀티 뷰 컨텐트 출력을 요청하는 제1 사용자 입력을 수신하는 사용자 입력 수신부, 상기 컨텐트와 시그널링 데이터를 디코딩하는 디코더, 상기 디코딩된 컨텐트를 화면에 출력하도록 제어하고, 상기 제1 사용자 입력에 따라 상기 컨텐트가 출력 중인 스크린상의 소정 영역에 상기 멀티 뷰 컨텐트를 출력하는 윈도우를 오버레이하여 출력하도록 제어하는 제어부 및 상기 컨텐트 및 윈도우를 출력하는 출력부를 포함하고, 상기 제어부는, 포인터가 상기 윈도우 내에 위치하면 하나 또는 그 이상의 서브 윈도우들 출력을 위한 인터페이스가 출력하도록 제어하고, 상기 인터페이스 선택에 따라 상기 하나 또는 그 이상의 서브 윈도우들을 상기 윈도우와 함께 스크린 영역에 출력되도록 제어한다.In order to solve the above problems, a digital device according to an embodiment of the present invention, the receiving unit for receiving the content and the signaling data for the content, a user input receiving unit for receiving a first user input for requesting the multi-view content output, A decoder for decoding the content and signaling data, controlling to output the decoded content on a screen, and overlaying a window for outputting the multi-view content on a predetermined area on the screen where the content is output according to the first user input And a control unit for controlling the output and an output unit for outputting the content and the window, wherein the control unit controls to output an interface for outputting one or more sub-windows when the pointer is located in the window, and to select the interface. According to the above one or Controls such that the output of one sub-window in the screen area with the window.
본 발명의 일 실시 예에 따른 디지털 디바이스에서 멀티 뷰 데이터를 처리하는 방법은, 컨텐트와 상기 컨텐트에 대한 시그널링 데이터를 수신하는 단계, 상기 컨텐트와 시그널링 데이터를 디코딩하는 단계, 상기 디코딩된 컨텐트를 화면에 출력하는 단계, 멀티 뷰 컨텐트 출력을 요청하는 제1 사용자 입력을 수신하는 단계 및 상기 제1 사용자 입력에 따라 상기 컨텐트가 출력 중인 스크린상의 소정 영역에 상기 멀티 뷰 컨텐트를 출력하는 윈도우를 오버레이하여 출력하는 단계를 포함하여 이루어지고, 상기 출력되는 윈도우는 하나 또는 그 이상의 서브 윈도우들 출력을 위한 인터페이스를 포함하고, 상기 인터페이스의 선택에 따라 상기 하나 또는 그 이상의 서브 윈도우들을 상기 윈도우와 함께 스크린 영역에 출력한다.A method of processing multi-view data in a digital device according to an embodiment of the present invention may include receiving content and signaling data for the content, decoding the content and signaling data, and displaying the decoded content on a screen. Outputting, receiving a first user input for requesting multi-view content output, and overlaying and outputting a window for outputting the multi-view content on a predetermined area on a screen where the content is output according to the first user input And the output window includes an interface for outputting one or more subwindows, and outputs the one or more subwindows together with the window to a screen area according to the selection of the interface. .
본 명세서를 통해 개시하는 해결 수단(들)은, 상술한 바에 의해 제한되지 않으며, 언급하지 않은 다른 해결 수단들은 본 명세서에서 개시하는 내용으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solution (s) disclosed through the present specification are not limited to the above, and other solution means which are not mentioned are obvious to those skilled in the art from the contents disclosed herein. Can be understood.
본 발명에 따르면, 다음과 같은 효과가 있다.According to the present invention, the following effects are obtained.
본 발명의 다양한 실시 예들 중 일 실시 예에 의하면, 디지털 디바이스는 사용자가 원하는 기능, 컨텐트 등 데이터를 종래에 비해 더욱 쉽고 빠르게 접근 및 이용할 수 있도록 하는 효과가 있다.According to one of various embodiments of the present disclosure, a digital device has an effect of allowing a user to easily access and use data, such as a desired function and content, more easily and faster than before.
본 발명의 다양한 실시 예들 중 다른 실시 예에 의하면, 디지털 디바이스는 메인 화면상에 출력 중인 컨텐트 즉, 기 시청 중인 컨텐트의 시청 방해를 최소화하면서 호출된 메뉴 상에서 최소한의 뎁쓰나 화면 변화를 통하여 원하는 데이터를 쉽고 빠르게 접근 및 이용할 수 있도록 하는 효과가 있다.According to another of various embodiments of the present disclosure, the digital device may display desired data through a minimum depth or screen change on a called menu while minimizing interruption in viewing content that is being output on the main screen, that is, previously viewed content. It has the effect of making it quick and easy to access and use.
본 발명의 다양한 실시 예들 중 또 다른 실시 예에 의하면, 디지털 디바이스는 메인 컨텐트 또는/및 메뉴 런처가 출력 중인 상태에서 웹OS 플랫폼에 기반하여, 멀티-뷰 화면을 쉽게 제공하고 그를 제어할 수 있도록 하는 효과가 있다.According to another embodiment of the various embodiments of the present disclosure, a digital device may be configured to easily provide and control a multi-view screen based on a webOS platform while a main content or / and menu launcher is being output. It works.
본 발명의 다양한 실시 예들 중 또 다른 실시 예에 의하면, 디지털 디바이스는 종래에 비해 더욱 직관적이고 이용 편의성이 극대화된 메뉴 화면을 구성하여 제공함으로써 디지털 디바이스를 누구나 쉽고 편리하게 이용할 수 있도록 하는 효과가 있다.According to another embodiment of the various embodiments of the present disclosure, the digital device has an effect that makes it easy and convenient for anyone to use the digital device by configuring and providing a menu screen that is more intuitive and maximized convenience than in the related art.
본 발명의 효과는 상술한 효과(들)로 제한되지 않으며, 언급하지 않은 다른 효과들은 본 명세서에서 개시하는 내용으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-described effect (s), and other effects not mentioned will be clearly understood by those skilled in the art from the contents disclosed herein. .
도 1은 본 발명의 일 실시 예에 따른 디지털 디바이스를 포함한 서비스 시스템을 개략적으로 설명하기 위해 도시한 도면;1 is a view for schematically illustrating a service system including a digital device according to an embodiment of the present invention;
도 2는 본 발명의 일 실시 예에 따른 디지털 디바이스를 설명하기 위해 도시한 구성 블록도;2 is a block diagram illustrating a digital device according to one embodiment of the present invention;
도 3은 본 발명의 다른 실시 예에 따른 디지털 디바이스를 설명하기 위해 도시한 구성 블록도;3 is a block diagram illustrating a digital device according to another embodiment of the present invention;
도 4는 본 발명의 일 실시 예에 따른 웹OS 아키텍처를 설명하기 위해 도시한 도면;4 is a diagram illustrating a WebOS architecture according to an embodiment of the present invention;
도 5는 본 발명의 일 실시 예에 따른 웹OS 디바이스의 아키텍처를 설명하기 위해 도시한 도면;FIG. 5 is a diagram for explaining the architecture of a WebOS device according to one embodiment of the present invention; FIG.
도 6은 본 발명의 일 실시 예에 따른 웹OS 디바이스에서 그래픽 컴포지션 플로우를 설명하기 위해 도시한 도면;FIG. 6 is a diagram for explaining a graphic composition flow in a webOS device according to one embodiment of the present invention; FIG.
도 7은 본 발명의 일 실시 예에 따른 미디어 서버를 설명하기 위해 도시한 도면;7 is a diagram illustrating a media server according to one embodiment of the present invention;
도 8은 본 발명의 일 실시 예에 따른 미디어 서버의 구성 블록을 설명하기 위해 도시한 도면;8 is a block diagram illustrating a configuration block of a media server according to one embodiment of the present invention;
도 9는 본 발명의 일 실시 예에 따른 미디어 서버와 TV 서비스의 관계를 설명하기 위해 도시한 도면; 9 is a diagram illustrating a relationship between a media server and a TV service according to an exemplary embodiment.
도 10은 컨텐트가 출력 중인 디지털 디바이스의 화면을 도시한 도면;10 illustrates a screen of a digital device on which content is output;
도 11은 본 발명의 일 실시 예에 따라 메뉴가 출력된 요청된 메뉴를 출력하는 디지털 디바이스를 도시한 도면;11 illustrates a digital device for outputting a requested menu with a menu output according to an embodiment of the present invention;
도 12 내지 21은 본 발명에 따른 현재 모드 메뉴 구성 및 제어에 대해 설명하기 위해 도시한 도면;12 to 21 are diagrams for explaining the current mode menu configuration and control according to the present invention;
도 22 내지 27은 본 발명에 따른 과거 모드 메뉴 구성 및 제어에 대해 설명하기 위해 도시한 도면;22 to 27 are diagrams for explaining the past mode menu configuration and control according to the present invention;
도 28 내지 35는 본 발명에 따른 미래 모드 메뉴 구성 및 제어에 대해 설명하기 위해 도시한 도면;28 to 35 are diagrams for explaining the future mode menu configuration and control according to the present invention;
도 36은 본 발명의 일 실시 예에 다라 디지털 서비스 시템의 일 예를 설명하기 위해 도시한 도면;36 is a diagram illustrating an example of a digital service system according to one embodiment of the present invention;
도 37은 본 발명에 따라 디지털 디바이스(3710)에서 요청된 메뉴를 모바일 디바이스에서 출력하는 실시 예를 설명하기 위해 도시한 도면;FIG. 37 is a diagram for explaining an embodiment of outputting a menu requested from a digital device 3710 on a mobile device according to the present invention; FIG.
도 38은 본 발명에 따라 모바일 디바이스 형태의 메뉴 런처 구성에 대한 실시 예를 설명하기 위해 도시한 도면; FIG. 38 is a diagram illustrating an embodiment of a menu launcher configuration in the form of a mobile device according to the present invention; FIG.
도 39는 본 발명에 따른 디지털 디바이스에서 메뉴 데이터 처리 방법을 설명하기 위해 도시한 순서도;39 is a flowchart illustrating a menu data processing method in a digital device according to the present invention;
도 40은 멀티-뷰 모드 데이터 처리와 관련하여, 화면 분할 시에 사운드 제어 방법을 설명하기 위해 도시한 도면;40 is a diagram for explaining a sound control method in screen division in relation to multi-view mode data processing;
도 41과 42는 본 발명에 따라 멀티-뷰 모드 진입 방법을 설명하기 위해 도시한 도면;41 and 42 illustrate a method of entering a multi-view mode according to the present invention;
도 43은 본 발명의 일 실시 예에 따른 멀티-뷰 진입 화면을 도시한 도면;43 illustrates a multi-view entry screen according to an embodiment of the present invention;
도 44는 본 발명의 다른 실시 예에 따라 멀티-뷰 윈도우 제어 방법을 설명하기 위해 도시한 도면;44 is a diagram for explaining a multi-view window control method according to another embodiment of the present invention;
도 45는 본 발명의 일 실시 예에 따라 멀티-뷰 윈도우의 상세 제어 방법을 설명하기 위해 도시한 도면;45 is a diagram illustrating a detailed control method of a multi-view window according to one embodiment of the present invention;
도 46과 47은 본 발명의 일 실시 예에 따라 멀티-뷰 윈도우의 상세 재생 제어 방법을 설명하기 위해 도시한 도면;46 and 47 are diagrams for explaining a detailed reproduction control method of a multi-view window according to one embodiment of the present invention;
도 48은 본 발명에 따라 멀티-뷰 모드 종료 방법을 설명하기 위해 도시한 도면;48 is a diagram to describe a method of exiting a multi-view mode according to the present invention;
도 49 내지 58은 본 발명에 따라 서브 멀티-뷰 동작 제어 방법을 설명하기 위해 도시한 도면; 및49 to 58 are diagrams for explaining a sub multi-view operation control method according to the present invention; And
도 59는 본 발명의 일 실시 예에 따라 멀티-뷰 모드를 지원하는 디지털 디바이스의 제어 방법을 설명하기 위해 도시한 순서도이다.FIG. 59 is a flowchart illustrating a control method of a digital device supporting a multi-view mode according to an embodiment of the present invention.
이하에서는 도면(들)을 참조하여 본 발명에 따른 디지털 디바이스 및 상기 디지털 디바이스의 제어 방법에 대한 다양한 실시예(들)을 상세하게 설명한다.Hereinafter, various embodiment (s) of a digital device and a method of controlling the digital device according to the present invention will be described in detail with reference to the drawing (s).
본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈", "부" 등은 단지 명세서 작성의 용이함을 고려하여 부여되는 것으로서, 필요에 따라 양자는 혼용될 수도 있다. 또한, "제1-", "제2-" 등과 같이 서수로 기술한 경우에도 그것이 순서를 의미하기보다는 해당 용어의 설명 편의를 위한 것일 뿐, 그러한 용어나 서수에 한정되는 것은 아니다.The suffixes "module", "part", and the like for the components used herein are given only in consideration of ease of preparation of the specification, and both may be used as needed. In addition, even when written in ordinal numbers such as "first-first", "second-second", and the like, it is not intended to mean the order, but merely for the convenience of explanation of the term, and is not limited to such terms or ordinal numbers.
또한, 본 명세서에서 사용되는 용어도, 본 발명의 기술 사상에 따른 기능을 고려하여 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 다만, 특정한 경우는 출원인이 임의로 선정한 용어도 있으나, 이에 대해서는 관련 설명 부분에서 그 의미를 기술할 것이다. 따라서, 해당 용어를 단지 그 명칭이 아니라 그가 가진 실질적인 의미와 본 명세서 전반에 걸쳐 기술된 내용을 토대로 해석되어야 함을 밝혀 둔다.In addition, the terms used in this specification, in consideration of the function according to the technical spirit of the present invention was selected as widely used general terms as possible, but this is in accordance with the intention or custom of the person skilled in the art or the emergence of new technologies, etc. Can vary. However, in some cases, the term is arbitrarily selected by the applicant, but the meaning will be described in the related description. Therefore, it is to be understood that the terminology should be interpreted not on the basis of merely the name, but on the actual meaning thereof and the contents described throughout this specification.
한편, 본 명세서 또는/및 도면에 기술된 내용은, 본 발명에 따른 바람직한 일 실시 예로서 그에 한정되지 않으며, 그 권리범위는 특허청구범위를 통해 결정되어야 한다.On the other hand, the contents described in the specification or / and the drawings are not limited thereto as a preferred embodiment according to the present invention, the scope of the rights should be determined through the claims.
이하 본 명세서에서 기술되는 “디지털 디바이스”라 함은 예를 들어, 데이터, 컨텐트, 서비스, 애플리케이션 등을 송신, 수신, 처리 및 출력 중 적어도 하나 이상을 수행 가능한 모든 디바이스를 포함하는 의미로 사용한다. 상기 디지털 디바이스는, 유/무선 네트워크(wire/wireless network)를 통하여 다른 디지털 디바이스, 외부 서버(external server) 등과 페어링(pairing) 또는 연결(이하 '페어링') 가능하며, 그를 통해 소정 데이터를 송/수신할 수 있다. 상기 소정 데이터에는, 제어 데이터(control data)도 포함된다. 필요에 따라, 상기 데이터는 그 송/수신 전에 적절히 변환될 수 있다. 상기 디지털 디바이스에는 예를 들어, 네트워크 TV(Network TV), HBBTV(Hybrid Broadcast Broadband TV), 스마트 TV(Smart TV), IPTV(Internet Protocol TV), PC 등과 같은 고정형 디바이스(standing device)와, PDA(Personal Digital Assistant), 스마트 폰(Smart Phone), 태블릿 PC(Tablet PC), 노트북(Notebook), 웨어러블 디바이스(wearable device) 등과 같은 모바일 디바이스(mobile device or handheld device)가 모두 포함될 수 있다. 본 명세서에서는 본 발명의 이해를 돕고 출원인의 설명의 편의를 위하여 후술하는 도 2와 3에서는 디지털 TV, 도 4에서는 모바일 디바이스를 디지털 디바이스의 일 실시 예로 도시하고 설명한다. 또한, 본 명세서에서 기술되는 디지털 디바이스는, 패널(panel)로만 구성된 디지털 사이니지(digital signage), 모니터(monitor) 또는 디스플레이 디바이스(display device)일 수도 있고, 셋톱박스(STB: Set-Top Box)를 포함하거나 서버 등과 합쳐 하나의 서비스 시스템(service system)의 일부일 수도 있다.As used herein, the term "digital device" is used herein to mean all devices capable of performing at least one or more of transmission, reception, processing, and output of data, content, services, applications, and the like. The digital device may be paired or connected (hereinafter referred to as 'pairing') with another digital device, an external server, or the like through a wire / wireless network, and transmit / receive predetermined data therethrough. Can be received. The predetermined data also includes control data. If necessary, the data can be properly converted before its transmission / reception. The digital device includes, for example, a standing device such as a Network TV, a Hybrid Broadcast Broadband TV (HBBTV), a Smart TV, an Internet Protocol TV (IPTV), a PC, or the like, and a PDA ( A mobile device or a handheld device, such as a personal digital assistant, a smart phone, a tablet PC, a notebook, a wearable device, and the like, may all be included. In the present specification, a digital TV and a mobile device in FIG. 2 and FIG. In addition, the digital device described herein may be a digital signage, monitor, or display device composed only of panels, and may be a set-top box (STB). Or may be part of one service system in combination with a server.
한편, 본 명세서에서 기술되는 “유/무선 네트워크”라 함은, 디지털 디바이스들 또는 디지털 디바이스와 외부 서버 사이에서 페어링 또는/및 데이터 송수신을 위해 다양한 통신 규격 내지 프로토콜을 지원하는 통신 네트워크를 통칭한다. 이러한 유/무선 네트워크는, 규격에 의해 현재 또는 향후 지원될 통신 네트워크를 모두 포함하며, 그를 위한 하나 또는 그 이상의 통신 프로토콜들을 모두 지원 가능하다. 이러한 유/무선 네트워크에는 예컨대, USB(Universal Serial Bus), CVBS(Composite Video Banking Sync), 컴포넌트(Component), S-비디오(아날로그), DVI(Digital Visual Interface), HDMI(High Definition Multimedia Interface), RGB, D-SUB와 같은 유선 연결을 위한 네트워크와 그를 위한 통신 규격 내지 프로토콜과, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA: infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance), WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE/LTE-A(Long Term Evolution/LTE-Advanced), Wi-Fi 다이렉트(direct)와 같은 무선 연결을 위한 네트워크와 그를 위한 통신 규격 내지 프로토콜에 의하여 형성될 수 있다. Meanwhile, the term “wired / wireless network” described herein refers to a communication network supporting various communication standards or protocols for pairing and / or transmitting and receiving data between digital devices or digital devices and external servers. Such wired / wireless networks include all communication networks that are currently or will be supported by the specification and are capable of supporting one or more communication protocols for them. Such wired and wireless networks include, for example, Universal Serial Bus (USB), Composite Video Banking Sync (CVBS), Component, S-Video (Analog), Digital Visual Interface (DVI), High Definition Multimedia Interface (HDMI), Network for wired connection such as RGB, D-SUB and communication standard or protocol therefor, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), Zigbee (ZigBee), Digital Living Network Alliance (DLNA), Wireless LAN (WLAN) (Wi-Fi), Wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), LTE / LTE It may be formed by a network for a wireless connection such as Long Term Evolution / LTE-Advanced (A), Wi-Fi Direct, and a communication standard or protocol therefor.
본 명세서에서 단지 디지털 디바이스로 명명하는 경우, 그 의미는 문맥에 따라 고정형 또는 모바일 디바이스를 의미할 수도 있고 특별히 언급하지 않는다면 양자를 모두 포함하는 의미로 사용될 수 있다.In the present specification, when only referred to as a digital device, the meaning may mean a fixed or mobile device depending on the context, and may be used to include both unless specifically mentioned.
한편, 디지털 디바이스는 예컨대, 방송 수신 기능, 컴퓨터 기능 내지 지원, 적어도 하나의 외부 인풋 등을 지원하는 지능형 디바이스로서, 상술한 유/무선 네트워크를 통해 이메일(e-mail), 웹 브라우징(web browsing), 뱅킹(banking), 게임, 애플리케이션 등을 지원할 수 있다. 더불어, 상기 디지털 디바이스는, 수기 방식의 인풋 디바이스, 터치-스크린(tocu-screen), 공간 리모콘 등 적어도 하나의 인풋 또는 제어 수단(input or control means)을 지원하기 위한 인터페이스(interface)를 구비할 수 있다. On the other hand, the digital device is, for example, an intelligent device that supports a broadcast receiving function, a computer function or support, at least one external input, and the like, and includes e-mail and web browsing through the wired / wireless network described above. , Banking, games, applications, and more. In addition, the digital device may include an interface for supporting at least one input or control means such as a handwritten input device, a touch-screen, a spatial remote controller, and the like. have.
그 밖에, 디지털 디바이스는, 표준화된 범용 OS(Operating System)를 이용할 수 있으며, 특히, 리눅스OS도 여기에 포함될 수 있다. 한편, 본 명세에서 기술되는 디지털 디바이스는, 웹OS(Web OS) 플랫폼 기반으로 데이터, 서비스, 애플리케이션 등을 처리하는 것을 일 실시 예로 한다. 따라서, 디지털 디바이스는 범용의 OS 커널(OS kernel) 또는 리눅스 커널(Linux kernel) 상에 다양한 서비스나 애플리케이션을 추가, 삭제, 수정, 업데이트 등을 처리가 가능하며, 그를 통해 더욱 사용자 친화적인 환경을 구성하여 제공할 수 있다.In addition, the digital device may use a standard general-purpose operating system (OS), and in particular, the Linux OS may be included therein. On the other hand, the digital device described in the present specification, an example of processing data, services, applications, etc. based on the Web OS (Web OS) platform. Therefore, the digital device can add, delete, modify, and update various services or applications on a general-purpose OS kernel or Linux kernel, thereby constructing a more user-friendly environment. Can be provided.
한편, 상술한 디지털 디바이스는 외부 인풋(external input)을 수신하여 처리할 수 있는데 이때, 상기 외부 인풋은, 외부 인풋 디바이스 즉, 상술한 디지털 디바이스와 유/무선 네트워크를 통해 연결되어 데이터를 송/수신하여 처리 가능한 모든 인풋 수단 내지 디지털 디바이스를 포함한다. 예를 들어, 상기 외부 인풋으로 HDMI(High-Definition Multimedia Interface), 플레이스테이션(playstation)이나 엑스-박스(X-Box) 등과 같은 게임 디바이스, 스마트 폰, 태블릿 PC, 포켓 포토(pocket photo) 등과 같은 프린터기(printing device), 스마트 TV, 블루-레이(Blu-ray device) 디바이스 등과 같은 디지털 디바이스들을 모두 포함한다.Meanwhile, the above-described digital device may receive and process an external input, wherein the external input is connected to an external input device, that is, the above-described digital device through a wired / wireless network to transmit / receive data. And all input means or digital devices which can be processed. For example, the external input may be a gaming device such as a high-definition multimedia interface (HDMI), a playstation or an X-box, a smartphone, a tablet PC, a pocket photo, or the like. Digital devices such as printing devices, smart TVs, Blu-ray device devices and the like.
그 밖에, 본 명세서에서 기술되는 “서버”라 함은, 상술한 디지털 디바이스 즉, 클라이언트(client)로 데이터를 공급 또는 그로부터 데이터를 수신하는 디지털 디바이스 혹은 시스템을 의미하며, 프로세서(processor)로 불리기도 한다. 상기 서버로 예컨대, 웹 페이지(web page), 웹 컨텐트 또는 웹 서비스(web content or web service)를 제공하는 포털 서버(portal server), 광고 데이터(advertising data)를 제공하는 광고 서버(advertising server), 컨텐트를 제공하는 컨텐트 서버(content server), SNS(Social Network Service)를 제공하는 SNS 서버, 제조업체(manufacturer)에서 제공하는 서비스 서버(service server), VoD(Video on Demand)나 스트리밍(streaminng) 서비스 제공을 위한 MVPD(Multichannel Video Programming Distributor), 유료 서비스(pay service) 등을 제공하는 서비스 서버, 클라우드 서버(cloud server) 등이 포함될 수 있다.In addition, the term "server" described herein refers to a digital device or system for supplying data to or receiving data from the above-mentioned digital device, that is, a client, and also referred to as a processor. do. For example, a portal server for providing a web page, a web content or a web service, an advertising server for providing advertising data, Providing a content server providing content, an SNS server providing a social network service (SNS), a service server provided by a manufacturer, and providing a video on demand (VOD) or streaming service It may include a multi-channel video programming distributor (MVDP), a service server for providing a pay service, a cloud server, and the like.
또한, 이하 본 명세서에서 설명의 편의를 위하여 애플리케이션으로만 기술한 경우에도 그 문맥 등을 기초하여 그 의미는 애플리케이션뿐만 아니라 서비스까지 포함하는 의미일 수 있으며, 본 발명에 따른 웹OS 플랫폼상의 웹 애플리케이션(web application)도 포함할 수 있다. In addition, hereinafter, even if described only as an application for convenience of description in the present specification, the meaning may be a meaning including not only an application but also a service based on the context, and the like. web applications).
본 발명의 일 실시 예에 따른 디지털 디바이스는, 컨텐트와 상기 컨텐트에 대한 시그널링 데이터를 수신하는 수신부, 멀티 뷰 컨텐트 출력을 요청하는 제1 사용자 입력을 수신하는 사용자 입력 수신부, 상기 컨텐트와 시그널링 데이터를 디코딩하는 디코더, 상기 디코딩된 컨텐트를 화면에 출력하도록 제어하고, 상기 제1 사용자 입력에 따라 상기 컨텐트가 출력 중인 스크린상의 소정 영역에 상기 멀티 뷰 컨텐트를 출력하는 윈도우를 오버레이하여 출력하도록 제어하는 제어부 및 상기 컨텐트 및 윈도우를 출력하는 출력부를 포함하고, 상기 제어부는, 포인터가 상기 윈도우 내에 위치하면 하나 또는 그 이상의 서브 윈도우들 출력을 위한 인터페이스가 출력하도록 제어하고, 상기 인터페이스 선택에 따라 상기 하나 또는 그 이상의 서브 윈도우들을 상기 윈도우와 함께 스크린 영역에 출력되도록 제어한다.According to an embodiment of the present invention, a digital device includes a receiver for receiving content and signaling data for the content, a user input receiving unit for receiving a first user input for requesting multi-view content output, and decoding the content and signaling data. A decoder configured to control the output of the decoded content on a screen, and to output an overlay of a window for outputting the multi-view content in a predetermined area on a screen on which the content is output according to the first user input; And an output unit for outputting a content and a window, wherein the control unit controls to output an interface for outputting one or more sub-windows when the pointer is located in the window, and according to the interface selection. Remind windows Controls output to the screen area with a window.
상기에서, 하나 또는 그 이상의 서브 윈도우들을 통해 출력되는 컨텐트는, 상기 컨텐트와 상기 윈도우를 통해 출력되는 멀티 뷰 컨텐트 중 적어도 하나와 연관된 컨텐트일 수 있다. 한편, 상기 사용자 입력 수신부는 메뉴 런처 출력을 요청하는 사용자 입력을 수신할 수 있고, 상기 제어부는 상기 메뉴 런처 출력 요청 사용자 입력에 따라 상기 스크린상에 하나 또는 그 이상의 메뉴 아이템들을 출력하도록 제어할 수 있다.The content output through the one or more sub-windows may be content associated with at least one of the content and the multi-view content output through the window. The user input receiver may receive a user input for requesting a menu launcher output, and the controller may control to output one or more menu items on the screen according to the menu launcher output request user input. .
상기에서, 제1 사용자 입력은, 상기 출력되는 메뉴 런처에 속한 하나 또는 그 이상의 메뉴 아이템들 중 어느 하나를 선택함에 따라 상기 선택된 메뉴 아이템 주변에 제공된 멀티 뷰 기능 아이콘 선택 신호일 수 있다. The first user input may be a multi-view function icon selection signal provided around the selected menu item as one of one or more menu items belonging to the output menu launcher is selected.
상기 제어부는, 상기 멀티 뷰 컨텐트 출력을 위한 윈도우를 상기 출력되는 메뉴 런처와 중복되지 않는 영역에 출력하도록 제어할 수 있고, 상기 하나 또는 그 이상의 서브 윈도우들을 상기 윈도우에 비하여 사이즈를 다르게 출력하도록 제어할 수 있으며, 상기 윈도우를 드래그 앤드 드롭함에 따라 상기 스크린상에 제공 중인 컨텐트와 인터체인징하도록 제어할 수 있다. 한편, 상기 제어부는, 상기 하나 또는 그 이상의 서브 윈도우들을 상기 윈도우와 인접한 스크린 영역 또는 상기 스크린의 가장자리에 출력되도록 제어할 수 있고, 상기 출력되는 윈도우가 상기 스크린 영역 내 최초 위치로부터 다른 위치로 변경되면, 변경된 위치를 기반으로 상기 인터페이스 선택에 따라 출력되는 서브 윈도우들 외에 추가로 하나 또는 그 이상의 서브 윈도우들을 출력하도록 제어할 수 있으며, 상기 출력되는 윈도우와 서브 윈도우들 중 적어도 하나를 동일 카테고리의 컨텐트를 포함한 그룹 단위로 구성하고, 상기 포인터가 해당 윈도우 또는 서브 윈도우에 위치하면, 상기 그룹 단위의 컨텐트 리스트를 윈도우 형태 또는 아이콘 형태로 해당 윈도우상에 출력하도록 제어할 수 있다.이하 첨부된 도면을 참조하면 본 발명을 더욱 상세하게 설명하면, 다음과 같다.The controller may control to output the window for outputting the multi-view content to an area not overlapping with the output menu launcher, and to output the size of the one or more sub-windows differently from the window. As the window is dragged and dropped, it may be controlled to interact with content being provided on the screen. The controller may control the one or more sub-windows to be output to a screen area adjacent to the window or to an edge of the screen, and when the output window is changed from an initial position to another position in the screen area. In addition to the sub-windows output according to the interface selection based on the changed position, one or more sub-windows may be output. The at least one of the output window and the sub-windows may include content of the same category. If the pointer is located in the corresponding window or sub-window, the content list in the group unit can be controlled to be output on the corresponding window in the form of a window or an icon. The present invention in more detail If the description is as follows.
도 1은 본 발명의 일 실시 예에 따른 디지털 디바이스를 포함한 서비스 시스템을 개략적으로 설명하기 위해 도시한 도면이다.1 is a diagram schematically illustrating a service system including a digital device according to an embodiment of the present invention.
도 1을 참조하면, 서비스 시스템은, 컨텐트 프로바이더(content provider)(10), 서비스 프로바이더(service provider)(20), 네트워크 프로바이더(network provider)(30) 및 HNED(Home Network End User)(Customer)(40)를 포함한다. 여기서, HNED(40)는 예를 들어, 클라이언트(100) 즉, 본 발명에 따른 디지털 디바이스를 포함한다.Referring to FIG. 1, the service system includes a content provider 10, a service provider 20, a network provider 30, and a home network end user (HNED). (Customer) 40. Here, the HNED 40 comprises, for example, a client 100, ie a digital device according to the invention.
컨텐트 프로바이더(10)는, 각종 컨텐트를 제작하여 제공한다. 도 1에 도시된 바와 같이, 컨텐트 프로바이더(10)로 지상파 방송 송출자, 케이블 방송 사업자(cable SO(System Operator)) 또는 MSO(Multiple SO), 위성 방송 송출자, 다양한 인터넷 방송 송출자, 개인 컨텐트 프로바이더들 등을 예시할 수 있다. 한편, 컨텐트 프로바이더(10)는, 방송 컨텐트 외에도 다양한 서비스나 애플리케이션 등을 제작하여 제공할 수 있다.The content provider 10 produces and provides various contents. As shown in FIG. 1, a terrestrial broadcast sender, a cable SO (cable system operator) or MSO (multiple SO), a satellite broadcast sender, various Internet broadcast senders, and an individual may be used as the content provider 10. Content providers and the like. The content provider 10 may produce and provide various services or applications in addition to broadcast content.
서비스 프로바이더(20)는, 컨텐트 프로바이더(10)에 의해 제작된 컨텐트를 서비스 패키지화(service packetizing)하여 HNED(40)로 제공한다. 예컨대, 서비스 프로바이더(20)는, 제1 지상파 방송, 제2 지상파 방송, 케이블 MSO, 위성 방송, 다양한 인터넷 방송, 애플리케이션 등에 의해 제작된 컨텐트들 중 적어도 하나 이상을 서비스를 위해 패키지화하고, 이를 HNED(40)에게 제공한다.The service provider 20 service packetizes the content produced by the content provider 10 and provides it to the HNED 40. For example, the service provider 20 packages at least one or more of contents produced by the first terrestrial broadcast, the second terrestrial broadcast, the cable MSO, satellite broadcast, various Internet broadcasts, applications, and the like for the service, and HNED. Provide 40.
서비스 프로바이더(20)는, 유니-캐스트(uni-cast) 또는 멀티-캐스트(multi-cast) 방식으로 클라이언트(100)에 서비스를 제공한다. 한편, 서비스 프로바이더(20)는 데이터를 미리 등록된 다수의 클라이언트(100)로 한꺼번에 전송할 수 있는데, 이를 위해 IGMP(Internet Group Management Protocol) 프로토콜 등을 이용할 수 있다.The service provider 20 provides a service to the client 100 in a uni-cast or multi-cast manner. Meanwhile, the service provider 20 may transmit data to a plurality of clients 100 registered in advance. For this, the service provider 20 may use an Internet Group Management Protocol (IGMP) protocol.
상술한 컨텐트 프로바이더(10)와 서비스 프로바이더(20)는, 동일한 개체(entity)일 수 있다. 예를 들어, 컨텐트 프로바이더(10)가 제작한 컨텐트를 서비스 패키지화하여 HNED(40)로 제공함으로써 서비스 프로바이더(20)의 기능도 함께 수행하거나 그 반대일 수도 있다.The content provider 10 and the service provider 20 described above may be the same entity. For example, the content produced by the content provider 10 may be packaged as a service and provided to the HNED 40 to perform the functions of the service provider 20 together or vice versa.
네트워크 프로바이더(30)는, 컨텐트 프로바이더(10) 또는/및 서비스 프로바이더(20)와 클라이언트(100) 사이의 데이터 교환을 위한 네트워크 망을 제공한다.The network provider 30 provides a network for data exchange between the content provider 10 or / and the service provider 20 and the client 100.
클라이언트(100)는, HNED(40)에 속한 소비자로서, 네트워크 프로바이더(30)를 통해 예컨대, 홈 네트워크(home network)를 구축하여 데이터를 수신하며, VoD, 스트리밍 등 다양한 서비스나 애플리케이션 등에 관한 데이터를 송/수신할 수도 있다.The client 100 is a consumer belonging to the HNED 40, and for example, establishes a home network through the network provider 30 to receive data, and receives data about various services or applications such as VoD and streaming. You can also send / receive.
한편, 서비스 시스템 내 컨텐트 프로바이더(10) 또는/및 서비스 프로바이더(20)는 전송되는 컨텐트의 보호를 위해 제한 수신(conditional access) 또는 컨텐트 보호(content protection) 수단을 이용할 수 있다. 따라서, 클라이언트(100)는 상기 제한 수신이나 컨텐트 보호에 대응하여 케이블카드(CableCARD)(또는 POD: Point of Deployment), DCAS(Downloadable CAS) 등과 같은 처리 수단을 이용할 수 있다.Meanwhile, the content provider 10 and / or the service provider 20 in the service system may use conditional access or content protection means to protect the transmitted content. Accordingly, the client 100 may use a processing means such as a cable card (or point of deployment) or a downloadable casing (DCAS) in response to the limited reception or content protection.
그 밖에, 클라이언트(100)도 네트워크를 통해, 양방향 서비스를 이용할 수 있다. 따라서, 클라이언트(100)가 오히려 컨텐트 프로바이더의 역할 내지 기능을 수행할 수도 있으며, 서비스 프로바이더(20)는 이를 수신하여 다시 다른 클라이언트 등으로 전송할 수도 있다.In addition, the client 100 may also use a bidirectional service through a network. Accordingly, the client 100 may perform a role or function of the content provider, and the service provider 20 may receive it and transmit it to another client.
도 1에서 컨텐트 프로바이더(10) 또는/및 서비스 프로바이더(20)는 본 명세서에서 후술하는 서비스를 제공하는 서버일 수 있다. 이 경우, 상기 서버는 필요에 따라 네트워크 프로바이더(30)도 소유 내지 포함하는 의미일 수 있다. 이하 특별히 언급하지 않더라도 서비스 또는 서비스 데이터는, 전술한 외부로부터 수신되는 서비스 내지 애플리케이션뿐만 아니라 내부 서비스 내지 애플리케이션을 포함하며, 이러한 서비스 내지 애플리케이션은 웹OS(Web OS) 기반의 클라이언트(100)를 위한 서비스 내지 애플리케이션 데이터를 의미할 수 있다.In FIG. 1, the content provider 10 and / or the service provider 20 may be a server that provides a service described later herein. In this case, the server may mean to own or include the network provider 30 as necessary. Although not specifically mentioned below, the service or service data includes not only services or applications received from the outside described above but also internal services or applications, and these services or applications are services for the client 100 based on Web OS (Web OS). To application data.
도 2는 본 발명의 일 실시 예에 따른 디지털 디바이스를 설명하기 위해 도시한 구성 블록도이다. 2 is a block diagram illustrating a digital device according to an embodiment of the present invention.
이하 본 명세서에서 기술되는 디지털 디바이스는 전술한 도 1의 클라이언트(100)에 해당한다.Hereinafter, the digital device described herein corresponds to the client 100 of FIG. 1.
디지털 디바이스(200)는, 네트워크 인터페이스부(network interface)(201), TCP/IP 매니저(TCP/IP manager)(202), 서비스 전달 매니저(service delivery manager)(203), SI 디코더(204), 역다중화부(demux or demultiplexer)(205), 오디오 디코더(audio decoder)(206), 비디오 디코더(video decoder)(207), 디스플레이부(display A/V and OSD module)(208), 서비스 제어 매니저(service control manager)(209), 서비스 디스커버리 매니저(service discovery manager)(210), SI&메타데이터 데이터베이스(SI&metadata DB)(211), 메타데이터 매니저(metadata manager)(212), 서비스 매니저(213), UI 매니저(214) 등을 포함하여 구성된다.The digital device 200 includes a network interface 201, a TCP / IP manager 202, a service delivery manager 203, an SI decoder 204, A demux or demultiplexer 205, an audio decoder 206, a video decoder 207, a display A / V and OSD module 208, a service control manager (service control manager) 209, service discovery manager 210, SI & metadata DB 211, metadata manager 212, service manager 213, And a UI manager 214.
네트워크 인터페이스부(201)는, 액세스(access)하는 네트워크 망을 통하여 IP 패킷(들)(Internet Protocol (IP) packet(s)) 또는 IP 데이터그램(들)(IP datagram(s))(이하 ‘IP 패킷(들)’이라 한다)을 송/수신한다. 일 예로, 네트워크 인터페이스부(201)는 네트워크 망을 통해 도 1의 서비스 프로바이더(20)로부터 서비스, 애플리케이션, 컨텐트, 부가 정보(additional information) 등을 수신할 수 있다. 상기 부가 정보에는, SI(System Information) 정보가 포함될 수 있다. 한편, 상기 네트워크 인터페이스부(201)는, 튜너(tuner), 복조부(demodulator) 등과 공존하거나 상기 튜너, 복조부 등으로 대체될 수도 있다. 네트워크 인터페이스부(201)는, 유선 네트워크와의 접속을 위해 예를 들어, 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해 예를 들어, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등을 이용할 수 있다. 한편, 네트워크 인터페이스부(201)는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다. 그 외, 컨텐트 프로바이더 또는 네트워크 운영자가 제공하는 컨텐트 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐트 프로바이더 또는 네트워크 프로바이더로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐트 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어(firmware)의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐트 프로바이더 또는 네트워크 운영자에게 데이터들을 송신할 수 있다. 또한, 네트워크 인터페이스부(201)는, 네트워크를 통해 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.The network interface unit 201 is an IP packet (s) (Internet Protocol (IP) packet (s)) or IP datagram (s) (hereinafter referred to as' IP packet (s) '). For example, the network interface unit 201 may receive a service, an application, content, additional information, and the like from the service provider 20 of FIG. 1 through a network. The additional information may include SI (System Information) information. The network interface 201 may coexist with a tuner, a demodulator, or the like, or may be replaced with a tuner, a demodulator, or the like. The network interface unit 201 may include, for example, an Ethernet terminal for connection with a wired network, and for example, a wireless LAN (WLAN) for connection with a wireless network. Fi, Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), and High Speed Downlink Packet Access (HSDPA) communication standards. On the other hand, the network interface unit 201 can access a predetermined web page through a connected network or another network linked to the connected network. That is, by accessing a predetermined web page through the network, it is possible to send or receive data with the server. In addition, it may receive content or data provided by a content provider or a network operator. That is, content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider may be received through a network. In addition, it is possible to receive the update information and the update file of the firmware (firmware) provided by the network operator. It may also transmit data to the Internet or content provider or network operator. In addition, the network interface unit 201 may select and receive a desired application from among applications that are open through the network.
TCP/IP 매니저(202)는, 디지털 디바이스(200)로 수신되는 IP 패킷들과 디지털 디바이스(200)가 전송하는 IP 패킷들에 대하여 즉, 소스(source)와 목적지(destination) 사이의 패킷 전달(packet delivery)에 관여한다. 상기 TCP/IP 매니저(202)는 수신된 패킷(들)을 적절한 프로토콜에 대응하도록 분류하고, 상기 분류된 패킷(들)을 서비스 전달 매니저(205), 서비스 디스커버리 매니저(210), 서비스 제어 매니저(209), 메타데이터 매니저(212) 등 중 적어도 하나로 출력한다.The TCP / IP manager 202 may be configured to transfer packets between the source and the destination for IP packets received by the digital device 200 and IP packets transmitted by the digital device 200. involved in packet delivery). The TCP / IP manager 202 classifies the received packet (s) to correspond to an appropriate protocol, and classifies the classified packet (s) into a service delivery manager 205, a service discovery manager 210, and a service control manager ( 209, the metadata manager 212, and the like.
서비스 전달 매니저(203)는, 서비스 데이터의 제어를 담당한다. 예를 들어, 서비스 전달 매니저(203)는 실시간 스트리밍(real-time streaming) 데이터를 제어하는 경우에는 RTP/RTCP를 사용할 수 있다. 상기 실시간 스트리밍 데이터를 RTP를 사용하여 전송하는 경우, 서비스 전달 매니저(203)는 상기 수신된 데이터 패킷을 RTP에 따라 파싱(parsing)하여 역다중화부(205)로 전송 또는 서비스 매니저(213)의 제어에 따라 SI&메타데이터 데이터베이스(211)에 저장한다. 한편, 서비스 전달 매니저(203)는 RTCP를 이용하여 상기 네트워크 수신 정보를 서비스를 제공하는 서버 측에 피드백(feedback)한다.The service delivery manager 203 is in charge of controlling service data. For example, the service delivery manager 203 may use RTP / RTCP when controlling real-time streaming data. When transmitting the real-time streaming data using the RTP, the service delivery manager 203 parses the received data packet according to the RTP and transmits it to the demultiplexer 205 or controls the service manager 213. In accordance with the SI & metadata database 211. Meanwhile, the service delivery manager 203 feeds back the network reception information to a server that provides a service using RTCP.
역다중화부(205)는, 수신되는 패킷으로부터 오디오, 비디오, SI 데이터 등으로 역다중화하여 각각 오디오/비디오 디코더(206/207), SI 디코더(204)에 전송한다.The demultiplexer 205 demultiplexes the received packet into audio, video, SI data, and the like, and transmits the demultiplexer 205 to the audio / video decoders 206/207 and the SI decoder 204, respectively.
SI 디코더(204)는, 역다중화된 SI 데이터를 디코딩한다. 상기 SI 데이터는, PSI(Program Specific Information), PSIP(Program and System Information Protocol), DVB-SI(Digital Video Broadcasting-Service Information), DTMB/CMMB(Digital Television Terrestrial Multimedia Broadcasting/Coding Mobile Multimedia Broadcasting) 등 중 어느 하나일 수 있다. 또한, SI 디코더(204)는, 디코딩되는 SI 데이터를 SI&메타데이터 데이터베이스(211)에 저장할 수 있다. 상기 SI&데이터베이스(211)에 저장되는 SI 데이터는 예를 들어, 사용자의 요청 등 필요에 따라 독출되어 이용될 수 있다. The SI decoder 204 decodes the demultiplexed SI data. The SI data includes PSI (Program Specific Information), PSIP (Program and System Information Protocol), DVB-SI (Digital Video Broadcasting-Service Information), DTMB / CMMB (Digital Television Terrestrial Multimedia Broadcasting / Coding Mobile Multimedia Broadcasting), and the like. It can be either. In addition, the SI decoder 204 may store the SI data to be decoded in the SI & metadata database 211. The SI data stored in the SI & database 211 may be read out and used as necessary, for example, by a user's request.
오디오/비디오 디코더(206/207)는, 역다중화된 각 오디오 데이터와 비디오 데이터를 디코딩한다. 이렇게 디코딩된 오디오 데이터 및 비디오 데이터는 디스플레이부(208)를 통하여 사용자에게 제공된다.The audio / video decoder 206/207 decodes each demultiplexed audio data and video data. The decoded audio data and video data are provided to the user through the display unit 208.
애플리케이션 매니저는 예를 들어, UI 매니저(214)와 서비스 매니저(213)를 포함하며 디지털 디바이스(200)의 제어부 기능을 수행할 수 있다. 다시 말해, 애플리케이션 매니저는, 디지털 디바이스(200)의 전반적인 상태를 관리하고 사용자 인터페이스(UI: User Interface)를 제공하며, 다른 매니저를 관리할 수 있다.The application manager may include, for example, the UI manager 214 and the service manager 213 and perform a control function of the digital device 200. In other words, the application manager may manage the overall state of the digital device 200, provide a user interface (UI), and manage other managers.
UI 매니저(214)는, 사용자를 위한 GUI(Graphic User Interface)/UI를 OSD(On Screen Display) 등을 이용하여 제공하며, 사용자로부터 키 인풋을 받아 상기 인풋에 따른 디바이스 동작을 수행한다. 예를 들어, UI 매니저(214)는 사용자로부터 채널 선택에 관한 키 인풋을 받으면 상기 키 인풋 신호를 서비스 매니저(213)에 전송한다.The UI manager 214 provides a Graphic User Interface (UI) / UI for a user using an OSD (On Screen Display), etc., and receives a key input from the user to perform a device operation according to the input. For example, the UI manager 214 transmits the key input signal to the service manager 213 when receiving a key input related to channel selection from the user.
서비스 매니저(213)는, 서비스 전달 매니저(203), 서비스 디스커버리 매니저(210), 서비스 제어 매니저(209), 메타데이터 매니저(212) 등 서비스와 연관된 매니저를 제어한다.The service manager 213 controls a manager associated with a service such as a service delivery manager 203, a service discovery manager 210, a service control manager 209, and a metadata manager 212.
또한, 서비스 매니저(213)는, 채널 맵(channel map)을 생성하고 UI 매니저(214)로부터 수신한 키 인풋에 따라 상기 생성된 채널 맵을 이용하여 채널을 선택 등을 제어한다. 상기 서비스 매니저(213)는 SI 디코더(204)로부터 서비스 정보를 전송받아 선택된 채널의 오디오/비디오 PID(Packet Identifier)를 역다중화부(205)에 설정한다. 이렇게 설정되는 PID는 상술한 역다중화 과정에 이용될 수 있다. 따라서, 역다중화부(205)는 상기 PID를 이용하여 오디오 데이터, 비디오 데이터 및 SI 데이터를 필터링(PID or section filtering) 한다.In addition, the service manager 213 generates a channel map and controls the channel selection using the generated channel map according to the key input received from the UI manager 214. The service manager 213 receives service information from the SI decoder 204 and sets the audio / video packet identifier (PID) of the selected channel to the demultiplexer 205. The PID set as described above may be used in the above demultiplexing process. Accordingly, the demultiplexer 205 filters (PID or section filtering) audio data, video data, and SI data by using the PID.
서비스 디스커버리 매니저(210)는, 서비스를 제공하는 서비스 프로바이더를 선택하는데 필요한 정보를 제공한다. 상기 서비스 매니저(213)로부터 채널 선택에 관한 신호를 수신하면, 서비스 디스커버리 매니저(210)는 상기 정보를 이용하여 서비스를 찾는다.The service discovery manager 210 provides information necessary for selecting a service provider that provides a service. Upon receiving a signal regarding channel selection from the service manager 213, the service discovery manager 210 searches for a service using the information.
서비스 제어 매니저(209)는, 서비스의 선택과 제어를 담당한다. 예를 들어, 서비스 제어 매니저(209)는 사용자가 기존의 방송 방식과 같은 생방송(Live broadcasting) 서비스를 선택하는 경우 IGMP 또는 RTSP 등을 사용하고, VOD(Video on Demand)와 같은 서비스를 선택하는 경우에는 RTSP를 사용하여 서비스의 선택, 제어를 수행한다. 상기 RTSP 프로토콜은 실시간 스트리밍에 대해 트릭 모드(trick mode)를 제공할 수 있다. 또한, 서비스 제어 매니저(209)는 IMS(IP Multimedia Subsystem), SIP(Session Initiation Protocol)를 이용하여 IMS 게이트웨이(250)를 통하는 세션을 초기화하고 관리할 수 있다. 상기 프로토콜들은 일 실시 예이며, 구현 예에 따라 다른 프로토콜을 사용할 수도 있다.The service control manager 209 is responsible for selecting and controlling services. For example, the service control manager 209 uses IGMP or RTSP when the user selects a live broadcasting service such as a conventional broadcasting method, and selects a service such as VOD (Video on Demand). The RTSP is used to perform service selection and control. The RTSP protocol may provide a trick mode for real time streaming. In addition, the service control manager 209 may initialize and manage a session through the IMS gateway 250 using an IP Multimedia Subsystem (IMS) or a Session Initiation Protocol (SIP). The protocols are one embodiment, and other protocols may be used depending on implementation.
메타데이터 매니저(212)는, 서비스와 연관된 메타데이터를 관리하고 상기 메타데이터를 SI&메타데이터 데이터베이스(211)에 저장한다.The metadata manager 212 manages metadata associated with the service and stores the metadata in the SI & metadata database 211.
SI&메타데이터 데이터베이스(211)는, SI 디코더(204)가 디코딩한 서비스 정보, 메타데이터 매니저(212)가 관리하는 메타데이터 및 서비스 디스커버리 매니저(210)가 제공하는 서비스 프로바이더를 선택하는데 필요한 정보를 저장한다. 또한, SI&메타데이터 데이터베이스(211)는 시스템에 대한 세트-업 데이터 등을 저장할 수 있다.The SI & metadata database 211 stores service information decoded by the SI decoder 204, metadata managed by the metadata manager 212, and information necessary to select a service provider provided by the service discovery manager 210. Save it. In addition, the SI & metadata database 211 can store set-up data and the like for the system.
SI&메타데이터 데이터베이스(211)는, 비휘발성 메모리(Non-Volatile RAM: NVRAM) 또는 플래시 메모리(flash memory) 등을 사용하여 구현될 수도 있다.The SI & metadata database 211 may be implemented using non-volatile memory (NVRAM), flash memory, or the like.
한편, IMS 게이트웨이(250)는, IMS 기반의 IPTV 서비스에 접근하기 위해 필요한 기능들을 모아 놓은 게이트웨이이다.Meanwhile, the IMS gateway 250 is a gateway that collects functions necessary for accessing an IMS-based IPTV service.
저장부(미도시)는, 각 신호 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. 또한, 저장부는 외부 디바이스 인터페이스부 또는 네트워크 인터페이스부(201)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 저장부는, 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다. 저장부는, 외부 디바이스 인터페이스부 또는 네트워크 인터페이스부(201)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다. 또한, 저장부는, 후술하여 설명하는 웹OS 플랫폼(platform) 데이터를 저장할 수도 있다. 저장부는, 예를 들어 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM), 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 디지털 디바이스(200)는, 저장부 내에 저장되어 있는 컨텐트 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.The storage unit (not shown) may store a program for each signal processing and control, or may store a signal-processed video, audio, or data signal. In addition, the storage unit may perform a function for temporarily storing an image, audio, or data signal input from the external device interface unit or the network interface unit 201. The storage unit may store information about a predetermined broadcast channel through a channel storage function. The storage unit may store an application or an application list input from the external device interface unit or the network interface unit 201. In addition, the storage unit may store webOS platform data described below. The storage unit may be, for example, a flash memory type, a hard disk type, a multimedia card micro type, a memory of a card type (eg SD or XD memory, etc.), The storage medium may include at least one type of storage medium (RAM), ROM (EEPROM, etc.). The digital device 200 may provide a user with a content file (video file, still image file, music file, document file, application file, etc.) stored in the storage unit.
상술한 디지털 디바이스(200)는, 고정형 또는 이동형의 ATSC 방식 또는 DVB 방식의 디지털 방송 신호의 처리가 가능한 디지털 방송 수신기일 수 있다. 그 밖에 본 발명에 따른 디지털 디바이스는 도시된 구성 중 필요에 따라 일부 구성을 생략하거나 반대로 도시되진 않은 구성을 더 포함할 수도 있다. 한편, 디지털 디바이스는 상술한 바와 달리, 튜너와 복조부를 구비하지 않고, 네트워크 인터페이스부 또는 외부 디바이스 인터페이스부를 통해서 컨텐트를 수신하여 재생할 수도 있다.The digital device 200 described above may be a digital broadcast receiver capable of processing a fixed or mobile ATSC or DVB digital broadcast signal. In addition, the digital device according to the present invention may omit some of the configurations of the illustrated configurations, or may further include components not shown on the contrary. On the other hand, unlike the above, the digital device does not include a tuner and a demodulator, and may receive and play content through a network interface unit or an external device interface unit.
도 3은 본 발명의 다른 실시 예에 따른 디지털 디바이스를 설명하기 위해 도시한 구성 블록도이다.3 is a block diagram illustrating a digital device according to another embodiment of the present invention.
전술한 도 2에서 고정 디바이스인 디지털 TV를 디지털 디바이스의 일 실시 예로 하여 설명하였고, 도 3에서는 모바일 디바이스를 디지털 디바이스의 다른 실시 예로 설명한다.In FIG. 2, the digital device, which is a fixed device, has been described as an embodiment of the digital device, and FIG.
도 3을 참조하면, 모바일 디바이스(300)는, 무선 통신부(310), A/V(Audio/Video) 입력부(320), 사용자 입력부(330), 센싱부(340), 출력부(350), 메모리(360), 인터페이스부(370), 제어부(380) 및 전원 공급부(390) 등을 포함할 수 있다. Referring to FIG. 3, the mobile device 300 may include a wireless communication unit 310, an A / V input unit 320, a user input unit 330, a sensing unit 340, an output unit 350, The memory 360 may include an interface unit 370, a controller 380, a power supply unit 390, and the like.
이하 각 구성요소에 대해 상세히 설명하면, 다음과 같다.Hereinafter, each component will be described in detail.
무선 통신부(310)는, 모바일 디바이스(300)와 무선 통신 시스템 사이 또는 모바일 디바이스와, 모바일 디바이스가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 또는 그 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(310)는 방송 수신 모듈(311), 이동통신 모듈(312), 무선 인터넷 모듈(313), 근거리 통신 모듈(314) 및 위치정보 모듈(315) 등을 포함할 수 있다.The wireless communication unit 310 may include one or more modules that enable wireless communication between the mobile device 300 and the wireless communication system or between the mobile device and the network in which the mobile device is located. For example, the wireless communication unit 310 may include a broadcast receiving module 311, a mobile communication module 312, a wireless internet module 313, a short range communication module 314, a location information module 315, and the like. .
방송 수신 모듈(311)은, 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 여기서, 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 프로바이더에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(312)에 의해 수신될 수 있다. 방송 관련 정보는 다양한 형태 예를 들어, EPG(Electronic Program Guide) 또는 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다. 방송수신 모듈(311)은 예를 들어, ATSC, DVB-T(Digital Video Broadcasting-Terrestrial), DVB-S(Satellite), MediaFLO(Media Forward Link Only), DVB-H(Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 방송수신 모듈(311)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다. 방송수신 모듈(311)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는, 메모리(360)에 저장될 수 있다.The broadcast receiving module 311 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel. Here, the broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal. The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 312. The broadcast related information may exist in various forms, for example, in the form of an electronic program guide (EPG) or an electronic service guide (ESG). The broadcast receiving module 311 may be, for example, ATSC, DVB-T (Digital Video Broadcasting-Terrestrial), DVB-S (Satellite), MediaFLO (Media Forward Link Only), DVB-H (Handheld), ISDB-T ( Digital broadcasting signals may be received using a digital broadcasting system such as Integrated Services Digital Broadcast-Terrestrial. Of course, the broadcast receiving module 311 may be configured to be suitable for not only the above-described digital broadcasting system but also other broadcasting systems. The broadcast signal and / or broadcast related information received through the broadcast receiving module 311 may be stored in the memory 360.
이동통신 모듈(312)은, 이동 통신망 상에서 기지국, 외부 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 무선 신호는, 음성 신호, 화상 통화 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 312 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice signal, a video call signal, or a text / multimedia message.
무선인터넷 모듈(313)은, 무선 인터넷 접속을 위한 모듈을 포함하여, 모바일 디바이스(300)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless internet module 313 may include a module for wireless internet access and may be embedded or external to the mobile device 300. Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.
근거리통신 모듈(314)은, 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), RS-232, RS-485 등이 이용될 수 있다.The short range communication module 314 refers to a module for short range communication. Short range communication technology, such as Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, RS-232, RS-485, etc. This can be used.
위치정보 모듈(315)은, 모바일 디바이스(300)의 위치 정보 획득을 위한 모듈로서, GPS(Global Position System) 모듈을 예로 할 수 있다.The location information module 315 may be a module for acquiring location information of the mobile device 300, and may use a Global Position System (GPS) module as an example.
A/V 입력부(320)는, 오디오 또는/및 비디오 신호 인풋을 위한 것으로, 이에는 카메라(321)와 마이크(322) 등이 포함될 수 있다. 카메라(321)는, 화상통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(351)에 표시될 수 있다.The A / V input unit 320 is for inputting audio or video signals, and may include a camera 321 and a microphone 322. The camera 321 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the imaging mode. The processed image frame may be displayed on the display unit 351.
카메라(321)에서 처리된 화상 프레임은, 메모리(360)에 저장되거나 무선 통신부(310)를 통하여 외부로 전송될 수 있다. 카메라(321)는, 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 321 may be stored in the memory 360 or transmitted to the outside through the wireless communication unit 310. Two or more cameras 321 may be provided depending on the use environment.
마이크(322)는, 통화 모드 또는 녹음 모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는, 통화 모드인 경우 이동통신 모듈(312)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(322)에는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 322 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data. The processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 312 and output in the call mode. The microphone 322 may be implemented with various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
사용자 입력부(330)는, 사용자가 단말기의 동작 제어를 위한 인풋 데이터를 발생시킨다. 사용자 입력부(330)는, 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠(jog wheel), 조그 스위치(jog switch) 등으로 구성될 수 있다. The user input unit 330 generates input data for the user to control the operation of the terminal. The user input unit 330 may include a key pad, a dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like.
센싱부(340)는, 모바일 디바이스(300)의 개폐 상태, 모바일 디바이스(300)의 위치, 사용자 접촉 유무, 모바일 디바이스의 방위, 모바일 디바이스의 가속/감속 등과 같이 모바일 디바이스(300)의 현재 상태를 감지하여 모바일 디바이스(300)의 동작 제어를 위한 센싱 신호를 발생시킨다. 예를 들어, 모바일 디바이스(300)가 이동되거나 기울어진 경우 모바일 디바이스의 위치 내지 기울기 등을 센싱할 수 있다. 또한, 전원 공급부(390)의 전원 공급 여부, 인터페이스부(370)의 외부 디바이스 결합 여부 등도 센싱할 수도 있다. 한편, 센싱부(340)는, NFC(Near Field Communication) 등을 포함한 근접 센서(341)를 포함할 수 있다.The sensing unit 340 may determine the current state of the mobile device 300 such as an open / closed state of the mobile device 300, a location of the mobile device 300, presence or absence of user contact, orientation of the mobile device, acceleration / deceleration of the mobile device, and the like. The sensing unit generates a sensing signal for controlling the operation of the mobile device 300. For example, when the mobile device 300 is moved or tilted, the position or tilt of the mobile device may be sensed. Also, whether the power supply unit 390 is supplied with power or whether the interface unit 370 is coupled to an external device may be sensed. The sensing unit 340 may include a proximity sensor 341 including near field communication (NFC).
출력부(350)는, 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(351), 음향 출력 모듈(352), 알람부(353), 및 햅틱 모듈(354) 등이 포함될 수 있다.The output unit 350 is to generate an output related to visual, auditory or tactile senses, and may include a display unit 351, a sound output module 352, an alarm unit 353, a haptic module 354, and the like. have.
디스플레이부(351)는, 모바일 디바이스(300)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 모바일 디바이스가 통화 모드인 경우 통화와 관련된 UI 또는 GUI를 표시한다. 모바일 디바이스(300)가 화상 통화 모드 또는 촬영 모드인 경우에는, 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 351 displays (outputs) information processed by the mobile device 300. For example, when the mobile device is in the call mode, the UI or GUI related to the call is displayed. When the mobile device 300 is in a video call mode or a shooting mode, the mobile device 300 displays a captured image and / or a received image, UI, or GUI.
디스플레이부(351)는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이 중에서 적어도 하나를 포함할 수 있다. The display unit 351 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display ( flexible display) and three-dimensional display.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(351)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(351)가 차지하는 영역을 통해 단말기 바디(body)의 후방에 위치한 사물을 볼 수 있다.Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display. A representative example of the transparent display is TOLED (Transparant OLED). The rear structure of the display unit 351 may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 351 of the terminal body.
모바일 디바이스(300)의 구현 형태에 따라 디스플레이부(351)가 2개 이상 존재할 수 있다. 예를 들어, 모바일 디바이스(300)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. According to an implementation form of the mobile device 300, two or more display units 351 may exist. For example, a plurality of display units may be spaced apart or integrally disposed on one surface of the mobile device 300, or may be disposed on different surfaces.
디스플레이부(351)와 터치 동작을 감지하는 센서(이하 '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(351)는 출력 디바이스 이외에 인풋 디바이스로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 351 and a sensor for detecting a touch operation (hereinafter referred to as a touch sensor) form a mutual layer structure (hereinafter referred to as a touch screen), the display unit 351 may input other than an output device. It can also be used as a device. The touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.
터치 센서는 디스플레이부(351)의 특정 부위에 가해진 압력 또는 디스플레이부(351)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 351 or capacitance generated at a specific portion of the display unit 351 into an electrical input signal. The touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.
터치 센서에 대한 터치 인풋이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(380)로 전송한다. 이로써, 제어부(380)는 디스플레이부(351)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller 380. As a result, the controller 380 may determine which area of the display unit 351 is touched.
터치스크린에 의해 감싸지는 모바일 디바이스의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(341)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.The proximity sensor 341 may be disposed in an inner region of the mobile device surrounded by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays. Proximity sensors have a longer life and higher utilization than touch sensors.
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position where the proximity touch is performed by the pointer on the touch screen refers to a position where the pointer is perpendicular to the touch screen when the pointer is in proximity proximity.
상기 근접 센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.The proximity sensor detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.
음향출력모듈(352)은, 호신호 수신, 통화 모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(310)로부터 수신되거나 메모리(360)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(352)은 모바일 디바이스(300)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(352)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The sound output module 352 may output audio data received from the wireless communication unit 310 or stored in the memory 360 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output module 352 may output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the mobile device 300. The sound output module 352 may include a receiver, a speaker, a buzzer, and the like.
알람부(353)는, 모바일 디바이스(300)의 이벤트 발생을 알리기 위한 신호를 출력한다. 모바일 디바이스에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(353)는, 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(351)나 음성 출력 모듈(352)을 통해서도 출력될 수 있어서, 그들(351,352)은 알람부(353)의 일부로 분류될 수도 있다.The alarm unit 353 outputs a signal for notifying occurrence of an event of the mobile device 300. Examples of events occurring in the mobile device include call signal reception, message reception, key signal input, and touch input. The alarm unit 353 may output a signal for notifying the occurrence of an event by vibration, in addition to a video signal or an audio signal. The video signal or the audio signal may also be output through the display unit 351 or the audio output module 352, so that they 351 and 352 may be classified as part of the alarm unit 353.
햅틱 모듈(haptic module)(354)은, 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(354)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(354)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. 햅틱 모듈(354)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉/온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. 햅틱 모듈(354)은, 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(354)은, 모바일 디바이스(300)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 354 generates various tactile effects that a user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 354. The intensity and pattern of vibration generated by the haptic module 354 can be controlled. For example, different vibrations may be synthesized and output or may be sequentially output. In addition to the vibration, the haptic module 354 may be configured to provide a pin array that vertically moves with respect to the contact skin surface, a jetting force or suction force of air through the jetting or suction port, grazing to the skin surface, contact of the electrode, electrostatic force, and the like. Various tactile effects can be generated, such as effects due to the effects of cold / warm reproduction using an element that can absorb heat or generate heat. The haptic module 354 may not only deliver the haptic effect through direct contact, but also may implement the user to feel the haptic effect through muscle sensation such as a finger or an arm. The haptic module 354 may be provided with two or more according to the configuration aspect of the mobile device 300.
메모리(360)는, 제어부(380)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰 북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(360)는 상기 터치스크린 상의 터치 인풋 시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 360 may store a program for the operation of the controller 380 and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.). The memory 360 may store data regarding vibration and sound of various patterns output when a touch input is input on the touch screen.
메모리(360)는, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 모바일 디바이스(300)는 인터넷(internet) 상에서 상기 메모리(360)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 360 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, It may include a storage medium of at least one type of magnetic disk, optical disk. The mobile device 300 may operate in association with web storage that performs a storage function of the memory 360 on the Internet.
인터페이스부(370)는, 모바일 디바이스(300)에 연결되는 모든 외부 디바이스와의 통로 역할을 한다. 인터페이스부(370)는 외부 디바이스로부터 데이터를 전송받거나, 전원을 공급받아 모바일 디바이스(300) 내부의 각 구성 요소에 전달하거나, 모바일 디바이스(300) 내부의 데이터가 외부 디바이스로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 디바이스를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O 포트, 이어폰 포트 등이 인터페이스부(370)에 포함될 수 있다.The interface unit 370 serves as a path to all external devices connected to the mobile device 300. The interface unit 370 receives data from an external device, receives power, transfers the power to each component inside the mobile device 300, or transmits data within the mobile device 300 to the external device. For example, wired / wireless headset port, external charger port, wired / wireless data port, memory card port, port for connecting a device with an identification module, audio input / output (I / O) port, The video I / O port, the earphone port, and the like may be included in the interface unit 370.
식별 모듈은 모바일 디바이스(300)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 디바이스(이하 '식별 디바이스')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 디바이스는 포트를 통하여 단말기와 연결될 수 있다.The identification module is a chip that stores various types of information for authenticating the usage rights of the mobile device 300, and includes a user identification module (UIM), a subscriber identification module (SIM), and a universal user authentication module (UI). Universal Subscriber Identity Module (USIM), and the like. A device equipped with an identification module (hereinafter referred to as an “identification device”) may be manufactured in the form of a smart card. Thus, the identification device can be connected with the terminal via a port.
인터페이스부(370)는, 모바일 디바이스(300)가 외부 크래들(cradle)과 연결될 때, 상기 크래들로부터의 전원이 상기 모바일 디바이스(300)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 모바일 디바이스로 전달되는 통로가 될 수 있다. 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은, 모바일 디바이스가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the mobile device 300 is connected to an external cradle, the interface unit 370 may be a path through which power from the cradle is supplied to the mobile device 300 or may be input by the user from the cradle. It may be a passage through which a command signal is transmitted to the mobile device. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile device is correctly mounted in the cradle.
제어부(380)는, 통상적으로 모바일 디바이스(300)의 전반적인 동작을 제어한다. 제어부(380)는 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(380)는, 멀티미디어 재생을 위한 멀티미디어 모듈(381)을 구비할 수도 있다. 멀티미디어 모듈(381)은, 제어부(380) 내에 구현될 수도 있고, 제어부(380)와 별도로 구현될 수도 있다. 제어부(380)는, 터치-스크린상에서 행해지는 필기 인풋 또는 그림 그리기 인풋을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식(pattern recognition) 처리를 행할 수 있다.The controller 380 typically controls the overall operation of the mobile device 300. The controller 380 performs, for example, related control and processing for voice call, data communication, video call, and the like. The controller 380 may include a multimedia module 381 for multimedia playback. The multimedia module 381 may be implemented in the controller 380 or may be implemented separately from the controller 380. The controller 380 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on a touch-screen as a character and an image, respectively.
전원 공급부(390)는, 제어부(380)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 390 receives an external power source and an internal power source under the control of the controller 380 to supply power for operation of each component.
여기에 설명되는 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 디바이스로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays, 프로세서, 제어기, 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 제어부(380) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of a processor, a controller, micro-controllers, microprocessors, and other electrical units for performing other functions. Examples may be implemented by the controller 380 itself.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여 진 소프트웨어 애플리케이션으로 소프트웨어 코드(software code)가 구현될 수 있다. 여기서, 소프트웨어 코드는, 메모리(360)에 저장되고, 제어부(380)에 의해 실행될 수 있다.According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. Software code may be implemented in software applications written in a suitable programming language. Here, the software code may be stored in the memory 360 and executed by the controller 380.
한편, 이동 단말기는 사용자가 주로 손에 쥐고 사용하는 차원을 넘어서, 신체에 착용할 수 있는 웨어러블 디바이스(wearable device)로 확장될 수 있다. 이러한 웨어러블 디바이스에는 스마트 워치(smart watch), 스마트 글래스(smart glass), HMD(head mounted display) 등이 있다. 이하, 웨어러블 디바이스로 확장된 이동 단말기의 예들에 대하여 설명하기로 한다.On the other hand, the mobile terminal can be extended to a wearable device that can be worn on the body beyond the user mainly holding in the hand. Such wearable devices include a smart watch, a smart glass, a head mounted display (HMD), and the like. Hereinafter, examples of the mobile terminal extended to the wearable device will be described.
웨어러블 디바이스는 다른 이동 단말기(300)와 데이터를 상호 교환(또는 연동) 가능하게 이루어질 수 있다. 근거리 통신 모듈(314)은, 이동 단말기(300) 주변에 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(380)는 감지된 웨어러블 디바이스가 이동 단말기(300)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(300)에서 처리되는 데이터의 적어도 일부를, 근거리 통신 모듈(314)을 통하여 웨어러블 디바이스로 전송할 수 있다. 따라서, 사용자는 이동 단말기(300)에서 처리되는 데이터를 웨어러블 디바이스를 통하여 이용할 수 있다. 예를 들어, 이동 단말기(300)에 전화가 수신된 경우 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 이동 단말기(300)에 메시지가 수신된 경우 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.The wearable device may be configured to exchange (or interlock) data with another mobile terminal 300. The short range communication module 314 may detect (or recognize) a wearable device that can communicate around the mobile terminal 300. Further, when the detected wearable device is a device that is authenticated to communicate with the mobile terminal 300, the controller 380 transmits at least a part of data processed by the mobile terminal 300 to the wearable device through the short range communication module 314. Can be sent to. Accordingly, the user may use data processed by the mobile terminal 300 through the wearable device. For example, when a call is received by the mobile terminal 300, a phone call may be performed through the wearable device, or when the message is received by the mobile terminal 300, the received message may be confirmed through the wearable device. .
본 명세서에서 설명하는 디지털 디바이스는, 웹OS 플랫폼(platform)에 의해 동작될 수 있다. 이하 웹OS 기반의 구성 내지 알고리즘 등 처리 과정은, 전술한 디지털 디바이스의 제어부 등에서 수행될 수 있다. 여기서, 상기 제어부는 전술한 제어부를 포함하여 광의의 개념으로 사용한다. 따라서, 이하에서는 디지털 디바이스 내 웹OS 기반의 또는 그와 관련된 서비스, 애플리케이션, 컨텐트 등의 처리를 위해 구성은 관련 소프트웨어(software), 펌웨어(firmware) 등을 포함한 하드웨어 내지 구성요소는 제어부(controller)로 명명하여 설명할 수 있다.The digital device described herein may be operated by a webOS platform. Hereinafter, a webOS-based configuration or algorithm or the like may be performed by the controller of the above-described digital device. Here, the control unit includes the above-described control unit and uses the concept broadly. Therefore, hereinafter, the configuration for the processing of WebOS-based or related services, applications, content, etc. in the digital device, the hardware or components including the related software (software), firmware (firmware), etc. to the controller (controller) Can be explained by naming.
이러한 웹OS 기반 플랫폼은 예컨대, 루나-서비스 버스(Luna-service Bus)에 기반하여 서비스, 애플리케이션 등을 통합함으로써, 개발 독립성과 기능 확장성을 제고하기 위한 것으로, 웹 애플리케이션 프레임워크에 기반하여 애플리케이션 개발 생산성도 높일 수 있다. 또한, 웹OS 프로세스와 리소스 관리(resource management)를 통해 시스템 리소스(system resource) 등을 효율적으로 활용하여 멀티-태스킹(multi-tasking)도 지원할 수 있다.The webOS based platform is designed to enhance development independence and function scalability by integrating services and applications based on the Luna-service bus, for example, and to develop applications based on the web application framework. Productivity can also be increased. In addition, multi-tasking may be supported by efficiently utilizing system resources through webOS processes and resource management.
한편, 본 명세서에서 기술하는 웹OS 플랫폼은 PC, TV, 셋톱박스(STB)와 같은 고정 디바이스뿐만 아니라 휴대폰, 스마트 폰, 태블릿 pc, 노트북, 웨어러블 디바이스(wearable device) 등과 같은 모바일 디바이스에서도 이용 가능하다.Meanwhile, the webOS platform described in the present specification may be used in mobile devices such as mobile phones, smart phones, tablet pcs, notebooks, and wearable devices, as well as fixed devices such as PCs, TVs, and STBs. .
디지털 디바이스를 위한 소프트웨어의 구조는, 종래 문제 해결과 시장에 의존적인 모놀리틱 구조(monolithic structure)로 멀티쓰레딩 기술(multi-threading)에 기반한 단일 프로세스(single process)와 클로우즈드 제품(closed product)으로 외부 응용에 어려움이 있었고, 그 이후 새로운 플랫폼 기반 개발을 지향하고 칩-셋(chip-set) 교체를 통한 비용 혁신과 UI 응용 및 외부 응용 개발 효율화를 추구하여 레이어링 및 콤포넌티제이션(layering & componentization)이 이루어져 3-레이어드 구조와 애드-온(add-on), 싱글 소스 제품(single source product), 오픈 애플리케이션(open application)을 위한 애드-온 구조(Add-on structure)를 가졌었다. 최근에는 더 나아가 소프트웨어 구조가 기능 단위의 모듈화 아키텍처(modulating architecture), 에코-시스템(echo-system)을 위한 웹 오픈 API(Web Open API (Application Programming Interface)) 제공, 게임 엔진(game engine)을 위한 네이티브 오픈 API(Native Open API) 등을 위한 모듈화 디자인이 이루어지고 있으며, 이에 따라 서비스 구조 기반의 멀티-프로세스 구조(multi-process structure)로 생성되고 있다.The architecture of software for digital devices is a monolithic structure that is based on conventional problem solving and market-dependent monolithic structures, and is a single process and closed product based on multi-threading technology. Afterwards, there was a difficulty in external application, and after that, we aimed for new platform-based development, and then layered and componentized by pursuing cost innovation and efficient UI and external application development through chip-set replacement. ), Which had a three-layered structure, add-on, single source product, and add-on structure for open applications. In recent years, the software architecture has been further developed to provide a modular architecture of functional units, to provide a Web Open API (Application Programming Interface) for the eco-system, and to provide a game engine. Modular design for the native open API (Native Open API), etc. is being made, and accordingly, it is generated as a multi-process structure based on the service structure.
도 4는 본 발명의 일 실시 예에 따른 웹OS 아키텍처를 설명하기 위해 도시한 도면이다.4 is a diagram illustrating a webOS architecture according to an embodiment of the present invention.
도 4를 참조하여, 웹OS 플랫폼의 아키텍처에 대해 설명하면, 다음과 같다. Referring to Figure 4, the architecture of the WebOS platform will be described.
상기 플랫폼은 크게 커널, 시스템 라이브러리(system library) 기반의 웹OS 코어 플랫폼(Web OS core platform), 애플리케이션, 서비스 등으로 구분할 수 있다.The platform may be largely classified into a kernel, a system library based web OS core platform, an application, a service, and the like.
웹OS 플랫폼의 아키텍처는, 레이어드 구조(layered structure)로 최하위의 레이어에는 OS, 다음 레이어에는 시스템 라이브러리(들) 그리고 최상위에는 애플리케이션들(applications)이 존재한다. 먼저, 최하위 레이어는, OS 레이어로 리눅스 커널(Linux Kernel)이 포함되어 상기 디지털 디바이스의 OS로 리눅스를 포함할 수 있다. 상기 OS 레이어 상위에는, BSP(Board Support Package)/HAL(Hardware Abstraction Layer) 레이어, 웹OS 코어 모듈 레이어(Web OS core modules layer), 서비스 레이어(service layer), 루나-서비스 버스 레이어(Luna-Service Bus layer), 엔요 프레임워크/NDK(Native Developer’s Kit)/QT 레이어(Enyo framework/NDK/QT layer) 그리고 최상위 레이어에는 애플리케이션 레이어(Application layer)가 순차로 존재한다. 한편, 상술한 웹OS 레이어 구조 중 일부 레이어는 생략 가능하며, 복수의 레이어가 하나의 레이어화 되거나 반대로 하나의 레이어가 복수의 레이어 구조가 될 수도 있다. 상기 웹OS 코어 모듈 레이어는, 서피스 윈도우(surface window) 등을 관리하는 LSM(Luna Surface Manager), 애플리케이션의 실행과 수행 상태 등을 관리하는 SAM(System & Application Manager), 웹키트(WebKit)에 기반하여 웹 애플리케이션 등을 관리하는 WAM(Web Application Manager) 등을 포함할 수 있다.The architecture of the WebOS platform is a layered structure, with the OS at the bottom layer, system library (s) at the next layer, and applications at the top. First, the lowest layer may include a Linux kernel as an OS layer and include Linux as an OS of the digital device. Above the OS layer, Board Support Package (BSP) / Hardware Abstraction Layer (HAL) layer, Web OS core modules layer, Service layer, Luna-Service bus layer In the bus layer, the Enyo framework / NDK / QT layer, and the top layer, the application layer is sequentially present. Meanwhile, some layers of the above-described webOS layer structure may be omitted, and a plurality of layers may be one layer or conversely, one layer may have a plurality of layer structures. The webOS core module layer is based on a Luna Surface Manager (LSM) that manages surface windows, etc., a System & Application Manager (SAM), a WebKit (WebKit) that manages execution and execution states of applications, etc. It may include a WAM (Web Application Manager) for managing a web application.
상기 LSM은, 화면에 보이는 애플리케이션 윈도우(application window)를 관리한다. 상기 LSM은, 디스플레이 하드웨어(Display HW)를 관장하며, 애플리케이션들에게 필요한 내용을 렌더링(rendering)할 수 있는 버퍼(buffer)를 제공하며, 복수의 애플리케이션들이 렌더링한 결과를 합성(composition)하여 화면에 출력할 수 있다.The LSM manages an application window displayed on the screen. The LSM manages the display hardware, provides a buffer for rendering the contents required by the applications, and synthesizes the rendering results of the plurality of applications on the screen. You can print
상기 SAM은, 시스템과 애플리케이션의 여러 조건별 수행 폴리시(policy)를 관리한다.The SAM manages performance policies for various conditions of systems and applications.
한편, WAM은, 웹OS는 웹 애플리케이션(Web App)을 기본 애플리케이션으로 볼 수 있는바, 엔요 프레임워크(Enyo Framework)에 기반한다.WAM, on the other hand, is based on the Enyo Framework, which can be viewed as a web application as a basic application.
애플리케이션의 서비스 사용은, 루나-서비스 버스(Luna-service Bus)를 통해 이루어지며, 신규로 서비스를 버스에 등록할 수 있고, 애플리케이션은 자신이 필요로 하는 서비스를 찾아서 사용할 수도 있다.The service use of the application is made through the Luna-service bus, and the service can be newly registered on the bus, and the application can find and use the service that it needs.
상기 서비스 레이어는, TV 서비스, 웹OS 서비스 등 다양한 서비스 레벨(service level)의 서비스들이 포함될 수 있다. 한편, 상기 웹OS 서비스에는, 미디어 서버, Node.JS 등이 포함될 수 있으며 특히, Node.JS 서비스는 예컨대, 자바스크립트(Javascript)를 지원한다.The service layer may include services of various service levels, such as a TV service and a WebOS service. The webOS service may include a media server, Node.JS, and the like. In particular, the Node.JS service supports, for example, JavaScript.
웹OS 서비스는, 기능 로직(function logic)을 구현한 리눅스 프로세스(Linux process)로 버스를 통해 커뮤니케이션 할 수 있다. 이는 크게 네 파트로 구분될 수 있으며, TV 프로세스와 기존 TV로부터 웹OS에 미티그레이션(Migration)되거나 제조사 차별화 서비스인 서비스들, 웹OS 공통 서비스와 자바스크립트로 개발되고 Node.js를 통해 사용되는 Node.js 서비스로 구성된다.WebOS services can communicate over the bus to Linux processes that implement function logic. It can be divided into four parts, which are migrated from the TV process and the existing TV to webOS or services that are differentiated from manufacturers, webOS common service and JavaScript developed and used through Node.js. It consists of a Node.js service.
상기 애플리케이션 레이어는, TV 애플리케이션, 쇼케이스(showcase) 애플리케이션, 네이티브 애플리케이션(native application), 웹 애플리케이션 등 디지털 디바이스에서 지원 가능한 모든 애플리케이션들을 포함할 수 있다.The application layer may include all applications that can be supported in a digital device, such as a TV application, a showcase application, a native application, and a web application.
웹OS 상의 애플리케이션은, 구현 방법에 따라 웹 애플리케이션, PDK(Palm Development Kit) 애플리케이션, QML(Qt Meta Language or Qt Modeling Language) 애플리케이션 등으로 구분될 수 있다. 상기 웹 애플리케이션은, 웹키트 엔진(WebKit engine)에 기반하고, WAM 런타임(Runtime) 상에서 수행된다. 이러한 웹 애플리케이션은 엔요 프레임워크에 기반하거나, 일반 HTML5, CSS(Cascading Style Sheets), 자바스크립트 기반으로 개발되어 수행될 수 있다. 상기 PDK 애플리케이션은, 써드-파티(3rd-Party) 또는 외부 개발자를 위해 제공된 PDK에 기반하여 C/C++로 개발되는 네이티브 애플리케이션 등을 포함한다. 상기 PDK는, 게임 등 써드 파티가 네이티브 애플리케이션(C/C++)을 개발할 수 있도록 제공된 개발 라이브러리 및 도구 집합을 말한다. 예를 들어, PDK 애플리케이션은, 그 성능이 중요한 애플리케이션의 개발에 이용될 수 있다. 상기 QML 애플리케이션은, Qt 기반의 네이티브 애플리케이션으로, 카드 뷰(card view), 홈 대시보드(Home dashboard), 가상 키보드(virtual keyboard) 등 웹OS 플랫폼과 함께 제공되는 기본 애플리케이션 등을 포함한다. 여기서, QML은, C++ 대신 스크립트 형태의 마크-업 언어(mark-up language)이다. 한편, 상기에서, 네이티브 애플리케이션은, C/C++로 개발되고 컴파일(compile)되어 바이너리(binary) 형태로 수행되는 애플리케이션을 말하는 것으로, 이러한 네이티브 애플리케이션은 그 수행 속도가 빠른 장점이 있다.The application on the web OS may be classified into a web application, a Palm Development Kit (PDK) application, a Qt Meta Language or Qt Modeling Language (QML) application, and the like according to an implementation method. The web application is based on the WebKit engine and runs on the WAM Runtime. Such web applications may be based on the Enyo framework, or may be developed and executed based on general HTML5, Cascading Style Sheets (CSS), or JavaScript. The PDK application includes a third-party or native application developed in C / C ++ based on a PDK provided for an external developer. The PDK refers to a development library and a set of tools provided to enable a third party such as a game to develop a native application (C / C ++). For example, a PDK application can be used for the development of applications whose performance is important. The QML application is a Qt-based native application, and includes a basic application provided with a web OS platform such as a card view, a home dashboard, a virtual keyboard, and the like. Here, QML is a mark-up language in script form instead of C ++. Meanwhile, in the above, the native application refers to an application that is developed in C / C ++, compiled, and executed in a binary form. Such a native application has an advantage in that its execution speed is fast.
도 5는 본 발명의 일 실시 예에 따른 웹OS 디바이스의 아키텍처를 설명하기 위해 도시한 도면이다. 5 is a diagram illustrating an architecture of a webOS device according to an embodiment of the present invention.
도 5는 웹OS 디바이스의 런타임에 기반한 블록도로서, 이는 도 4의 레이어드 구조를 참조하여 이해할 수 있다.FIG. 5 is a block diagram based on the runtime of a WebOS device, which can be understood with reference to the layered structure of FIG. 4.
이하, 도 4와 5를 참조하여 설명하면, 다음과 같다. 도 5를 참조하면, 시스템 OS(Linux)와 시스템 라이브러리들 상에 서비스들과 애플리케이션들 그리고 웹OS 코어 모듈들이 포함되고 그들 사이의 커뮤니케이션은 루나-서비스 버스를 통해 이루어질 수 있다.Hereinafter, a description will be given with reference to FIGS. 4 and 5. Referring to FIG. 5, services and applications and WebOS core modules are included on a system OS (Linux) and system libraries, and communication therebetween may be via a luna-service bus.
이메일(e-mail), 연락처(contact), 캘린더(calendar) 등 HTML5, CSS, 자바스크립트(java script)에 기초한 Node.js 서비스들, 로깅(Logging), 백업(backup), 파일 노티파이(file notify), 데이터베이스(DB), 액티비티 매니저(activity manager), 시스템 폴리시(system policy), 오디오 데몬(AudioD: Audio Daemon), 업데이트(update), 미디어 서버(media server) 등과 같이 웹OS 서비스들, EPG(Electronic Program Guide), PVR(Personal Video Recorder), 데이터 방송(data broadcasting) 등과 같은 TV 서비스들, 음성 인식(voice recognition), 나우 온(Now on), 노티피케이션(Notification), 검색(search), ACR(Auto Content Recognition), CBOX(Contents List Broswer), wfdd, DMR, 리모트 애플리케이션(Remote Application), 다운로드, SDPIF(Sony Philips Digital Interface Format) 등과 같은 CP 서비스들, PDK 애플리케이션들, 브라우저(browser), QML 애플리케이션 등과 같은 네이티브 애플리케이션들 그리고, 엔요 프레임워크 기반의 UI 관련 TV 애플리케이션들과 웹 애플리케이션들은, 루나-서비스 버스를 통하여 전술한 SAM, WAM, LSM과 같은 웹OS 코어 모듈을 통해 처리가 이루어진다. 한편, 상기에서, TV 애플리케이션들과 웹 애플리케이션들은 반드시 엔요 프레임워크 기반 또는 UI 관련이 아닐 수도 있다.Node.js services based on HTML5, CSS, JavaScript, e-mail, contacts, calendar, logging, backup, file notifier WebOS services such as notify, database (DB), activity manager, system policy, audio daemon (AudioD), update, media server, etc. TV services such as Electronic Program Guide (PVR), Personal Video Recorder (PVR), data broadcasting, etc., voice recognition, Now on, Notification, search CP services such as ACR (Auto Content Recognition), CBOX (Contents List Broswer), wfdd, DMR, Remote Application, Download, SDPIF (Sony Philips Digital Interface Format), PDK applications, browser , Native applications such as QML applications And the enyo framework based on the TV UI-related applications and web applications, Luna - made the process via the Web OS core modules, such as the aforementioned SAM, WAM, LSM via the service bus. Meanwhile, in the above, TV applications and web applications may not necessarily be Enyo framework based or UI related.
CBOX는 TV에 연결된 USB, DLNA, 클라우드 등과 같은 외부 디바이스의 컨텐트에 대한 리스트와 메타데이터 등을 관리할 수 있다. 한편, CBOX는 USB, DMS, DVR, 클라우드 등과 같은 다양한 컨텐트 컨테이너들(content containers)의 컨텐트 리스팅을 통합된 뷰(View)로 출력할 수 있다. 또한, CBOX는 픽쳐, 음악, 비디오 등 다양한 타입들의 컨텐트 리스팅을 보여주고, 그 메타데이터를 관리할 수 있다. 그 밖에, CBOX는, 어태치 된 저장장치(attached storage)의 컨텐츠를 리얼-타임(Real-time)으로 출력할 수 있다. 예컨대, CBOX는, USB 등의 저장 디바이스가 플러그-인(plug-in) 되면, 해당 저장 디바이스의 컨텐츠 리스트를 즉시 출력할 수 있어야 한다. 이때, 상기 컨텐트 리스팅 처리를 위한 표준화된 방식을 정의할 수도 있다. 또한, CBOX는 다양한 연결 프로토콜을 수용할 수 있다.CBOX can manage the list and metadata of the content of external devices such as USB, DLNA, cloud, etc. connected to the TV. Meanwhile, the CBOX may output content listings of various content containers such as USB, DMS, DVR, cloud, etc. in an integrated view. In addition, the CBOX can display various types of content listings such as pictures, music, and videos, and manage its metadata. In addition, the CBOX may output the contents of the attached storage in real-time. For example, when a storage device such as USB is plugged in, the CBOX should be able to immediately output a content list of the storage device. In this case, a standardized method for processing the content listing may be defined. In addition, CBOX can accommodate a variety of connection protocols.
SAM은, 모듈 복잡도의 개선 및 확장성을 제고하기 위한 것이다. 이는 예컨대, 기존 시스템 매니저(System Manager)는 시스템 UI, 윈도우 관리, 웹 애플리케이션 런타임, UX 상의 제약 조건 처리 등의 여러 기능을 하나의 프로세스에서 처리하여 구현 복잡도가 커 이를 해소하고자 주요 기능을 분리하고 기능 간 인터페이스를 명확히 함으로써 구현 복잡도를 낮춘다.SAM is intended to improve module complexity and enhance scalability. For example, the existing System Manager processes multiple functions such as system UI, window management, web application runtime, and handling constraints on UX in one process, so that the complexity of implementation is large. Clear implementation interfaces reduce implementation complexity.
LSM은, 카드 뷰, 런처(launcher) 등 시스템 UX 구현이 독립적으로 개발 통합될 수 있도록 지원하고, 제품 요구사항 변경 등에 쉽게 대응할 수 있도록 지원한다. 한편, LSM은, 앱온앱(App on App) 등과 같이 복수의 애플리케이션 화면을 합성하는 경우에 하드웨어 리소스(HW resource)를 최대한 활용하여 멀티-태스킹이 가능하도록 하는데, 멀티-윈도우(multi-window)와 21:9 등을 위한 윈도우 매니지먼트 메커니즘(window management mechanism)을 제공할 수 있다. LSM은, QML에 기반하여 시스템 UI의 구현을 지원하며, 그 개발 생산성을 제고한다. QML UX는 MVC에 기반하여, 화면 레이아웃(Layout) 및 UI 컴포넌트를 쉽게 뷰를 구성할 수 있고, 사용자 입력을 처리하기 위한 코드를 쉽게 개발할 수도 있다. 한편, QML과 웹OS 컴포넌트 간의 인터페이스는 QML 확장 플러그-인을 통해 이루어지며, 애플리케이션의 그래픽 오퍼레이션(graphic operation)은 웨이랜드 프로토콜(wayland protocol), 루나 서비스 콜(luna-service call) 등에 기반할 수 있다. LSM은 전술한 바와 같이, Luna Surface Manager의 약어로서, 애플리케이션 윈도우 컴포지터(Application Window Compositor)의 기능을 한다. LSM은 독립적으로 개발된 애플리케이션, UI 컴포넌트 등을 화면에 합성하여 출력하도록 한다. 관련하여, 리센츠(Recents) 애플리케이션, 쇼케이스 애플리케이션, 런처 애플리케이션 등과 같은 컴포넌트(component)들이 각자 자신의 내용을 렌더링(rendering)하면, LSM은 컴포지터로서 출력 영역, 연동 방법 등에 대해 정의한다. 다시 말해, 컴포지터인 LSM은 그래픽 합성, 포커스 관리(focus management), 인풋 이벤트(input event) 등을 처리한다. 이때, LSM은 인풋 매니저(input manager)로부터 이벤트, 포커스 등을 수신하는데 이러한 인풋 매니저로 리모트 컨트롤러, 마우스 & 키보드와 같은 HID, 조이스틱, 게임 패드, 애플리케이션 리모트, 펜 터치 등이 포함될 수 있다. 이와 같이, LSM은 멀티플 윈도우 모델(multiple window model)을 지원하는데 시스템 UI 성격으로 모든 애플리케이션에서 동시에 수행 가능하다. 관련하여, 런쳐, 리센츠, 세팅(setting), 노티피케이션, 시스템 키보드, 볼륨 UI, 검색, 핑거 제스쳐(finger gesture), 음성인식(Voice Recognition)(STT(Speech to Text), TTS(Text to Speech), NLP(Natural Language Processing) 등), 패턴 제스쳐(pattern gesture)(카메라, MRCU(Mobile Radio Control Unit)), 라이브 메뉴(Live menu), ACR(Auto Content Recognition) 등을 LSM이 지원할 수 있다.LSM supports the development and integration of system UX implementations, such as card views and launcher, independently, and makes it easy to respond to changes in product requirements. On the other hand, LSM, in the case of synthesizing a plurality of application screens such as an App on App (multiple window) to enable the multi-tasking to maximize the hardware resources (HW resources), multi-window (multi-window) and It can provide a window management mechanism (21: 9, etc.). LSM supports the implementation of system UI based on QML and improves its development productivity. QML UX is based on MVC, which makes it easy to compose views of layouts and UI components, and to easily develop code to handle user input. On the other hand, the interface between QML and WebOS components is made through QML extension plug-in, and the graphic operation of the application may be based on the wayland protocol, luna-service call, and so on. have. As mentioned above, LSM stands for Luna Surface Manager and functions as an application window compositor. LSM allows you to synthesize independently developed applications, UI components, etc. on the screen. In this regard, when components such as a Recents application, a showcase application, a launcher application, and the like, each render their own content, the LSM defines a output area, an interworking method, and the like as a compositor. In other words, the compositor, LSM, handles graphics compositing, focus management, input events, and so on. In this case, the LSM receives an event, focus, and the like from an input manager. The input manager may include a remote controller, a HID such as a mouse & keyboard, a joystick, a game pad, an application remote, a pen touch, and the like. As such, LSM supports multiple window models, which can be executed simultaneously in all applications due to the system UI. Related, Launcher, Recents, Settings, Notification, System Keyboard, Volume UI, Search, Finger Gesture, Voice Recognition (STT (Speech to Text), TTS (Text to LSM can support Speech, Natural Language Processing (NLP), pattern gestures (camera, Mobile Radio Control Unit (MRCU)), Live menu, Auto Content Recognition (ACR), etc. .
도 6은 본 발명의 일 실시 예에 따른 웹OS 디바이스에서 그래픽 컴포지션 플로우(graphic composition flow)를 설명하기 위해 도시한 도면이다.FIG. 6 is a diagram illustrating a graphic composition flow in a webOS device according to one embodiment of the present invention.
도 6을 참조하면, 그래픽 컴포지션 처리는, UI 프로세스를 담당하는 웹 애플리케이션 매니저(610), 웹 프로세스를 담당하는 웹키트(Webkit)(620), LSM(630) 그리고 그래픽 매니저(GM: Graphic Manager)(640)를 통해 이루어질 수 있다.Referring to FIG. 6, the graphic composition process includes a web application manager 610 in charge of a UI process, a webkit 620 in charge of a web process, a LSM 630, and a graphic manager (GM). 640.
웹 애플리케이션 매니저(610)에서 UI 프로세스로서 웹 애플리케이션 기반의 그래픽 데이터(또는 애플리케이션)가 생성이 되면, 생성된 그래픽 데이터가 풀-스크린 애플리케이션이 아니면 LSM(630)으로 전달한다. 한편, 웹 애플리케이션 매니저(610)는 UI 프로세스와 웹 프로세스 사이에 그래픽 매니징을 위한 GPU(Graphic Processing Unit) 메모리 공유를 위하여 웹키트(620)에서 생성된 애플리케이션을 수신하여 이를 상기와 같이 풀-스크린 애플리케이션이 아닌 경우에는 LSM(630)으로 전달한다. 상기에서 풀-스크린 애플리케이션인 경우에는, LSM(630)을 바이패스(bypass)할 수 있으며, 이 경우 직접 그래픽 매니저(640)로 전달될 수 있다.When the web application-based graphic data (or application) is generated as a UI process in the web application manager 610, the generated graphic data is transferred to the LSM 630 if the graphic data is not a full-screen application. Meanwhile, the web application manager 610 receives an application generated in the web kit 620 for sharing a GPU (Graphic Processing Unit) memory for graphic management between the UI process and the web process, and as a full-screen as described above. If it is not the application passes to the LSM (630). In the case of the full-screen application, the LSM 630 may be bypassed, and in this case, the LSM 630 may be directly transferred to the graphic manager 640.
LSM(630)은 수신되는 UI 애플리케이션을 웨이랜드 서피스를 거쳐 웨이랜드 컴포지터(Wayland Compositor)로 전송하고, 웨이랜드 컴포지터에서 이를 적절히 처리하여 그래픽 매니저로 전달한다. 이렇게 LSM(630)에서 전달되는 그래픽 데이터는 예컨대, 그래픽 매니저(640)의 LSM GM 서피스를 거쳐 그래픽 매니저 컴포지터를 전달된다.The LSM 630 transmits the received UI application to the Wayland Compositor via the Wayland surface, and processes the received UI application to the graphic manager. The graphic data delivered from the LSM 630 is delivered to the graphic manager compositor via, for example, the LSM GM surface of the graphic manager 640.
한편, 풀-스크린 애플리케이션은 전술한 바와 같이, LSM(630)을 거치지 않고 바로 그래픽 매니저(640)로 전달이 되는데 이러한 애플리케이션은 WAM GM 서피스로 거쳐 그래픽 매니저 컴포지터에서 처리된다. 그래픽 매니저는 웹OS 디바이스 내의 모든 그래픽 데이터를 처리하는데, 전술한 LSM GM 서피스를 거친 데이터, WAM GM 서피스를 거친 데이터뿐 아니라 데이터 방송 애플리케이션(Data Broadcasting application), 캡션 애플리케이션(caption application) 등과 같이 GM 서피스를 거친 그래픽 데이터를 모두 수신하여 화면상에 적절히 출력되도록 처리한다. 여기서, GM 컴포지터의 기능은 전술한 컴포지터와 동일 또는 유사한 기능이다.On the other hand, as described above, the full-screen application is delivered directly to the graphic manager 640 without passing through the LSM 630, which is processed by the graphic manager compositor via the WAM GM surface. The graphics manager handles all graphic data in the webOS device, including GM surfaces such as data broadcasting applications, caption applications, as well as data via the LSM GM surfaces and WAM GM surfaces described above. Receives all the graphic data that has passed through and processes it to be properly displayed on the screen. Here, the function of the GM compositor is the same as or similar to that of the compositor described above.
도 7은 본 발명의 일 실시 예에 따른 미디어 서버를 설명하기 위해 도시한 도면이고, 도 8은 본 발명의 일 실시 예에 따른 미디어 서버의 구성 블록도를 설명하기 위해 도시한 도면이고, 도 9는 본 발명의 일 실시 예에 따른 미디어 서버와 TV 서비스의 관계를 설명하기 위해 도시한 도면이다.FIG. 7 is a diagram illustrating a media server according to an embodiment of the present invention. FIG. 8 is a diagram illustrating a configuration block diagram of a media server according to an embodiment of the present invention. Is a diagram illustrating a relationship between a media server and a TV service according to an embodiment of the present invention.
도 7을 참조하면, 미디어 서버는, 디지털 디바이스 내 다양한 멀티미디어의 실행을 지원 및 필요한 리소스를 관리한다. 미디어 서버는, 미디어 플레이(media play)에 필요한 하드웨어 리소스를 효율적으로 사용할 수 있다. 예컨대, 미디어 서버는, 멀티미디어의 실행을 위해서는 오디오/비디오 하드웨어 리소스가 필요하며, 리소스 사용 현황을 관리하여 효율적으로 활용할 수 있다. 일반적으로 모바일 디바이스보다 큰 화면을 가진 고정 디바이스는, 멀티미디어 실행 시 하드웨어 리소스가 더 필요하고, 많은 데이터 양으로 인해 인코딩/디코딩 및 그래픽 데이터 전달 속도도 빨라야 한다. 한편, 미디어 서버는, 스트리밍, 파일 기반 재생 이외에, 브로드캐스팅(broadcasting), 레코딩(recording) 및 튜닝(tuning) 태스크, 시청과 동시에 녹화를 한다거나, 영상 통화 시 송신자와 수신자 화면을 동시에 보여준다거나 하는 태스크 등을 처리할 수 있어야 한다. 다만, 미디어 서버는, 인코더, 디코더, 튜너, 디스플레이 엔진(display engine) 등 하드웨어 리소스가 칩-셋 단위로 제한이 있어, 동시에 여러 태스크를 실행하는 것이 어려워 예를 들어, 사용 시나리오를 제약하거나 사용자 선택을 입력받아 처리한다.Referring to FIG. 7, the media server supports the execution of various multimedia in the digital device and manages necessary resources. The media server can efficiently use hardware resources required for media play. For example, the media server requires audio / video hardware resources in order to execute multimedia, and can efficiently utilize the resource usage status. In general, fixed devices with larger screens than mobile devices require more hardware resources to run multimedia and require faster encoding / decoding and graphics data delivery due to the large amount of data. Meanwhile, in addition to streaming and file-based playback, the media server may perform broadcasting, recording, and tuning tasks, simultaneously record a video, or simultaneously display a sender and a receiver screen during a video call. It should be able to handle However, the media server has limited hardware resources such as encoders, decoders, tuners, and display engines on a chip-set basis, making it difficult to execute multiple tasks at the same time. Input is processed.
미디어 서버는, 시스템 안정성을 강화(robustness)할 수 있는데 이는 예컨대, 미디어 재생 중 에러(error)가 발생한 재생 파이프라인(pipeline)을 파이프라인별로 제거 가능하고 재 기동함으로써, 상기와 같이 에러가 발생하는 경우에도 다른 미디어 플레이에 영향을 주지 않을 수 있다. 이러한 파이프라인은, 미디어 재생 요청 시, 디코딩, 분석, 출력 등 각 단위 기능들을 연결한 체인(chain)으로, 미디어 타입(media type) 등에 따라, 필요 단위 기능들이 달라질 수 있다.The media server can enhance the system stability, for example, by removing and restarting a playback pipeline in which an error occurred during media playback by pipeline and restarting the error. Even if it does not affect other media play. Such a pipeline is a chain connecting the respective unit functions such as decoding, analysis, and output when a media play request is requested, and required unit functions may vary according to a media type.
미디어 서버는, 확장성(extensibility)을 가질 수 있는데 예컨대, 새로운 타입의 파이프라인을 기존 구현 방식에 영향을 주지 않고 추가할 수 있다. 일 예로, 미디어 서버는, 카메라 파이프라인, 화상 회의(Skype) 파이프라인, 써드-파티 파이프라인 등을 수용할 수 있다.Media servers can have extensibility, for example, adding new types of pipelines without affecting existing implementations. For example, the media server may accommodate a camera pipeline, a video conference pipeline, a third-party pipeline, and the like.
미디어 서버는, 일반 미디어 재생과 TV 태스크 실행을 별개의 서비스로 처리할 수 있는데, 이는 TV 서비스의 인터페이스가 미디어 재생 경우와는 다르기 때문이다. 상기에서, 미디어 서버는, TV 서비스와 관련하여 ‘setchannel’, ‘channelup’, ‘channeldown’, ‘channeltuning’, ‘recordstart’ 등의 오퍼레이션을 지원하고, 일반 미디어 재생과 관련하여 ‘play’, ‘pause’, ‘stop’ 등의 오퍼레이션을 지원하여 양자에 대해 서로 다른 오퍼레이션을 지원하고, 별개의 서비스로 처리할 수 있다.The media server can handle normal media playback and TV task execution as separate services because the interface of the TV service is different from the media playback case. In the above, the media server supports operations such as' setchannel ',' channelup ',' channeldown ',' channeltuning 'and' recordstart 'in relation to TV service, and' play 'and' pause in relation to general media playback. By supporting operations such as' and 'stop', different operations can be supported for both, and they can be treated as separate services.
미디어 서버는 자원 관리 기능을 통제 또는 통합 관리할 수 있다. 디바이스 내 하드웨어 리소스 할당, 회수 등은, 미디어 서버에서 통합적으로 이루어지며 특히, TV 서비스 프로세스는 실행 중인 태스크와 리소스 할당 현황 등을 미디어 서버로 전달한다. 미디어 서버는, 각 미디어가 실행될 때마다 리소스를 확보하고 파이프라인이 실행되며, 각 파이프라인이 점유한 리소스 현황에 기반하여, 미디어 실행 요청 시 우선 순위(예를 들어, 폴리시)에 의한 실행 허용 및 다른 파이프라인의 리소스 회수 등을 수행한다. 여기서, 미리 정의된 실행 우선 순위와 특정 요청에 대한 필요 리소스 정보가 폴리시 매니저(policy manager)에 의해 관리되고, 리소스 매니저는 상기 폴리시 매니저와 커뮤니케이션하여 리소스 할당, 회수 등을 처리할 수 있다.The media server may control or integrate management of resource management functions. The allocation and retrieval of hardware resources in the device are integrated in the media server. In particular, the TV service process transmits the running task and resource allocation status to the media server. The media server frees resources and executes pipelines as each media runs, allowing execution by priority (e.g., policy) upon request for media execution based on the resource status occupied by each pipeline. Recall resources of other pipelines. Here, predefined execution priority and required resource information for a specific request are managed by a policy manager, and the resource manager may communicate with the policy manager to process resource allocation and retrieval.
미디어 서버는 재생 관련 모든 오퍼레이션에 관한 식별 인자(ID: identifier)를 보유할 수 있다. 예컨대, 미디어 서버는 식별자에 근거하여 특정 파이프라인을 지시하여 명령을 내릴 수 있다. 미디어 서버는, 둘 이상의 미디어 재생을 위하여, 파이프라인들에 둘을 구분하여 명령을 내릴 수 있다. 미디어 서버는 HTML5 표준 미디어의 재생을 담당할 수 있다.The media server may hold an identifier (ID) for all operations related to playback. For example, the media server may direct and direct a particular pipeline based on the identifier. The media server may issue separate commands to the pipelines for more than one media playback. The media server can be responsible for playback of HTML5 standard media.
그 밖에, 미디어 서버는 TV 파이프라인의 별도 서비스 프로세스화는 TV 재구조화 범위에 따를 수 있다. 미디어 서버는, TV 재구조화 범위와 무관하게 설계 구현될 수 있는데, TV가 별도 서비스 프로세스화가 되지 않으면, 특정 태스크에 문제가 생길 때 TV 전체를 재실행해야 할 수도 있다.In addition, the media server may follow the TV restructuring scope of the separate service processing of the TV pipeline. The media server may be designed and implemented regardless of the TV restructuring scope. If the TV is not serviced separately, the media server may need to be re-executed when there is a problem with a specific task.
미디어 서버는, uMS 즉, 마이크로 미디어 서버(micro media server)라고도 한다. 여기서, 미디어 플레이어(media player)가 미디어 클라이언트(media client)인데, 이는 예컨대, HTML5 비디오 태그(video tag), 카메라(Camera), TV, 스카이프(Skype), 세컨드 스크린(2nd Screen) 등을 위한 웹키트(Webkit)를 의미할 수 있다.The media server is also referred to as uMS, or micro media server. Here, the media player is a media client, which is, for example, a web for HTML5 video tag, camera, TV, Skype, 2nd Screen, etc. It can mean a kit.
미디어 서버는, 리소스 매니저(resource manager), 폴리시 매니저(policy manager) 등과 같은 마이크로 리소스(micro resource)의 관리가 핵심 기능이다. 관련하여, 미디어 서버는, 웹 표준 미디어 컨텐트에 대한 재생(playback) 제어 역할도 제어한다. 이와 관련하여, 미디어 서버는 파이프라인 컨트롤러 리소스(pipeline controller resource)도 관리할 수 있다.In the media server, management of micro resources such as a resource manager, a policy manager, and the like is a core function. In this regard, the media server also controls the playback control role for the web standard media content. In this regard, the media server may also manage pipeline controller resources.
이러한 미디어 서버는 예컨대, 확장성(extensibility), 신뢰성(reliability), 리소스의 효율적 사용(efficient resource usage) 등을 지원한다.Such media servers support, for example, extensibility, reliability, efficient resource usage, and the like.
다시 말해, uMS 즉, 미디어 서버는, 클라우드 게임(cloud game), MVPD(pay service 등), 카메라 프리뷰(camera preview), 세컨드 스크린(2nd screen), 스카이프 등과 같은 리소스와 TV 리소스 등의 웹OS 디바이스 내에서 적절한 처리를 위한 리소스 사용을 전반적으로 관리하고 제어하여 효율적인 사용이 가능하도록 관리 제어하는 기능을 한다. 한편, 각 리소스는 그 이용 시에 예컨대, 파이프라인을 이용하는데 미디어 서버는 리소스 관리를 위한 파이프라인의 생성, 삭제, 이용 등을 전반적으로 관리 제어할 수 있다. 여기서, 파이프라인이라 함은 예컨대, 태스크(task)와 관련된 미디어가 요청(request), 디코딩 스트림(decoding stream), 비디오 출력(video output) 등의 파싱(parsing)과 같은 작업의 연속을 시작하면 생성될 수 있다. 예컨대, TV 서비스 내지 애플리케이션과 관련하여, 시청(watching), 녹화(recording), 채널 튜닝(channel tuning) 등은 각각 개별적으로 그 요청에 따라 생성된 파이프라인을 통하여 리소스 이용 등에 대해 제어를 받아 처리된다.In other words, the uMS, that is, the media server, is a webOS device such as a TV game and resources such as cloud game, MVPD (pay service, etc.), camera preview, second screen, skype, and the like. It manages and controls the overall use and control of resource for proper processing within the system. Meanwhile, each resource uses, for example, a pipeline when the resource is used, and the media server can manage and control the creation, deletion, and use of the pipeline for resource management. Herein, a pipeline is created when a media associated with a task starts a continuation of tasks such as parsing a request, a decoding stream, a video output, and the like. Can be. For example, in relation to a TV service or application, watching, recording, channel tuning, and the like are each processed under control of resource usage through a pipeline generated according to the request. .
도 8을 참조하여, 미디어 서버의 처리 구조 등에 대해 더욱 상세하게 설명하면, 다음과 같다.Referring to FIG. 8, the processing structure of the media server and the like will be described in more detail as follows.
도 8에서는, 애플리케이션 또는 서비스는 미디어 서버(820)와 루나-서비스 버스(810)를 통해 연결되고, 상기 미디어 서버(820)는 상기 루나-서비스 버스(810)를 통해 다시 생성된 파이프라인들과 연결되고 관리한다.In FIG. 8, an application or service is connected to a media server 820 via a luna-service bus 810, and the media server 820 is connected to pipelines re-created via the luna-service bus 810. Connect and manage
애플리케이션 또는 서비스는 그 특성에 따라 다양한 클라이언트(client)를 구비하고 그를 통해 미디어 서버(820) 또는 파이프라인과 데이터를 주고 받을 수 있다.An application or service may have various clients according to its characteristics and may exchange data with the media server 820 or pipeline through it.
상기 클라이언트에는 예컨대, 미디어 서버(820)와 연결을 위한 uMedia 클라이언트(웹키트)와 RM(resource manager) 클라이언트(C/C++) 등이 포함된다.The client includes, for example, a uMedia client (web kit) and a resource manager (RM) client (C / C ++) for connecting to the media server 820.
상기 uMedia 클라이언트를 포함한 애플리케이션은, 전술한 바와 같이, 미디어 서버(820)와 연결된다. 더욱 상세하게는, uMedia 클라이언트는 예컨대, 후술할 비디오 오브젝트와 대응되고, 이러한 클라이언트는 요청 등에 의해 비디오의 동작을 위하여 미디어 서버(820)를 이용한다. 여기서, 상기 비디오 동작은 비디오 상태에 관한 것으로, 로딩(loading), 언로딩(unloading), 재생(play, playback, or reproduce), 포즈(pause), 중단(stop) 등은 비디오 동작과 관련된 모든 상태 데이터를 포함할 수 있다. 이러한 비디오의 각 동작 내지 상태는 개별 파이프라인 생성을 통해 처리될 수 있다. 따라서, uMedia 클라이언트는 상기 비디오 동작과 관련된 상태 데이터를 미디어 서버 내 파이프라인 매니저(822)로 전송한다.The application including the uMedia client is connected to the media server 820 as described above. More specifically, the uMedia client corresponds to, for example, a video object to be described later, and the client uses the media server 820 for operation of the video by request. In this case, the video operation relates to a video state, and loading, unloading, play, playback, or reproduce, pause, stop, and the like are all states related to the video operation. May contain data. Each operation or state of such video can be handled through the creation of a separate pipeline. Accordingly, the uMedia client sends the state data related to the video operation to the pipeline manager 822 in the media server.
파이프라인 매니저(822)는, 리소스 매니저(824)와 데이터 커뮤니케이션을 통해 현재 디바이스의 리소스에 대한 정보를 획득하고, 상기 uMedia 클라이언트의 상태 데이터에 대응되는 리소스의 할당을 요청한다. 이때, 파이프라인 매니저(822) 또는 리소스 매니저(824)는 상기 리소스 할당 등과 관련하여, 필요한 경우에 폴리시 매니저(826)과 데이터 커뮤니케이션을 통해 리소스 할당에 대한 제어를 한다. 예컨대, 리소스 매니저(824)에서 파이프라인 매니저(822)의 요청에 따라 할당할 리소스가 없거나 부족한 경우에, 폴리시 매니저(826)의 프라이어티 비교 등에 따라 상기 요청에 따라 적절한 리소스 할당 등이 이루어지도록 할 수 있다. 한편, 파이프라인 매니저(822)는, 상기 리소스 매니저(824)의 리소스 할당에 따라 할당된 리소스에 대하여 상기 uMedia 클라이언트의 요청에 따른 동작을 위한 파이프라인 생성을 미디어 파이프라인 컨트롤러(828)에 요청한다.The pipeline manager 822 obtains information about a resource of the current device through data communication with the resource manager 824 and requests allocation of a resource corresponding to the state data of the uMedia client. In this case, the pipeline manager 822 or the resource manager 824 controls resource allocation through data communication with the policy manager 826 when necessary in relation to the resource allocation. For example, when the resource manager 824 does not have enough or insufficient resources to allocate according to the request of the pipeline manager 822, appropriate resource allocation may be performed according to the request according to the priority comparison of the policy manager 826. Can be. Meanwhile, the pipeline manager 822 requests the media pipeline controller 828 to generate a pipeline for an operation according to the request of the uMedia client for the allocated resource according to the resource allocation of the resource manager 824. .
미디어 파이프라인 컨트롤러(828)는 상기 파이프라인 매니저(822)의 제어에 따라 필요한 파이프라인을 생성한다. 이렇게 생성된 파이프라인에는 도시된 바와 같이, 미디어 파이프라인, 카메라 파이프라인뿐만 아니라, 재생, 포즈, 중단 등과 관련된 파이프라인이 생성될 수 있다. 한편, 상기 파이프라인에는 HTML5, 웹 CP, 스마트쉐어(smartshare) 재생, 썸네일 추출, NDK, 시네마, MHEG(Multimedia and Hypermedia Information coding Experts Group) 등에 대한 파이프라인 등이 포함될 수 있다.The media pipeline controller 828 generates the necessary pipeline under the control of the pipeline manager 822. In this generated pipeline, as shown, not only a media pipeline, a camera pipeline, but also a pipeline related to play, pause, and pause may be generated. The pipeline may include a pipeline for HTML5, web CP, smartshare playback, thumbnail extraction, NDK, cinema, multimedia and hypermedia information coding expert groups (MHEG), and the like.
그 밖에, 파이프라인에는 예를 들어, 서비스 기반의 파이프라인(자체 파이프라인)과 URI 기반의 파이프라인(미디어 파이프라인)이 있을 수 있다.In addition, the pipeline may include, for example, a service-based pipeline (own pipeline) and a URI-based pipeline (media pipeline).
도 8을 참조하면, RM 클라이언트를 포함한 애플리케이션 또는 서비스는 직접적으로 미디어 서버(820)와 연결되지 않을 수 있다. 이는 애플리케이션 또는 서비스가 직접 미디어를 처리할 수도 있기 때문이다. 다시 말해, 애플리케이션 또는 서비스가 직접 미디어 처리하는 경우에는 미디어 서버를 통하지 않을 수 있다. 다만, 이때, 파이프라인 생성 및 그 이용을 위해 리소스 관리가 필요한바 이를 위해 uMS 커넥터가 기능 한다. 한편, 상기 uMS 커넥터는 상기 애플리케이션 또는 서비스의 직접적인 미디어 처리를 위한 리소스 관리 요청이 수신되면, 리소스 매니저(824)를 포함한 미디어 서버(820) 통신한다. 이를 위하여 미디어 서버(820) 역시 uMS 커넥터가 구비되어야 한다.Referring to FIG. 8, an application or service including an RM client may not be directly connected to the media server 820. This is because an application or service may handle media directly. In other words, when an application or service directly processes media, it may not go through a media server. However, at this time, resource management is required for pipeline creation and its use. For this, the uMS connector functions. Meanwhile, when the uMS connector receives a resource management request for direct media processing of the application or service, the uMS connector communicates with the media server 820 including the resource manager 824. To this end, the media server 820 should also be provided with a uMS connector.
따라서, uMS 커넥터를 통해 리소스 매니저(824)의 리소스 관리를 받아 애플리케이션 또는 서비스는 RM 클라이언트의 요청에 대응할 수 있다. 이러한 RM 클라이언트는 네이티브 CP, TV 서비스, 세컨드 스크린, 플래시 플레이어, 유투브 MSE(Medai Source Extensions), 클라우드 게임, 스카이프 등의 서비스를 처리할 수 있다. 이 경우, 전술한 바와 같이, 리소스 매니저(824)는 리소스 관리에 필요한 경우에 폴리시 매니저(826)와 적절하게 데이터 커뮤니케이션을 통해 리소스를 관리할 수 있다.Accordingly, the application or service may respond to a request of the RM client by receiving resource management of the resource manager 824 through the uMS connector. These RM clients can handle services such as native CP, TV services, second screens, Flash players, YouTube Source Source Extensions (MSE), cloud games, and Skype. In this case, as described above, the resource manager 824 may manage the resource through the data communication with the policy manager 826 appropriately when necessary for resource management.
한편, URI 기반의 파이프라인은 전술한 RM 클라이언트와 같이 미디어를 직접 처리하는 경우가 아니라, 미디어 서버(820)를 통해 이루어진다. 이러한 URI 기반 파이프라인에는, 플레이어 팩토리(player factory), G스트리머(Gstreamer), 스트리밍 플러그-인(streaming plug-in), DRM(Digital Rights Management) 플러그인 파이프라인 등이 포함될 수 있다.On the other hand, the URI-based pipeline is made through the media server 820, rather than directly processing the media as described above. Such a URI-based pipeline may include a player factory, a Gstreamer, a streaming plug-in, a digital rights management plug-in pipeline, and the like.
한편, 애플리케이션과 미디어 서비스들 사이에 인터페이스 방법은 다음과 같을 수 있다.Meanwhile, an interface method between an application and media services may be as follows.
웹 애플리케이션에서 서비스를 이용하여 인터페이스하는 방법이다. 이는 PSB(Palm Service Bridge)를 이용하여 루나 콜(Luna Call) 하는 방법, 코르도바(Cordova)를 이용하는 방법인데 이는 디스플레이를 비디오 태그로 확장하는 것이다. 그 밖에, 비디오 태그나 미디어 엘리먼트(media element)에 관한 HTML5 표준을 이용하는 방법도 있을 수 있다. 그리고, PDK에서 서비스를 이용하여 인터페이스 하는 방법이다. 또는, 기존 CP에서 서비스를 이용하는 방법이다. 이는 호환성(backward compatibility)를 위해 기존 플랫폼의 플러그-인을 루나 기반으로 확장하여 이용할 수 있다.How to interface using services in a web application. This is a method of making a Luna Call using a Palm Service Bridge (PSB) or a Cordova, which extends the display to video tags. There may also be ways to use the HTML5 standard for video tags or media elements. In addition, the PDK interface using a service. Or, a method of using a service in the existing CP. It can be used to extend existing platform plug-ins based on Luna for backward compatibility.
마지막으로, non-웹OS인 경우에 인터페이스 하는 방법이다. 이 경우에는 직접 루나 버스를 호출하여 인터페이스 할 수 있다.Finally, the interface is a non-WebOS. In this case, you can call the Luna bus directly to interface.
씸리스 체인지(Seamless change)는, 별도의 모듈(예를 들어, TVWIN)에 의해 처리되는데, 이는 웹OS 부팅 전 또는 부팅 동안에, 웹OS 없이 TV를 화면에 먼저 보여주고 씸리스하게 처리하기 위한 프로세스이다. 이는 웹OS의 부팅 시간이 늦기 때문에 사용자의 파워 온(Power On) 요청에 빠른 응답을 위해 TV 서비스의 기본 기능을 우선 제공할 목적으로 이용된다. 또한, 상기 모듈은 TV 서비스 프로세스의 일부로, 빠른 부팅과 기본 TV 기능을 제공하는 씸리스 체인지, 공장 모드 등을 지원한다. 또한, 상기 모듈은, Non-웹OS 모드에서 웹OS 모드로 전환도 담당할 수 있다.Seamless change is handled by a separate module (e.g. TVWIN), which is the process of first displaying and seamlessly displaying the TV on the screen without webOS before or during the webOS boot. to be. It is used for the purpose of providing the basic functions of TV service for quick response to the user's power on request because the webOS boot time is slow. The module also supports seamless change, factory mode, and the like, which provide fast boot and basic TV functions as part of the TV service process. In addition, the module may be responsible for switching from the non-webOS mode to the webOS mode.
도 9를 참조하면, 미디어 서버의 처리 구조를 도시하고 있다.Referring to Fig. 9, a processing structure of the media server is shown.
이때, 도 9에서, 실선 박스는 프로세스 처리 구성을 나타내고, 점선 박스는 프로세스 중 내부 처리 모듈을 나타낼 수 있다. 또한, 실선 화살표는 인터-프로세스 콜 즉, 루나 서비스 콜을 나타내고, 점선 화살표는 등록/알림(register/notify)와 같은 노티피케이션이나 데이터 플로우(data flow)를 나타낼 수 있다.In this case, in FIG. 9, the solid line box may indicate a process processing configuration, and the dotted line box may indicate an internal processing module during the process. In addition, the solid arrow may indicate an inter-process call, that is, a Luna service call, and the dashed arrow may indicate a notification or data flow such as register / notify.
서비스 또는 웹 애플리케이션 또는 PDK 애플리케이션(이하 ‘애플리케이션’)은, 루나-서비스 버스를 통하여 각종 서비스 처리 구성들과 연결되고, 그를 통해 애플리케이션이 동작하거나 동작 제어된다.A service or web application or PDK application (hereinafter referred to as an "application") is connected to various service processing configurations via a luna-service bus, through which the application operates or is controlled.
애플리케이션의 타입에 따라 그 데이터 처리 경로는 달라진다. 예컨대, 애플리케이션이 카메라 센서와 관련된 이미지 데이터인 경우에는 카메라 처리부(930)로 전송이 되어 처리된다. 이때, 카메라 처리부(930)는 제스처(gesture), 안면 인식(face detection) 모듈 등을 포함하여 수신되는 애플리케이션의 이미지 데이터를 처리한다. 여기서, 카메라 처리부(930)는 예컨대, 사용자의 선택이나 자동으로 파이프라인 등의 이용이 요구되는 데이터인 경우에는 미디어 서버 처리부(910)를 통하여 파이프라인을 생성하여 해당 데이터를 처리할 수 있다.The data processing path depends on the type of application. For example, when the application is image data related to a camera sensor, the application is transmitted to the camera processor 930 for processing. In this case, the camera processor 930 processes image data of the received application, including a gesture, a face detection module, and the like. Here, the camera processor 930 may generate a pipeline through the media server processor 910 and process the corresponding data, for example, when the data is required to be selected by a user or to automatically use a pipeline.
또는, 애플리케이션이 오디오 데이터를 포함한 경우에는 오디오 처리부(AudioD)(940)과 오디오 모듈(PulseAudio)(950)을 통하여 해당 오디오를 처리할 수 있다. 예컨대, 오디오 처리부(940)는 애플리케이션으로부터 수신되는 오디오 데이터를 처리하여 오디오 모듈(950)로 전송한다. 이때, 오디오 처리부(940)는 오디오 폴리시 매니저(audio policy manager)를 포함하여 오디오 데이터의 처리를 결정할 수 있다. 이렇게 처리된 오디오 데이터는 오디오 모듈(960)에서 가공 처리된다. 한편, 상기 애플리케이션은, 오디오 데이터 처리와 관련된 데이터를 오디오 모듈(960)로 노티피케이션 할 수 있고, 이는 관련 파이프라인에서도 상기 오디오 모듈(960)로 노피티케이션 할 수 있다. 상기 오디오 모듈(950)은 ALSA(Advanced Linux Sound Architecture)를 포함한다.Alternatively, if the application includes audio data, the audio may be processed through the audio processor 940 and the audio module 950. For example, the audio processor 940 processes audio data received from an application and transmits the audio data to the audio module 950. In this case, the audio processor 940 may include an audio policy manager to determine the processing of the audio data. The audio data thus processed is processed by the audio module 960. Meanwhile, the application may notify data related to audio data processing to the audio module 960, which may also notify the audio module 960 in a related pipeline. The audio module 950 includes an advanced Linux sound architecture (ALSA).
또는, 애플리케이션이 DRM이 걸려있는 컨텐트를 포함 또는 처리(이하 포함)하는 경우에는, 해당 컨텐트 데이터를 DRM 서비스 처리부(1160)로 전송하고, 상기 DRM 서비스 처리부(1170)는 DRM 인스턴스(instance)를 생성하여 DRM이 걸려 있는 컨텐트 데이터를 처리한다. 한편, DRM 서비스 처리부(960)는 상기 DRM이 걸려 있는 컨텐트 데이터의 처리를 위하여, 미디어 파이프라인 내 DRM 파이프라인과 루나-서비스 버스를 통해 연결되어 처리할 수 있다.Alternatively, when the application includes or processes (hereinafter referred to as DRM) content, the corresponding content data is transmitted to the DRM service processor 1160, and the DRM service processor 1170 generates a DRM instance. To process the content data that is subject to DRM. Meanwhile, the DRM service processor 960 may connect and process the DRM pipeline in the media pipeline through the Luna-service bus to process the content data on which the DRM is applied.
이하에서는, 애플리케이션이 미디어 데이터이거나 TV 서비스 데이터(예컨대, 방송 데이터)인 경우의 처리에 관해 설명한다.The following describes processing when the application is media data or TV service data (e.g., broadcast data).
도 9는, 전술한 도 8에서 미디어 서버 처리부와 TV 서비스 처리부만을 더욱 상세하게 설명하기 위해 도시한 것이다.FIG. 9 illustrates only the media server processing unit and the TV service processing unit in FIG. 8 described above in more detail.
따라서, 이하에서는, 도 8과 9를 함께 참고하여 설명한다.Therefore, below, it demonstrates with reference to FIGS. 8 and 9. FIG.
먼저, 애플리케이션이 TV 서비스 데이터를 포함한 경우에는 TV 서비스 처리부(820/920)에서 처리된다.First, when an application includes TV service data, it is processed by the TV service processor 820/920.
여기서, TV 서비스 처리부(820)는 예컨대, DVR/채널 매니저, 방송 모듈, TV 파이프라인 매니저, TV 리소스 매니저, 데이터 방송 모듈, 오디오 설정 모듈, 경로 매니저 등 중 적어도 하나 이상을 포함한다. 또는, 도 9에서 TV 서비스 처리부(920)는, TV 방송 핸들러(TV broadcast handler), TV 방송 인터페이스부(TV Broadcast Interface), 서비스 처리부, TV 미들웨어(TV MW(middleware)), 경로 매니저, BSP(예를 들어, NetCast)를 포함할 수 있다. 여기서, 상기 서비스 처리부는 예를 들어, TV 파이프라인 매니저, TV 리소스 매니저, TV 폴리시 매니저, USM 커넥터 등을 포함한 모듈을 의미할 수 있다.Here, the TV service processor 820 includes at least one of, for example, a DVR / channel manager, a broadcasting module, a TV pipeline manager, a TV resource manager, a data broadcasting module, an audio setting module, a path manager, and the like. Alternatively, in FIG. 9, the TV service processor 920 may include a TV broadcast handler, a TV broadcast interface, a service processor, a TV middleware, a path manager, and a BSP. For example, it may include NetCast. Here, the service processor may mean, for example, a module including a TV pipeline manager, a TV resource manager, a TV policy manager, a USM connector, and the like.
본 명세서에서, TV 서비스 처리부는, 도 8 또는 9와 같은 구성을 가지거나 양자의 조합으로 구현될 수 있으며, 상기에서 일부 구성은 생략되거나 도시되지 않은 일부 구성이 추가될 수도 있다.In the present specification, the TV service processing unit may have a configuration as shown in FIG. 8 or 9 or a combination thereof, and some configurations may be omitted or some components not shown may be added.
TV 서비스 처리부(820/920)는 애플리케이션으로부터 수신된 TV 서비스 데이터의 속성 내지 타입에 기초하여, DVR(Digital Video Recorder)이나 채널 관련 데이터인 경우에는 DVR/채널 매니저로 전송하고, 다시 TV 파이프라인 매니저로 전송하여 TV 파이프라인을 생성하여 처리한다. 한편, 상기 TV 서비스 데이터의 속성 내지 타입이 방송 컨텐트 데이터인 경우에는, TV 서비스 처리부(820)는 방송 모듈을 거쳐 해당 데이터의 처리를 위하여 TV 파이프라인 매니저를 거쳐 TV 파이프라인을 생성하여 처리한다.The TV service processing unit 820/920 transmits the DVR (Digital Video Recorder) or channel related data to the DVR / channel manager based on the property or type of the TV service data received from the application, and then the TV pipeline manager. To create and process the TV pipeline. Meanwhile, when the attribute or type of the TV service data is broadcast content data, the TV service processor 820 generates and processes a TV pipeline through a TV pipeline manager to process the corresponding data through a broadcast module.
또는, json(Javascript standard object notation) 파일이나 c로 작성된 파일은 TV 방송 핸들러에서 처리되어 TV 방송 인터페이스부를 거쳐 TV 파이프라인 매니저로 전송하여 TV 파이프라인을 생성하여 처리한다. 이 경우, TV 방송 인터페이스부는, TV 방송 핸들러를 거친 데이터 또는 파일을 TV 서비스 폴리시에 기초하여 TV 파이프라인 매니저로 전송하여 파이프라인 생성시 참고할 수 있다.Alternatively, a json (Javascript standard object notation) file or a file written in c is processed by the TV broadcast handler and transmitted to the TV pipeline manager through the TV broadcast interface to generate and process a TV pipeline. In this case, the TV broadcast interface unit may transmit data or files that have passed through the TV broadcast handler to the TV pipeline manager based on the TV service policy and refer to them when generating the pipeline.
이하, 도 9의 TV 서비스 처리부(920) 내부 특히, TV 브로드캐스트 인터페이스 이하 단의 처리 과정을 더욱 상세하게 설명하면, 다음과 같다.Hereinafter, a detailed description will be given of the processing steps of the inside of the TV service processor 920 of FIG. 9, in particular, the stages below the TV broadcast interface.
TV 브로드캐스트 인터페이스는 TV 서비스 처리부(920)의 컨트롤러 기능도 수행할 수 있다. TV 브로드캐스트 인터페이스는, TV 파이프라인 매니저로 파이프라인 생성을 요청하고, TV 파이프라인 매니저는 TV 파이프라인을 생성하고 TV 리소스 매니저로 리소스들을 요청한다. TV 리소스 매니저는 UMS 커넥터를 통해 미디어 서버로 리소스 요청을 하고 획득하면, 이를 다시 TV 파이프라인 매니저로 리턴한다.The TV broadcast interface may also perform a controller function of the TV service processor 920. The TV broadcast interface requests the pipeline creation to the TV pipeline manager, which creates the TV pipeline and requests resources to the TV resource manager. The TV resource manager makes a resource request to the media server through the UMS connector and acquires it, and returns it to the TV pipeline manager.
TV 파이프라인 매니저는 리턴된 리소스들을 생성된 TV 파이프라인 내에 어레인지(arrange) 하고, 파이프라인 정보를 패쓰 매니저에 레지스터 한다. 이후, TV 파이프라인 매니저는 그 결과를 TV 파이프라인 매니저로 리턴 하고, TV 파이프라인 매니저는 파이프라인을 TV 브로드캐스트 인터페이스로 리턴 한다.The TV pipeline manager arranges the returned resources in the generated TV pipeline and registers pipeline information in the path manager. The TV pipeline manager then returns the results to the TV pipeline manager, which returns the pipeline to the TV broadcast interface.
이후 TV 브로드캐스트 인터페이스는 TV 미들웨어(MW: Middleware)와 통신하여 채널 체인지 등을 요청하고, TV 미들웨어에서 그 결과를 리턴 한다.Thereafter, the TV broadcast interface communicates with the TV middleware (MW) to request a channel change and the like, and returns the result from the TV middleware.
상술한 과정을 통해 TV 서비스는 처리될 수 있다.Through the above-described process, the TV service may be processed.
TV 파이프라인 매니저는, TV 서비스 내 처리 모듈 내지 매니저 등으로부터 TV 파이프라인 생성 요청에 따라 하나 또는 그 이상의 파이프라인 생성함에 있어서, TV 리소스 매니저의 제어를 받을 수 있다. 한편, TV 리소스 매니저는, TV 파이프라인 매니저의 TV 파이프라인 생성 요청에 따라 TV 서비스를 위해 할당된 리소스의 상태와 할당을 요청하기 위해, TV 폴리시 매니저의 제어를 받을 수 있으며, 미디어 서버 처리부(810/910)와 uMS 커넥터를 통해 데이터 커뮤니케이션을 한다. 미디어 서버 처리부(810/910) 내 리소스 매니저는 상기 TV 리소스 매니저의 요청에 따라 현재 TV 서비스를 위한 리소스의 상태와 할당 가부 등에 대해 전달한다. 예컨대, 미디어 서버 처리부(810/910) 내 리소스 매니저의 확인 결과 만약 TV 서비스를 위한 리소스가 이미 모두 할당된 경우에는, TV 리소스 매니저로 현재 모든 리소스가 할당 완료되었음을 노티파이 할 수 있다. 이때, 미디어 서버 처리부 내 리소스 매니저는 상기 노티파이와 함께, TV 서비스를 위해 기할당된 TV 파이프라인들 중 프라이어티나 소정 기준에 따라 소정 TV 파이프라인을 제거하고 요청된 TV 서비스를 위한 TV 파이프라인 생성을 요청 내지 할당할 수도 있다. 또는, TV 리소스 매니저에서 상기 미디어 서버 처리부(810/910) 내 리소스 매니저의 상태 보고에 따라 TV 리소스 매니저에서 적절히 TV 파이프라인을 제거, 추가, 신설 등 제어를 할 수 있다.The TV pipeline manager may be controlled by the TV resource manager in generating one or more pipelines in response to a TV pipeline generation request from a processing module or manager in a TV service. Meanwhile, the TV resource manager may be controlled by the TV policy manager to request the status and allocation of resources allocated for the TV service according to the TV pipeline creation request of the TV pipeline manager, and the media server processor 810. / 910) and uMS connector to communicate data. The resource manager in the media server processor 810/910 transmits the status of the current resource for the TV service and whether or not it is allocated according to the request of the TV resource manager. For example, as a result of checking the resource manager in the media server processor 810/910, if all resources for the TV service are already allocated, the TV resource manager may notify that all resources are currently allocated. At this time, the resource manager in the media server processing unit removes a predetermined TV pipeline according to a priority or a predetermined criterion among the TV pipelines pre-allocated for the TV service along with the notification and generates a TV pipeline for the requested TV service. May be requested or assigned. Alternatively, the TV resource manager may appropriately remove, add, or establish a TV pipeline in accordance with the status report of the resource manager in the media server processor 810/910.
한편, BSP는 예컨대, 기존 디지털 디바이스와의 호환성를 지원한다.On the other hand, the BSP, for example, supports compatibility with existing digital devices.
이렇게 생성된 TV 파이프라인들은 그 처리 과정에서 경로 매니저의 제어에 따라 적절히 동작될 수 있다. 경로 매니저는 상기 처리 과정에서 TV 파이프라인만이 아니라 미디어 서버 처리부(810/910)에 의해 생성된 파이프라인의 동작까지 고려하여 파이프라인들의 처리 경로 내지 과정을 결정 내지 제어할 수 있다.The TV pipelines thus generated may be properly operated under the control of the path manager during the processing. The path manager may determine or control the processing path or process of the pipelines in consideration of not only the TV pipeline but also the operation of the pipeline generated by the media server processor 810/910.
다음으로, 애플리케이션이 TV 서비스 데이터가 아니라 미디어 데이터를 포함한 경우에는, 미디어 서버 처리부(810/910)에서 처리된다. 여기서, 미디어 서버 처리부(810/910)는, 리소스 매니저, 폴리시 매니저, 미디어 파이프라인 매니저, 미디어 파이프라인 컨트롤러 등을 포함한다. 한편, 미디어 파이프라인 매니저와 미디어 파이프라인 컨트롤러의 제어에 따라 생성되는 파이프라인에는 카메라 프리뷰 파이프라인, 클라우드 게임 파이프라인, 미디어 파이프라인 등 다양하게 생성 가능하다. 한편, 미디어 파이프라인에는 스트리밍 프로토콜, 오토/스테이틱 gstreamer, DRM 등이 포함될 수 있는데, 이는 경로 매니저의 제어에 따라 그 처리 플로우가 결정될 수 있다. 상기 미디어 서버 처리부(810/910) 내 구체적인 처리 과정은 전술한 도 10의 설명을 원용하고, 여기서 중복 설명하지 않는다.Next, when the application includes media data instead of TV service data, the media server processor 810/910 processes the data. Here, the media server processor 810/910 includes a resource manager, a policy manager, a media pipeline manager, a media pipeline controller, and the like. Meanwhile, a pipeline generated under the control of the media pipeline manager and the media pipeline controller can be variously created such as a camera preview pipeline, a cloud game pipeline, and a media pipeline. Meanwhile, the media pipeline may include a streaming protocol, an auto / static gstreamer, a DRM, and the like, which may be determined according to a path manager's control. The detailed processing procedure in the media server processing unit 810/910 uses the description of FIG. 10 described above, and will not be repeated herein.
본 명세서에서 미디어 서버 처리부(810/910) 내 리소스 매니저는 예를 들어, 카운터 베이스로 리소스 매니징을 할 수 있다.In the present specification, the resource manager in the media server processor 810/910 may manage resources on a counter base, for example.
상술한 웹OS 플랫폼상에서의 미디어 서버 디자인에 대해 더욱 상세하게 설명하면, 다음과 같다.The media server design on the WebOS platform described above will be described in more detail as follows.
미디어 서버는, 써드-파티 멀티미디어 파이프라인(들)이 웹OS 플랫폼과 인터페이스할 수 있도록 지원하는 미디어 프레임워크이다. 상기 미디어 서버는, 상기 써드-파티 멀티미디어 파이프라인(들)이 컴플라이언트(compliant) 할 수 있도록 리소스들을 컨트롤, 관리, 아이솔레이트(isolate), 디컴플릭트(deconflict) 등을 할 수 있다. 이러한 미디어 서버는 애플리케이션이 미디어 재생을 할 수 있도록 일반화된 API를 제공하고, 하드웨어 리소스 및 폴리시를 일관성 있게 관리하는 플랫폼 모듈로 볼 수 있다. 한편, 미디어 서버의 디자인은 미디어 처리 일반화, 관련 모듈 분리를 통한 복잡도 경감에 있다.Media Server is a media framework that allows third-party multimedia pipeline (s) to interface with the WebOS platform. The media server may control, manage, isolate, deconflict, and the like, such that the third-party multimedia pipeline (s) are compliant. These media servers provide a generalized API for applications to play media and can be viewed as platform modules that consistently manage hardware resources and policies. On the other hand, the design of the media server is to reduce the complexity through generalization of media processing and separation of related modules.
이러한 미디어 서버의 핵심은 예컨대, 서비스 인터페이스와 웹OS UI와의 인테그레이션(integration)을 제공하는 것이다. 이를 위해, 미디어 서버는, 리소스 매니저, 폴리시 매니저, 파이프라인 매니저를 컨트롤하고, 리소스 매니저 쿼리에 따라 API 액세스를 제공한다.The key to such a media server is to provide integration of, for example, the service interface with the WebOS UI. To this end, the media server controls the resource manager, policy manager, pipeline manager, and provides API access according to resource manager queries.
uMS 커넥터는, 클라이언트 미디어 파이프라인 프로세스들을 미디어 서버와 인터페이스하도록 하는 메인 API이자 SDK이다. Ums 커넥터는, 인터페이스에 관한 이벤트이자 메시지이다. 상기 클라이언트 미디어 파이프라인들은 로드, 플레이, 포즈, 시크(seek), 스톱, 언로드, 릴리즈 리소스(release_resource), 어콰이어 리소스(acquire_resource) 등을 인에이블(enable)하기 위한 클라이언트 미디어 파이프라인 상태 이벤트들을 구현한다.The uMS Connector is the main API and SDK to interface client media pipeline processes with the media server. Ums connectors are events and messages about the interface. The client media pipelines implement client media pipeline state events for enabling load, play, pose, seek, stop, unload, release resource (release_resource), aquire resource (acquire_resource), and the like. .
uMedia API는 C, C++ API를 미디어 서버로 제공한다.uMedia API provides C and C ++ API to media server.
미디어 리소스 매니저는, 하나의 심플 컨피규레이션 파일(simple configuration file)로 미디어 하드웨어 리소스들(media hardware resources)과 파이프라인 클라이언트 리소스(pipeline client resource) 이용을 디스크라이브(describe) 하는 방법을 제공한다. 미디어 리소스 매니저는, 디폴트 또는 써드-파티 미디어 폴리시 매니지먼트를 구현하기 위해 필요한 모든 성능과 정보를 제공한다.The media resource manager provides a method of describing the use of media hardware resources and pipeline client resources in a simple configuration file. The Media Resource Manager provides all the performance and information needed to implement default or third-party media policy management.
미디어 폴리시 매니저는, 리소스 컨플릭트 때문에 리소스 매니저가 미디어 파이프라인을 거절하는 경우에 기능 한다. 폴리시 매니저는, 써드-파티 폴리시 매니저 구현이 가능하도록 일관적인 API와 SDK를 제공할 수 있다. 상기 폴리시 매니저는 LRU(Least Recently Used)와 매치하는 미디어 파이프라인들을 지원하고, 하나 또는 그 이상의 컨플릭트된 리소스들(conflicted resources)을 위해 이용될 수 있다.The media policy manager works when the resource manager rejects the media pipeline because of a resource conflict. The policy manager can provide a consistent API and SDK to enable third-party policy manager implementations. The policy manager supports media pipelines that match Least Recently Used (LRU), and may be used for one or more conflicted resources.
파이프라인 매니저는, 클라이언트 미디어 파이프라인들을 추적하고 유지한다. 파이프라인 컨트롤러는, 클라이언트 미디어 파이프라인들을 컨트롤하고 관리할 수 있도록 파이프라인 매니저로 일관적인 API를 제공한다.The pipeline manager tracks and maintains client media pipelines. The pipeline controller provides a consistent API for the pipeline manager to control and manage client media pipelines.
미디어 서버는 리소스 매니저와 라이브러리 콜로 커뮤니케이션을 하고, 리소스 매니저는 TV 서비스들, 미디어 파이프라인과 루나 서비스 버스를 통해 커뮤니케이션할 수 있다.The media server communicates with the resource manager via a library call, which can communicate via the TV services, media pipeline and Luna service bus.
상기 미디어 리소스 매니저는, 미디어 하드웨어와 미디어 클라이언트 파이프라인들을 디스크라이브하기 위한 전체 컨피규러블 컨피규레이션 파일을 구성하고, 리소스 컨플릭트를 디텍트하며, 미디어 폴리시 매니지먼트를 구현하기 위해 필요한 모든 정보를 수집할 수 있다.The media resource manager can configure the entire configurable configuration file for disking the media hardware and media client pipelines, detect the resource conflict, and collect all the information needed to implement media policy management. .
미디어 폴리시 매니저는, 리소스 컨피규레이션 파일의 policy_select와 policy_action 필드를 읽고, 리소스 컨텐션은 policy_select 필드에 의해 설명된 액티브 파이프라인을 선택을 시도하고, policy_action 필드에 기초하여 아웃고잉/선택된 파이프라인들에 대한 문제를 제기한다(issue). 상기 선택 기능은 파이프라인 컨피규레이션 세팅 엔트리에 의해 지지되는 파라미터가 될 수 있다. 폴리시 액션들은 unload와 release이다. 모든 파이프라인들은 할당된 모든 리소스를 릴리즈하기 unload 커맨드를 지원한다. 파이프라인은 특정 리소스를 릴리즈하기 위해 release 커맨드를 부가적으로 지원할 수 있다. 상기에서, release 커맨드는 커먼 리소스들과 경쟁하는 fast switch 파이플라인들을 위한 것이고, 모든 리소스들의 unload 커맨드는 인커밍 파이프라인과 디컨플릭트(deconflict)에 요구되지는 않을 수 있다.The media policy manager reads the policy_select and policy_action fields in the resource configuration file, the resource contention attempts to select the active pipeline described by the policy_select field, and issues with outgoing / selected pipelines based on the policy_action field. Issue. The selection function can be a parameter supported by the pipeline configuration setting entry. Policy actions are unload and release. All pipelines support the unload command to release all allocated resources. Pipelines can additionally support the release command to release specific resources. In the above, the release command is for fast switch pipelines competing with common resources, and the unload command of all resources may not be required for the incoming pipeline and deconflict.
파이프라인 매니저는 파이프라인 컨트롤러를 관리한다. 상기 파이프라인 매니저는 파이프라인 컨트롤러의 러닝 큐(running queue)를 유지하고, 미디어 서버를 통해 애플리케이션(들)로부터 인커밍 메시지(incoming message)를 위한 유니크 인덱싱(unique indexing)을 제공한다.The pipeline manager manages pipeline controllers. The pipeline manager maintains a running queue of pipeline controllers and provides unique indexing for incoming messages from application (s) via a media server.
파이프라인 컨트롤러는, 관련된 미디어 클라이언트 파이프라인 프로세스의 관계를 유지한다. 파이프라인 컨트롤러는, 모든 관련된 상태를 유지하고, 파이프라인 매니저로 미디어 클라이언트 파이프라인 컨트롤 인터페이스를 제공한다. 파이프라인 클라이언트 프로세스는, 미디어 서버 등으로 컨트롤 인터페이스를 제공하기 위해 uMS 커넥터를 이용한 개별적인 프로세스이다. 파이프라인 (클라이언트) 미디어 기술(Gstreamer, Stage Fright)는 미디어 서버 매니지먼트와 서비스들과는 개별적이고 완전히 디커플드(decoupled)될 수 있다.The pipeline controller maintains a relationship of related media client pipeline processes. The pipeline controller maintains all relevant states and provides the media manager pipeline control interface to the pipeline manager. The pipeline client process is a separate process that uses the uMS connector to provide a control interface to a media server or the like. Pipeline (client) media technologies (Gstreamer, Stage Fright) can be individually and completely decoupled from media server management and services.
한편, 본 명세서에서 개시하는 “이미지 데이터(image data)”는 예컨대, 사진(picture or photograph), 썸네일 이미지(thumbnail image), 캡쳐 이미지(capture image) 등 정지 영상 데이터(still image data)뿐만 아니라 비디오(video)와 같은 동영상 데이터(moving picture data)도 포함하는 의미로 사용될 수 있다.On the other hand, the "image data" disclosed herein, for example, video as well as still image data (picture or photograph), thumbnail image (thumbnail image), capture image (capture image), as well as video It may be used to include moving picture data such as video.
본 명세서에서 메뉴는, 웹OS가 탑재된 디지털 디바이스에서는 웹 런처(web launcher) 또는 메뉴 런처(menu launcher)(이하 ‘메뉴 런처’라 함)를 통하여 스크린의 전체 영역 또는 메인 영역을 통해 출력되는 애플리케이션 실행 화면상에 오버레이되어 제공된다.In the present specification, the menu is an application that is output through the entire area or the main area of the screen through a web launcher or a web launcher (hereinafter referred to as a 'menu launcher') in a digital device equipped with a web OS. Overlaid on the execution screen.
상기 메뉴는, 이전 시청 또는 실행한 애플리케이션에 대한 히스토리 데이터를 포함한 제1 파트(first part)와, 디지털 디바이스에서 이용 가능한 또는 실행 가능한 하나 또는 그 이상의 애플리케이션들이 리스팅되는 제2 파트(second part)를 포함하여 구성된다. 여기서, 상기 제2 파트는 상기 애플리케이션 리스트를 제공할 수 있을 뿐만 아니라 현재 메인 영역을 통해 제공하는 애플리케이션과 관련된 컨텐트 리스트를 제공할 수 도 있다. 다시 말해, 제2 파트는 제1 모드와 제2 모드 중 적어도 하나의 모드를 제공할 수 있다. 이하에서 제2 파트의 제1 모드는 애플리케이션 리스트를 제공하고, 상기 제2 파트의 제2 모드는 컨텐트 리스트를 제공하는 것으로 설명한다. 메뉴 런처 제공 시에 제2 파트로 제1 모드를 제공할 지 아니면 제2 모드를 제공할 지는 설정에 따르거나 메인 영역에 제공 중인 애플리케이션에 따라 결정될 수 있다. 상기 결정은 상술한 기준 이외에도 사용자에 따라, 메인 영역의 애플리케이션 속성 등 다양한 기준에 따라 결정되고 제공될 수 있다. 한편, 상기 제1 파트는 리센트 파트 그리고 제2 파트는 리스트 파트로 호칭될 수 있다.The menu includes a first part containing history data about previously viewed or executed applications, and a second part listing one or more applications available or executable on the digital device. It is configured by. Here, the second part may not only provide the application list but also provide a content list related to an application currently provided through the main area. In other words, the second part may provide at least one of the first mode and the second mode. Hereinafter, the first mode of the second part provides an application list, and the second mode of the second part provides a content list. Whether to provide the first mode or the second mode to the second part when providing the menu launcher may be determined according to a setting or an application being provided to the main area. In addition to the above-described criteria, the determination may be determined and provided according to various criteria, such as an application attribute of the main area, according to the user. Meanwhile, the first part may be referred to as a recess part and the second part may be referred to as a list part.
상기 리센트 파트와 리스트 파트는, 각각 적어도 하나 이상의 메뉴 아이템(menu item)을 포함할 수 있다. 상기 메뉴 아이템은, 각 파트에서 컨텐트, 애플리케이션, 데이터 등을 구분하고 식별하며 액세스하기 위한 하나의 단위일 수 있다. 또한, 상기 각 메뉴 아이템은, 윈도우(window0를 통해 제공될 수 있다.The accent part and the list part may each include at least one menu item. The menu item may be a unit for identifying, identifying, and accessing content, applications, data, and the like in each part. In addition, each menu item may be provided through a window.
한편, 본 명세서에서는 메뉴, 리센트 파트, 리스트 파트, 메뉴 아이템 등이 각각 사각형 또는 사다리꼴 형태로 도시되고 설명되나, 반드시 이에 한정되는 것은 아니다.On the other hand, in the present specification, a menu, a recess part, a list part, a menu item, and the like are respectively illustrated and described in a rectangular or trapezoidal shape, but are not necessarily limited thereto.
도 10은 애플리케이션이 출력 중인 디지털 디바이스의 화면을 도시한 도면이다.10 is a diagram illustrating a screen of a digital device that an application is outputting.
애플리케이션 실행 요청 신호가 수신되면, 디지털 디바이스(1000)는 스크린의 전체 화면 또는 메인 영역을 통하여 상기 실행 요청된 애플리케이션의 실행 화면을 제공한다.When the application execution request signal is received, the digital device 1000 provides an execution screen of the application for which execution is requested through the entire screen or the main area of the screen.
여기서, 상기 애플리케이션은, 웹OS가 탑재된 디지털 디바이스의 모든 애플리케이션을 포함하는 의미로, 상기 웹OS가 탑재된 디지털 디바이스는 이를 웹 애플리케이션이라고 부르기도 한다. 상기 애플리케이션에는, 방송 프로그램 등 방송 서비스를 위한 TV(방송) 애플리케이션, 외부 입력을 위한 애플리케이션, 이미지 데이터를 위한 애플리케이션 등 다양한 애플리케이션들이 포함될 수 있다. 편의상 도 10에서는 TV 애플리케이션 실행을 통해 특정 채널의 방송 컨텐트가 제공하는 실시 예를 도시하였다.In this case, the application includes all applications of the digital device on which the web OS is mounted, and the digital device on which the web OS is mounted is also called a web application. The application may include various applications such as a TV (broadcast) application for a broadcast service such as a broadcast program, an application for external input, and an application for image data. For convenience, FIG. 10 illustrates an embodiment in which broadcast content of a specific channel is provided through execution of a TV application.
한편, 상기 애플리케이션은, 디지털 디바이스(1000)의 메모리 등 저장매체에 기 저장된 데이터 또는, 방송국 등 다양한 외부 서버로부터 다운로드 또는 스트리밍되는 애플리케이션 데이터(application data)를 통해 실행될 수 있다. 본 명세서에서 애플리케이션과 애플리케이션 데이터는 경우에 따라 혼용될 수 있으며, 그 경우 의미는 해당 문장이나 단락에서 문맥을 통해 결정될 수도 있다. 그 밖에, 선호 애플리케이션, 자주 이용 애플리케이션 등의 경우에는, 디지털 디바이스는 수동 또는 자동으로 프리로드 기능(preload function)을 이용하여 애플리케이션 데이터를 수신하여, 해당 애플리케이션의 빠른 액세스 또는 스위칭/인터체인징(switching/interchanging)이 가능하도록 할 수 있다.The application may be executed through data previously stored in a storage medium such as a memory of the digital device 1000 or application data downloaded or streamed from various external servers such as a broadcasting station. In the present specification, the application and the application data may be used interchangeably, and in that case, the meaning may be determined through the context in the sentence or paragraph. In addition, in the case of a favorite application, a frequently used application, or the like, the digital device receives application data using a preload function manually or automatically, so that the application can be quickly accessed or switched / interchanged. interchanging).
도 10의 애플리케이션 실행 화면은, 디지털 디바이스(1000)와 연결 또는 페어링된 리모컨, 모바일 디바이스 등 입력 수단을 통한 사용자의 요청에 따라 제공된다. 또는, 디지털 디바이스(1000)는 상기와 같은 입력 수단을 이용하지 않더라도 상기 디지털 디바이스의 프론트패널상에 구비된 소정 키 버튼 신호에 따라 상기 애플리케이션 실행 화면을 제공할 수 있다. 그 밖에, 디지털 디바이스(1000)는, 상기 입력 수단을 통하여 또는 그를 통하지 않더라도 음성 커맨드, 제스처 커맨드 등 다양한 입력 신호에 기초하여 도 10과 같은 애플리케이션 실행 화면뿐만 아니라 다양한 기능, 메뉴 등을 제공할 수 있다. 다만, 편의상 이하에서 입력 수단을 이용한다고 하면, 상기 리모컨이나 모바일 디바이스 등을 이용하는 경우뿐만 아니라 프론트 패널의 키 버튼이나 음성 커맨드, 제스처, 안면 인식, 지문 인식 등 실행 요청, 제어 커맨드 등 디지털 디바이스에 신호나 커맨드 입력을 위한 모든 수단 중 적어도 하나를 포함하는 의미를 가진다.The application execution screen of FIG. 10 is provided according to a user's request through an input means such as a remote controller or a mobile device connected or paired with the digital device 1000. Alternatively, the digital device 1000 may provide the application execution screen according to a predetermined key button signal provided on the front panel of the digital device even without using the above input means. In addition, the digital device 1000 may provide various functions, menus, etc. as well as an application execution screen as shown in FIG. 10 based on various input signals such as voice commands and gesture commands, even through the input means or not. . However, for the sake of convenience, an input means will be used as a signal to a digital device such as a key button, a voice command, a gesture, a face recognition, a fingerprint recognition, a fingerprint command, a control command, as well as a case where the remote control or a mobile device is used. B has the meaning including at least one of all means for command input.
한편, 애플리케이션이 TV 애플리케이션이면, 도 2나 3에 도시된 디지털 디바이스의 구성요소(들)을 통해 처리될 수 있다. 다시 말해, 네트워크 인터페이스나 튜너를 통하여, 방송 프로그램 또는/및 상기 방송 프로그램을 위한 시그널링 데이터가 포함된 IP 패킷(들)이나 방송 신호를 수신하여, 복조부, 역다중화부, SI 디코더, 오디오/비디오 디코더 등을 거쳐 최종적으로 스크린상에 출력된다. 상기 처리 과정은 전술한 도 2 내지 3의 내용을 참조하고 여기서는 상세한 설명은 생략한다.On the other hand, if the application is a TV application, it may be processed through the component (s) of the digital device shown in FIGS. In other words, through a network interface or tuner, a broadcast program and / or an IP packet (s) or broadcast signal including signaling data for the broadcast program are received, and a demodulator, a demultiplexer, an SI decoder, and an audio / video are received. It is finally output on the screen via a decoder or the like. For the above process, refer to the aforementioned contents of FIGS. 2 to 3, and a detailed description thereof will be omitted.
도 11은 본 발명의 일 실시 예에 따라 디지털 디바이스에서 메뉴를 제공하는 방법을 설명하기 위해 도시한 도면이다.11 is a diagram illustrating a method of providing a menu in a digital device according to one embodiment of the present invention.
디지털 디바이스는, 도 10과 같이 애플리케이션을 이용하는 도중에 입력 수단을 통해 메뉴를 요청하는 신호가 수신되면, 상기 수신되는 신호에 따라 현재 화면상에 메뉴를 출력한다. 이는, 메뉴의 출력은 반드시 상기 입력 수단의 메뉴 키 신호가 아니라도 화면을 통해 제공되는 아이콘이나 기능 버튼을 포인터를 통해 액세스 또는 선택함으로써도 제공 가능하다.When the digital device receives a signal for requesting a menu through an input means while using an application as shown in FIG. 10, the digital device outputs a menu on the current screen according to the received signal. This can be provided by accessing or selecting an icon or a function button provided through the screen even though the menu output is not necessarily a menu key signal of the input means.
종래 디지털 디바이스는, 메뉴를 출력하기 위해 화면을 전면적으로 전환하거나 전환하지 않더라도 기 이용 중인 애플리케이션 실행 화면의 많은 부분 또는 주요 부분을 가리거나 그와 중첩(overlap)되어 사용자의 컨텐트의 이용에 불편함이 있었다.Conventional digital devices may be inconvenient to use a user's content by covering or overlapping a large portion or a main portion of an application execution screen that is being used even if the screen is not switched or switched entirely to output a menu. there was.
본 발명에 따른 웹OS 플랫폼이 탑재된 디지털 디바이스는, 상기 요청된 메뉴를 도 11a 내지 11c에 도시된 바와 같이 메뉴 런처를 통하여 제공한다. 상기 제공되는 메뉴는, 도 11a와 같이, 전체 화면을 통해 제공 중인 애플리케이션 실행 화면상의 일 영역(region or area)에 제공한다. 여기서, 상기 일 영역은 도시된 바와 같이, 화면 하단 일부를 일 실시 예로 하나, 반드시 이에 한정되는 것은 아니다. 한편, 상기 메뉴 런처의 높이나 폭과 같은 사이즈(이하 편의상 사이즈라 함)나 모양 등은 사용자의 설정이나 애플리케이션의 속성 등에 따라 임의로 조정될 수도 있다. 예를 들어, 상기 이용 중인 애플리케이션의 속성을 참고할 때, 데이터 방송 등 화면 하단에 일정 데이터가 출력되는 경우에는 상기 메뉴 런처가 도 11a에 도시된 바와는 다른 영역에 출력될 수 있다. 반대로, 상기 메뉴 런처는 도시된 바와 같이, 출력되되, 상기 일정 데이터를 상기 메뉴 출력 영역과 중복되지 않는 다른 영역에 출력할 수도 있다. 이는 메뉴가 출력된 이후에도 마찬가지로 적용 가능하다. 그 밖에, 상기 메뉴는 디스플레이 스크린 중앙의 일부 영역 또는 디스플레이 스크린 에지 영역들 중 어느 하나에 출력될 수도 있다. 그리고, 상기 메뉴는 두 파트가 하나의 영역이 아니라 서로 다른 영역에 분리되어 제공될 수도 있다. 예를 들어, 제1 파트(리센트 파트)는 스크린 하단의 일 영역에 제공되고, 제2 파트(리스트 파트)는 스크린 에지 영역들 중 중복되지 않는 어느 일 에지 영역에 제공될 수 있다. 또는, 도 11a는 도시된 바와 같이 스크린 하단에 제공되고, 도 11b는 스크린의 좌측 에지 영역에 그리고 도 11c는 스크린의 우측 에지 영역에 동시에 제공될 수도 있다. 또한, 도 11a에서 어느 하나의 파트나 상기 파트의 적어도 하나의 메뉴 아이템이 선택되면, 선택된 메뉴 아이템과 관련된 기능이나 관련 데이터가 에지 영역들 중 적어도 하나의 에지 영역에 출력될 수도 있다.The digital device equipped with the webOS platform according to the present invention provides the requested menu through the menu launcher as shown in Figs. 11A to 11C. The provided menu is provided in a region or area on the application execution screen being provided through the full screen as shown in FIG. 11A. Here, as shown in the drawing, one portion of the lower portion of the screen is an example, but is not limited thereto. Meanwhile, a size (hereinafter referred to as a size for convenience) or a shape such as the height or width of the menu launcher may be arbitrarily adjusted according to a user's setting or an attribute of an application. For example, when referring to the property of the application being used, when certain data is output at the bottom of the screen such as data broadcasting, the menu launcher may be output to an area different from that shown in FIG. 11A. On the contrary, the menu launcher may be output as shown, but the constant data may be output to another area not overlapping with the menu output area. This is also applicable after the menu is printed. In addition, the menu may be output to one of a partial area of the center of the display screen or one of the display screen edge areas. In addition, the menu may be provided by separating the two parts into different areas instead of one area. For example, the first part (recent part) may be provided in one area at the bottom of the screen, and the second part (list part) may be provided in one of the non-overlapping edge areas of the screen edge areas. Alternatively, FIG. 11A may be provided at the bottom of the screen as shown, FIG. 11B may be simultaneously provided in the left edge region of the screen and FIG. 11C in the right edge region of the screen. In addition, when any part or at least one menu item of the part is selected in FIG. 11A, a function or related data related to the selected menu item may be output to at least one edge area of the edge areas.
따라서, 도 11a에 도시된 바와 같이, 메뉴를 구성하여 제공하면, 종래 디지털 디바이스에 비해 화면 가림 현상을 최소화할 수 있다.Accordingly, as illustrated in FIG. 11A, when a menu is configured and provided, screen obstruction may be minimized as compared with a conventional digital device.
그 밖에, 상기 메뉴는 포인터의 위치 또는 움직임에 기초하여 사이즈를 변경할 수도 있다. 예를 들어, 포인터가 메뉴상에 위치한다면, 사용자의 의도를 메뉴 제어 또는 액세스로 판단하여 원래 메뉴 런처의 사이즈로 제공한다. 이때, 메뉴 런처의 사이즈는 최대일 수도 있고 그렇지 않을 수도 있다. 반면, 상기 포인터가 메뉴가 아닌 다른 영역(예를 들어, 기 이용 중인 애플리케이션 출력 영역)에 위치한다면, 사용자의 의도는 애플리케이션 제어 또는 액세스로 판단하여 기 이용 중인 메뉴 런처를 최소 사이즈 또는 일시 숨김하여 상기 애플리케이션 이용에 편의를 기할 수 있다. 상기에서 메뉴가 제공되는 메뉴 런처를 일시 숨김하는 경우에는 이미 메뉴 런처가 요청에 따라 출력 중임을 사용자가 식별 가능하도록 제공할 수 있다. 이는 사용자가 다시 메뉴를 호출하는 등의 번거로움이나 이용 불편을 최소화하기 위함이다. 정리하면, 사용자의 요청, 기 이용 중인 애플리케이션의 속성, 포인터의 위치/움직임 등에 따른 메뉴를 포함한 메뉴 런처는 여러 버전(version)으로 제공 가능하거나 사이즈 변경 등 제어 가능하다. 또한, 이러한 메뉴 런처는 기 출력 이후에도 자동 또는 수동으로 상술한 바와 같이, 제어 가능하다.In addition, the menu may change size based on the position or movement of the pointer. For example, if the pointer is located on a menu, the user's intention is determined as a menu control or access and provided in the size of the original menu launcher. In this case, the size of the menu launcher may or may not be maximum. On the other hand, if the pointer is located in an area other than a menu (for example, an application output area that is being used), the user's intention is determined to be application control or access, so that the menu launcher being used is minimized or temporarily hidden. It can be convenient to use the application. In the case of temporarily hiding a menu launcher provided with a menu, the user may be able to identify that the menu launcher is already being output upon request. This is to minimize the inconvenience or inconvenience in using the user to call the menu again. In summary, a menu launcher including a menu according to a user's request, an attribute of an application being used, a location / movement of a pointer, etc. may be provided in various versions, or the size may be controlled. In addition, such a menu launcher can be controlled as described above automatically or manually after the output.
도 11a는, 메인 화면을 통해 애플리케이션(1110) 이용 중에 사용자의 요청에 따라 메뉴를 포함한 메뉴 런처가 제공되는 디지털 디바이스가 되시되었다. 도 11a는 예를 들어, 상기 사용자의 요청에 따른 메뉴 포함 메뉴 런처가 화면상에 제공되는 초기 화면일 수 있다.FIG. 11A illustrates a digital device in which a menu launcher including a menu is provided according to a user's request while using the application 1110 through the main screen. 11A may be, for example, an initial screen on which a menu launcher including a menu is provided on a screen according to a request of the user.
전술한 바와 같이, 메뉴 런처를 통해 제공되는 메뉴는, 크게 두 개의 파트들(parts)로 구성될 수 있는데, 제1 파트(1120)는 리센츠 데이터(recents data)를 출력하고, 제2 파트(1130)는 애플리케이션 리스트(application list)나 컨텐트 리스트를 포함하거나 출력한다.As described above, the menu provided through the menu launcher may be largely composed of two parts, and the first part 1120 outputs percentage data and the second part ( 1130 includes or outputs an application list or a content list.
제1 파트(1120)의 일 측에는, 상기 제1 파트(1120)과 관련된 히스토리 데이터(history data) 또는 추가적인 히스토리 데이터를 액세스를 위한 인터페이스(1130)가 제공된다. 상기 히스토리 데이터라 함은, 현재 스크린을 통해 제공 중인 애플리케이션 이용 전에 스크린상에서 제공되었던 애플리케이션에 대한 데이터를 의미한다. 따라서, 사용자가 상기 인터페이스(1140)를 선택하면, 도 11b와 같이 메뉴 런처가 전환 또는 변경될 수 있다. 도 11b를 참조하면, 최우측에 인터페이스(1140-1)가 제공되고, 상기 인터페이스(1140-1)의 좌측에는 히스토리 데이터가 정렬되어 제공된다. 사용자가 미리 정한 액션이나 키 신호 등을 통해 상기 인터페이스(1140-1)를 선택하면, 디지털 디바이스는 다시 도 11a의 화면으로 전환된다. 따라서, 상기 인터페이스(1140-1)의 액세스에 따라 메뉴 런처는 도 11b에서 도 11a와 같이 제공된다. 여기서, 상기 히스토리 데이터는 상기 인터페이스(1140-1)로부터 좌측으로 타임라인(timeline) 기반으로 정렬되어 제공될 수 있다. 즉, 히스토리 데이터는 상기 인터페이스(1140-1)에 가까울수록 최근에 액세스한 애플리케이션의 데이터이거나 그 반대일 수 있다. 한편, 도 11b에 제공되는 히스토리 데이터는, 사용자의 요청이나 설정에 따라 소정 시간 동안의 히스토리 데이터만 액세스할 수 있다. 그 밖에, 포인터의 위치나 움직임에 따라 도 11b에 제공 중인 히스토리 데이터는 다른 시간 단위의 히스토리 데이터 즉, 추가적인 히스토리 데이터가 제공될 수 있다. 이때, 상기 인터페이스(1140-1)은 계속하여 해당 위치에서 제공될 수 있다.One side of the first part 1120 is provided with an interface 1130 for accessing history data or additional history data associated with the first part 1120. The historical data means data about an application provided on the screen before using an application currently provided through the screen. Therefore, when the user selects the interface 1140, the menu launcher may be switched or changed as shown in FIG. 11B. Referring to FIG. 11B, an interface 1140-1 is provided at the rightmost side, and history data is arranged and provided at the left side of the interface 1140-1. When the user selects the interface 1140-1 through a predetermined action or key signal, the digital device switches back to the screen of FIG. 11A. Accordingly, in accordance with access of the interface 1140-1, a menu launcher is provided as shown in FIG. 11B to FIG. 11A. In this case, the history data may be arranged in a timeline basis from the interface 1140-1 to the left. That is, the closer to the interface 1140-1, the historical data may be data of a recently accessed application or vice versa. Meanwhile, the history data provided in FIG. 11B may only access history data for a predetermined time according to a user's request or setting. In addition, the history data provided in FIG. 11B according to the position or the movement of the pointer may be provided with history data of another time unit, that is, additional history data. In this case, the interface 1140-1 may be continuously provided at the corresponding position.
한편, 제2 파트(1130)의 일 측에는, 상기 제2 파트(1130)와 관련된 애플리케이션 리스트 또는 추가적인 애플리케이션 리스트를 액세스하기 위한 인터페이스(1150)가 제공된다. 사용자가 상기 인터페이스(1150)를 선택하면, 디지털 디바이스는 도 11c의 메뉴 런처를 제공한다. 도 11c의 좌측에는 인터페이스(1150-1)가 제공되고, 상기 인터페이스의 우측에는 애플리케이션에 대응되는 메뉴 아이템들이 정렬되어 제공된다. 이때, 정렬되는 메뉴 아이템들은 도 11a에서 이미 출력 중인 애플리케이션에 대응되는 메뉴 아이템들을 포함할 수도 있고 그렇지 않을 수도 있다. 한편, 도 11a의 메뉴 런처의 제2 파트(1130)에 제공되는 애플리케이션 대응 메뉴 아이템들은 디지털 디바이스 또는 사용자의 설정에 따라 미리 설정된 기본 메뉴 아이템일 수도 있고 그렇지 않을 수도 있다. 또는, 도 11a의 제2 파트(1130) 또는 도 11c에 제공되는 메뉴 아이템들은, 사용자의 애플리케이션 이용 빈도, 이용 횟수, 이용 시간 등과 같은 사용자의 애플리케이션 선호도 등이나 해당 애플리케이션의 속성 등에 기초하여 정렬될 수 있다.Meanwhile, one side of the second part 1130 is provided with an interface 1150 for accessing an application list or an additional application list related to the second part 1130. When the user selects the interface 1150, the digital device provides the menu launcher of FIG. 11C. An interface 1150-1 is provided on the left side of FIG. 11C, and menu items corresponding to an application are arranged on the right side of the interface. In this case, the aligned menu items may or may not include menu items corresponding to an application that is already output in FIG. 11A. Meanwhile, the application-corresponding menu items provided in the second part 1130 of the menu launcher of FIG. 11A may or may not be a basic menu item preset according to the setting of the digital device or the user. Alternatively, the second part 1130 of FIG. 11A or the menu items provided in FIG. 11C may be arranged based on the user's application preference, such as the frequency of use of the application, the number of times of use, the time of use, or the like, or the attributes of the corresponding application. have.
도 11a 내지 11c에서 인터페이스(1140, 1140-1, 1150, 1150-1)는 도시된 바와 다르게, 다른 형태로 구현될 수도 있다. 또한, 도 11a 내지 11c에 제공되는 메뉴 런처를 구성하는 제1 파트(1120)와 제2 파트(1130)는, 그 출력 위치나 영역을 스위칭/인터체인징할 수 있다. 또한, 해당 파트 내의 각 메뉴 아이템 역시 해당 파트 또는 다른 파트로 이동 가능하다.In FIGS. 11A through 11C, the interfaces 1140, 1140-1, 1150, and 1150-1 may be implemented in other forms, as illustrated. In addition, the first part 1120 and the second part 1130 constituting the menu launcher provided in FIGS. 11A through 11C may switch / interchange their output positions and regions. In addition, each menu item in the corresponding part may also be moved to the corresponding part or another part.
본 명세서에서 “액세스 또는 선택”이라고 함은, 화면상에 제공되는 포인터 등이 소정 시간동안 어떤 영역, 파트 등에 위치(locate)하거나 호버링(hovering), 클릭(click), 드래그(drag), 드롭(drop) 등 중 적어도 하나에 의해 이루어질 수 있다. 또한, 상기 선택은, 리모컨이나 디지털 디바이스의 프론트 패널 상에 구비된 별도의 키 버튼(들)을 통해 이루어질 수도 있고, 그 밖에, 음성(voice), 제스처(gesture) 등을 통해서도 이루어질 수 있으며 상술한 각각의 조합(combination)에 의해서도 이루어질 수 있다. 한편, 본 명세서에서 리모컨은 편의상 모션 리모컨을 예로 하여 설명하나, 이에 한정되지 않으며, 스마트폰 등의 다른 디지털 디바이스도 포함할 수 있다.As used herein, the term “access or selection” means that a pointer or the like provided on the screen is positioned, hovered, clicked, dragged, or dropped on an area, part, etc. for a predetermined time. drop) or the like. In addition, the selection may be made through separate key button (s) provided on the front panel of the remote controller or the digital device, or may be made through voice, gesture, and the like. It can also be done by each combination. In the present specification, the remote controller is described as an example of a motion remote controller for convenience, but is not limited thereto, and may include other digital devices such as a smartphone.
도 11a에서는, 비록 제1 파트(1120)에서 하나의 메뉴 아이템만 제공되는 것으로 도시되었으나, 본 발명은 이에 한정되지 않고, 복수의 메뉴 아이템들이 상기 제1 파트(1120)에 제공될 수 있다. 한편, 상기 각 메뉴 아이템은 해당 메뉴 아이템에 대응되는 애플리케이션 또는 컨텐트를 식별하거나 대응되는 하나 또는 그 이상의 이미지 데이터를 포함 또는 출력할 수 있다. 상기 각 메뉴 아이템은, 이용 중인 애플리케이션 종료나 채널 또는 화면 전환시 화면을 자동으로 캡쳐한 이미지 데이터일 수 있다. 따라서, 사용자가 상기 제1 파트(1120)을 선택하면, 메인 화면상에는 제1 애플리케이션(기 시청 중인 애플리케이션) 제공 화면에서 상기 제1 파트(1120)의 이미지 데이터에 대응되는 제2 애플리케이션 실행 화면으로 전면적으로 전환된다. 상기 전환 전 상기 제1 애플리케이션의 마지막 화면의 캡쳐 이미지 데이터 또는 상기 제1 애플리케이션의 대표 썸네일 이미지 데이터가 상기 제2 애플리케이션 이미지 데이터를 대신하여 제1 파트(1120)상에 제공된다. 한편, 상기 메인 화면상에 제공 중인 제1 애플리케이션은 재생이 종료되지 않고 중지 또는 중단된 상태로 백그라운드(background)에 위치할 수도 있다. 그 밖에, 또는, 상기 경우에는, 상기 선택에도 불구하고, 화면이 전면적으로 전환되지 않고, 해당 위치에서 그대로 재생이 될 수도 있고, PIP(Picture in Picture), POP(Picture of Picture), PBP(Picture by Picture) 등의 형태로 제공되 수도 있다.In FIG. 11A, although only one menu item is provided in the first part 1120, the present invention is not limited thereto, and a plurality of menu items may be provided in the first part 1120. Meanwhile, each menu item may identify an application or content corresponding to the menu item or include or output one or more image data corresponding to the menu item. Each menu item may be image data that automatically captures a screen when the application is in use or when a channel or a screen is switched. Therefore, when the user selects the first part 1120, the main screen may be used as the first application (the application being watched) on the main screen to the second application execution screen corresponding to the image data of the first part 1120. Is switched to. Capture image data of the last screen of the first application or the representative thumbnail image data of the first application before the switching is provided on the first part 1120 in place of the second application image data. On the other hand, the first application being provided on the main screen may be located in the background in a stopped or stopped state without being terminated. In addition, or in this case, despite the above selection, the screen may not be switched to the whole, but may be played as it is at the corresponding position, and PIP (Picture in Picture), POP (Picture of Picture), PBP (Picture) by Picture).
메뉴 런처의 제2 파트(1130)는, 전술한 바와 같이, 애플리케이션 리스트가 제공된다. 다만, 도 11a에 도시된 바와 같이, 디바이스 화면 크기의 제약으로 제2 파트(1130)를 통하여 디지털 디바이스에서 제공 또는 이용 가능한 모든 애플리케이션 리스트가 한 번에 리스팅되지 않을 수 있다. 따라서, 도 11a의 제2 파트(1130)를 통해 리스팅되지 못한 애플리케이션 리스트는 상술한 바와 같이, 제4 파트(1130)를 통해 도 11c와 같은 방식으로 제공된다. 따라서, 상기 도 11a의 제2 파트(1130)에 제공되는 애플리케이션 리스트는, 디지털 디바이스에서 이용 가능한 애플리케이션들로부터 선별된 것으로 볼 수 있다. 예컨대, 도 11a의 제2 파트(1130)에 제공되는 애플리케이션들은 해당 디바이스에서 이용 가능한 모든 애플리케이션들 중에서, i) 사용자의 설정이나 요청, ii) 사용자가 최근에 이용한 애플리케이션, iii) 사용자의 이용 빈도, iv) 메인 화면을 통해 제공 중인 애플리케이션과 관련된 애플리케이션, v) 애플리케이션 타이틀의 알파벳 또는 한글 자/모음 등에 따라 선별되어 제공되거나 상기 i) 내지 v) 적어도 둘 이상의 조합에 기초하여 선별되어 제공될 수 있다. 후자의 경우, 상기 i) 내지 v) 중 적어도 둘 이상을 각각 우선순위 팩터(factor)로 하고, 팩터 값에 기초하여 선별될 수도 있다.As described above, the second part 1130 of the menu launcher is provided with an application list. However, as shown in FIG. 11A, all application lists provided or available on the digital device through the second part 1130 may not be listed at a time due to the limitation of the device screen size. Therefore, the application list not listed through the second part 1130 of FIG. 11A is provided in the same manner as that of FIG. 11C through the fourth part 1130 as described above. Accordingly, the application list provided to the second part 1130 of FIG. 11A may be viewed as selected from applications available in the digital device. For example, the applications provided in the second part 1130 of FIG. 11A include, among all the applications available on the device, i) a user's setting or request, ii) a user's recently used application, iii) a user's frequency of use, iv) an application related to the application being provided through the main screen, and v) selected and provided based on alphabets or Korean characters / vowels of the application title, or based on i) to v) at least two or more combinations. In the latter case, at least two or more of i) to v) may be selected as priority factors and selected based on factor values.
한편, 도 11a의 제2 파트(1130)에 리스팅된 애플리케이션들에 대응되는 메뉴 아이템들 중 어느 하나의 애플리케이션에 대응되는 메뉴 아이템이 선택되면, 선택된 메뉴 아이템의 애플리케이션은 해당 영역상에서 바로 실행되거나 메인 화면의 애플리케이션을 전면적으로 대체하여 제공 또는 화면 분할을 통해 상기 기 이용 중인 애플리케이션과 함께 제공될 수 있다. 이는 선택된 애플리케이션의 속성에 기인하거나 상기 선택된 애플리케이션의 주변에 기능 또는 제어 아이콘(control icon)을 제공하고 그를 통해 구현될 수 있다. 상기 화면 제공 결과에 따라 제1 파트(1120)의 이미지 데이터가 변경될 수 있다. 한편, 도 11a의 제2 파트(1120)상 또는 도 11c에 리스팅된 애플리케이션의 위치 내지 순서는 임의로 변경 또는 제어 가능하다. 이는 도 11b의 히스토리 데이터도 마찬가지다. 즉, 사용자가 타임라인 기반의 히스토리 데이터를 임의로 위치 내지 순서를 제어할 수 있다.Meanwhile, when a menu item corresponding to any one of the menu items corresponding to the applications listed in the second part 1130 of FIG. 11A is selected, the application of the selected menu item is directly executed on the corresponding area or the main screen. It can be provided together with the application being used by providing a full replacement of the application of the or through screen division. This may be due to the nature of the selected application or may be implemented through providing a function or control icon around the selected application. Image data of the first part 1120 may be changed according to the screen provision result. Meanwhile, the position or order of the applications listed on the second part 1120 of FIG. 11A or in FIG. 11C may be arbitrarily changed or controlled. The same applies to the history data of FIG. 11B. That is, the user may arbitrarily control the position or order of the timeline-based history data.
각 파트에서 선택된 메뉴 아이템은 선택되지 않은 메뉴 아이템과 컬러가 다르거나 상기 선택되지 않은 메뉴 아이템에 비하여 사이즈가 확대되어 제공 등과 같은 방식으로 차별화되어 제공될 수 있다. 이외에도 도시된 바와 같이, 선택된 메뉴 아이템이 위로 살짝 올라가거나 테두리가 하이라이트되거나 아래에 별도의 해당 메뉴 아이템에 대응되는 애플리케이션의 타이틀 데이터 등이 출력될 수도 있다. 그 밖에, 상기 차별화 내용들이 적어도 둘 이상 조합되어 선택된 메뉴 아이템이 그렇지 않은 메뉴 아이템과 차별화되도록 다양하게 구성하여 제공할 수 있다.The menu item selected in each part may be differently provided in a manner different from that of the non-selected menu item or enlarged in size compared to the non-selected menu item. In addition, as shown, the selected menu item may be slightly raised upward, the border is highlighted, or title data of an application corresponding to a separate corresponding menu item may be output below. In addition, the differentiated content may be combined in at least two or more so that the selected menu item may be variously configured and differentiated from the menu item that is not.
상술한 내용 및 도 11과 같이, 메뉴를 포함한 메뉴 런처를 기 이용 중인 애플리케이션과 함께 제공함으로써, 종래 디지털 디바이스에 비하여 사용자는 메뉴를 더욱 직관적으로 인식할 수 있을뿐만 아니라 원하는 애플리케이션을 더욱 쉽고 빠르게 접근할 수 있다. 또한, 사용자는 메뉴 이용 이외에도 기 이용 중인 애플리케이션의 화면 가림이나 변화를 최소화한 상태에서 디지털 디바이스 또는 애플리케이션의 다양한 기능 내지 서브 메뉴 아이템 등을 최소한의 뎁쓰를 통해 이용할 수 있어 이용 편의성도 극대화된다. 다시 말해, 본 발명에 따른 디지털 디바이스에서는, 애플리케이션을 빠르게 접근 가능하고, 컨텐츠 간 빠른 스위칭/인터체인징도 가능하며, 멀티-태스킹 등 동작도 쉽고 빠르게 수행할 수 있다.As described above and as shown in FIG. 11, by providing a menu launcher including a menu together with an existing application, a user may not only recognize the menu more intuitively but also access the desired application more easily and quickly than the conventional digital device. Can be. In addition, the user may use various functions or sub-menu items of the digital device or the application with a minimum depth in addition to using the menu while minimizing screen obstruction or change of the application being used, thereby maximizing convenience of use. In other words, in the digital device according to the present invention, an application can be quickly accessed, fast switching / interchange between contents can be performed, and operations such as multi-tasking can be easily and quickly performed.
도 12는 본 발명의 다른 실시 예에 따라 디지털 디바이스에서 메뉴를 제공하는 방법을 설명하기 위해 도시한 도면이다.12 is a diagram illustrating a method of providing a menu in a digital device according to another embodiment of the present invention.
디지털 디바이스는, 사용자의 메뉴 요청에 대응하여, 도 11과 달리 도 12와 같이 구성된 컨텐트/애플리케이션 기반의 메뉴를 메뉴 런처를 통하여 제공할 수 있다.In response to a user's menu request, the digital device may provide a content / application based menu configured as shown in FIG. 12 through the menu launcher unlike FIG. 11.
도 12를 참조하면, 메인 화면(1210)상에 하나의 애플리케이션이 제공되고, 상기 메인 화면(1210)의 소정 영역에 메뉴 런처가 오버레이 되어 제공된다.Referring to FIG. 12, one application is provided on the main screen 1210, and a menu launcher is overlaid on a predetermined area of the main screen 1210.
도 11에서와 다르게, 이하에서는 설명하는 메뉴는 현재 모드(Present mode), 과거 모드(Past mode) 및 미래 모드(Future mode)에 대한 메뉴로 구분할 수 있으며, 각 모드에 대한 메뉴 런처 구성은 상이할 수 있다. 이러한 메뉴 모드 구분은 예컨대, 도 11에 비하여 더욱 직관적이고 손쉬운 메뉴 이용 편의를 제공하기 위한 것이다.Unlike in FIG. 11, the menu described below may be divided into menus for a current mode, a past mode, and a future mode, and the menu launcher configuration for each mode may be different. Can be. This menu mode division is, for example, to provide a more intuitive and easy menu using convenience as compared to FIG.
과거 모드는 기 이용하였던 히스토리 데이터에 관한 메뉴 구성에 관한 것이고, 미래 모드는 향후 이용할 추천 컨텐트/애플리케이션 등에 관한 메뉴 구성을 포함할 수 있다. 한편, 현재 모드는 도 11과 같이, 메뉴 호출시 제공되는 기본 메뉴를 의미하며, 상기 과거 모드와 미래 모드 이외의 메뉴 구성을 모두 포함하는 의미일 수 있다. 일 예로, 현재 모드는 예컨대, 디지털 디바이스에서 자주 이용되는 애플리케이션/컨텐트에 초점을 두어 메뉴를 구성한 것일 수 있다.The past mode may relate to a menu configuration regarding historical data that has been used previously, and the future mode may include a menu configuration regarding recommended content / application to be used in the future. Meanwhile, as shown in FIG. 11, the current mode means a basic menu provided when a menu is called, and may include a menu configuration other than the past mode and the future mode. For example, the current mode may be a menu configured by focusing on an application / content frequently used in a digital device.
본 명세서에서는 설명의 편의를 위하여, 사용자의 메뉴 요청에 대응하여, 디지털 디바이스는 초기 메뉴로 현재 모드의 메뉴를 메뉴 런처를 통해 제공하도록 설정될 수 있다. 이 경우, 디지털 디바이스에서, 과거 모드와 미래 모드는, 상기 최초 제공되는 현재 모드로부터 진입 가능할 수 있다. 그러나, 이에 한정되는 것은 아니다. 예컨대, 디지털 디바이스는 특별히 사용자가 특정 모드의 메뉴를 요청하지 않는 경우에는, 사용자의 설정이나 다양한 관련 팩터를 통해 현재, 과거 및 미래 모드 중 적어도 하나의 모드를 메뉴 런처를 통해 제공한다. 다만, 이하에서는 편의상 현재 모드의 메뉴 런처를 기본 메뉴(basic menu or default menu)로 제공하고, 과거 모드와 미래 모드는 그로부터 액세스하는 것을 일 실시 예로 하여 설명한다. 다만, 본 발명과 관련하여, 모드 전환, 모드 진입 등에 대한 시나리오는, 이하 본 명세서에서 도시하고 기술하는 바에 한정되지 않고, 다양한 방식으로 이루어질 수 있다.In the present specification, for convenience of description, in response to a user's menu request, the digital device may be set to provide a menu of a current mode as an initial menu through a menu launcher. In this case, in the digital device, the past mode and the future mode may be accessible from the first provided current mode. However, it is not limited to this. For example, the digital device provides at least one of the current, past and future modes through the menu launcher through the user's setting or various related factors, especially when the user does not request a menu of a specific mode. However, hereinafter, for convenience, a menu launcher of the current mode is provided as a basic menu or a basic menu, and the past mode and the future mode will be described as an embodiment. However, in connection with the present invention, scenarios for mode switching, mode entry, and the like are not limited to those shown and described herein, but may be made in various ways.
도 12 내지 21은 현재 모드 메뉴의 메뉴 런처를, 도 22 내지 27은 과거 모드 메뉴의 메뉴 런처를 그리고 도 28 내지 35는 미래 모드 메뉴의 메뉴 런처를 도시하였으며, 이하 첨부된 도면을 참조하여 상세하게 설명한다.12 to 21 show the menu launcher of the current mode menu, FIGS. 22 to 27 show the menu launcher of the past mode menu, and FIGS. 28 to 35 show the menu launcher of the future mode menu, which will be described in detail with reference to the accompanying drawings. Explain.
먼저, 도 12 내지 21에서는 현재 모드 메뉴의 메뉴 런처 구성에 대해 상세하게 설명한다.12 to 21, the configuration of the menu launcher of the current mode menu will be described in detail.
도 12를 참조하면, 전술한 바와 같이, 메뉴 런처는 리센트 파트(1220)와 리스트 파트(1230)를 포함한다. 여기에, 상기 메뉴 런처는, 미래 모드 진입을 위한 인터페이스 파트(1250)를 더 포함할 수 있다. 그리고, 비록 도시되진 않았으나, 상기 메뉴 런처는, 상기 리센트 파트(1220)의 히스토리 데이터 리스트나 관련 기능 내지 데이터 접근을 위한 인터페이스와 리스트 파트(1230)의 추가적인 애플리케이션 리스트나 관련 기능 내지 데이터 접근을 위한 인터페이스 등을 더 포함할 수 있다. 한편, 상기 리스트 파트(1230)는 편의상 제2 모드 즉, 컨텐트 리스트로 구성하였다.Referring to FIG. 12, as described above, the menu launcher includes a reward part 1220 and a list part 1230. Here, the menu launcher may further include an interface part 1250 for entering the future mode. In addition, although not shown, the menu launcher may include an interface for history data list or related functions or data access of the reward part 1220 and an additional application list or related functions or data access for the list part 1230. The interface may further include. Meanwhile, the list part 1230 is configured as a second mode, that is, a content list for convenience.
현재 모드에서 메뉴는, 레퍼런스 인디케이터(Reference Indicator)(1240)를 기준으로 리센트 파트(1220)와 리스트 파트(1230)가 각각 구분되어 제공된다.In the current mode, the menu is provided by dividing the accent part 1220 and the list part 1230 on the basis of a reference indicator 1240.
리센트 파트(1220)는, 전술한 도 11의 제1 파트 즉, 리센트 파트에 대응되며, 히스토리 데이터를 포함하고, 현재 모드에서는 현재 화면상에 제공 중인 애플리케이션 직전에 이용한 애플리케이션에 대한 히스토리 데이터만을 출력할 수 있다. 이때, 상기 리센트 파트(1220)는 히스토리 데이터로 해당 애플리케이션의 이미지 데이터, 타이틀 데이터(1225), 서버 데이터, 아이콘 등 다양한 데이터 중 적어도 하나를 제공할 수 있다. 상기 이미지 데이터라 함은 예를 들어, 해당 애플리케이션의 대표 썸네일 이미지, 현재 제공 중인 애플리케이션으로 스위칭/인터체인징 직전에 캡쳐한 이미지 데이터, 서버로부터 다운로드 또는 디지털 디바이스에 저장된 이미지 데이터 중 어느 하나일 수 있다. 또한, 해당 애플리케이션에 대한 이미지 데이터 또는 히스토리 데이터가 복수 개인 경우에는 슬라이드 쇼(slide show) 방식으로 해당 메뉴 아이템 내에서 제공될 수도 있다. The accent part 1220 corresponds to the first part of FIG. 11, that is, the accent part of FIG. 11, includes history data, and in the current mode, only the history data for an application used immediately before an application currently provided on the screen is included. You can print In this case, the reward part 1220 may provide at least one of various data such as image data, title data 1225, server data, and icon of the corresponding application as history data. The image data may be, for example, any one of a representative thumbnail image of the corresponding application, image data captured immediately before switching / interchange to an application currently being provided, image data downloaded from a server or stored in a digital device. In addition, when there are a plurality of image data or history data for the corresponding application, it may be provided in the corresponding menu item in a slide show manner.
디지털 디바이스는, 리센트 파트(1220) 선택 신호가 수신되면, 상기 리센트 파트(1220)에 포함된 애플리케이션 즉, 이전 실행 애플리케이션을 메인 영역을 통해 제공되고 있는 애플리케이션과 스위칭/인터체인징하여 재생한다. 이때, 상기 재생은 이전 재생 중단된 부분에 이어서 시작될 수도 있고 다시 처음부터 재생 시작될 수 있다. 한편, 상기 스위칭/인터체인징되는 애플리케이션이 예를 들어, 리얼-타임 애플리케이션(ex. 리얼-타임 방송 프로그램)인 경우 등에는 이전 재생 중단 시점 또는 현재 시각에 데이터 중 재생할 지점을 선택 가능하도록 가이드하고 선택에 따를 수도 있다. 또는, 비록 도시되진 않았으나, 상술한 바와 같이 리센트 파트(1220)가 선택되거나 포인터(1260)가 리센트 파트(1220) 내에 위치하면, 디지털 디바이스는 해당 애플리케이션의 재생을 위한 재생 아이콘(reproducing icon)을 제공 또는 해당 컨텐트에 대한 상세 정보를 제공할 수도 있다. 또는, 비록 도시되진 않았으나, 디지털 디바이스는 상기 리센트 파트(1220) 등이 선택된 경우에도 상술한 바와 같이, 스위칭/인터체인징하여 재생하는 것이 아니라 메인 영역에서 실행 중인 애플리케이션에는 영향을 끼치지 않고 해당 리센트 파트(1220) 내에서 해당 애플리케이션을 실행되도록 할 수도 있다. 이때, 디지털 디바이스는, 상기 재생 시에 재생 바를 제공하여 현재 재생 위치, 재생 종료 시각 또는 상기 재생 종료까지 남은 시간 등 데이터를 더 제공할 수 있다.When the select part of the receive part 1220 is received, the digital device switches / interchanges and reproduces the application included in the receive part 1220, that is, the previously executed application, with the application provided through the main area. At this time, the playback may start after the previous playback interrupted portion or may start playback from the beginning again. On the other hand, when the application to be switched / inter-changed, for example, a real-time application (ex. Real-time broadcast program), for example, to guide and select to select a point to play out of the data at the previous playback stop time or the current time You can also follow Alternatively, although not shown, when the accent part 1220 is selected or the pointer 1260 is positioned within the accent part 1220 as described above, the digital device may display a reproducing icon for playing the corresponding application. It may be provided or detailed information about the content. Alternatively, although not shown, the digital device does not affect the application running in the main area, instead of switching / interchanging and playing, as described above, even when the recess part 1220 is selected. The application may be executed in the cent part 1220. In this case, the digital device may further provide data such as a current play position, a play end time, or a time remaining until the play end by providing a play bar during the play.
한편, 디지털 디바이스는, 포인터(1260)를 통해 리센트 파트(1220) 내 타이틀 데이터나 서버 데이터 등을 선택하는 신호가 수신되면, 상기 타이틀 데이터나 서버 데이터와 관련된 애플리케이션을 제공 또는 상기 애플리케이션과 관련된 서버 접근을 위한 가이드 데이터가 화면 상 또는 브라우저를 통해 제공할 수 있다. 이때, 상기 가이드 데이터나 브라우저는 오버레이되되, 스크린상에서 최상위 레벨로 제공될 수 있다. On the other hand, when the digital device receives a signal for selecting title data or server data in the receive part 1220 through the pointer 1260, the digital device provides an application related to the title data or server data or a server related to the application. Guide data for access can be provided on the screen or via a browser. In this case, the guide data or the browser may be overlaid and provided at the highest level on the screen.
디지털 디바이스는 전술한 내용에서 리센트 파트(1220) 선택이나 액세스 과정에서 추가적인 또는 관련 데이터 제공 시에 메뉴 아이콘 형태로 제공할 수 있다. 다만, 상기 아이콘 형태 제공 방식에만 한정되는 것은 아니다. In the above description, the digital device may provide a menu icon in the form of a menu icon when providing additional or related data during the selection or access of the accent part 1220. However, the present invention is not limited to the method of providing the icon form.
그 밖에, 본 명세서에서는 리센트 파트(1220)에서 편의상 하나의 애플리케이션에 대한 데이터만을 제공하는 것으로 도시하였으나, 이는 일 실시 예일뿐 이에 한정되는 것은 아니다.In addition, in the present specification, although the convenience part 1220 provides only data for one application, this is merely an example and the present invention is not limited thereto.
한편, 전술한 리센츠 파트는 후술할 과거 모드와 관련된다. 다만, 이와 관련된 상세한 설명은 후술하고 여기서는 생략한다.On the other hand, the above mentioned parts are related to the past mode to be described later. However, the detailed description thereof will be described later and omitted herein.
상기에서, 레퍼런스 인디케이터(1240)는, 리센트 파트(1220)와 리스트 파트(1230)를 구분하는 기준 즉, 경계 역할을 수행한다. 예를 들어, 리센트 파트(1220)는 전술한 바와 같이, 1개의 리센트 데이터만 출력하므로 좌/우 등으로 스크롤(scroll)되지 않는다. 그러나 리스트 파트 데이터는 그 개수에 따라 좌/우로 스크롤될 수 있다. 그러나, 상기 리스트 파트 데이터는 상기 레퍼런스 인디케이터(1240)를 기준으로 이루어지며 상기 스크롤에 의하더라도 리센트 파트(1220)는 영향을 받지 않고 해당 위치에서 계속하여 제공될 수 있다. 또한, 만약 메뉴 런처가 도시된 것처럼 상하 기준으로 1단이 아닌 다단 구성인 경우에는, 상기 레퍼런스 인디케이터(1240)는 스크롤 기능을 수행할 수도 있다.In the above description, the reference indicator 1240 serves as a reference, that is, a boundary between the accent part 1220 and the list part 1230. For example, as described above, the accent part 1220 outputs only one accent data so that the accent part 1220 is not scrolled to the left or right. However, the list part data may be scrolled left / right according to the number. However, the list part data is made based on the reference indicator 1240, and even though the scroll part, the receive part 1220 may be continuously provided at a corresponding position without being affected. In addition, if the menu launcher has a multi-stage configuration instead of one-stage on a vertical basis, the reference indicator 1240 may perform a scroll function.
리스트 파트(1230)는, 전술한 바와 같이, 애플리케이션을 위한 하나 또는 그 이상의 메뉴 아이템들을 제공한다. 이때, 상기 메뉴 아이템들은 예컨대, 다양한 기준에 따라 상기 현재 모드의 리스트 파트를 위해 정렬된다. 상기 다양한 기준이라 함은 예를 들어, 사용자 또는 디지털 디바이스의 설정, 애플리케이션의 최근 실행 순서, 실행 시간, 실행 횟수, 실행 빈도, 속성 등 중 적어도 하나를 의미할 수 있다. List part 1230 provides one or more menu items for the application, as described above. In this case, the menu items are sorted, for example, for the list part of the current mode according to various criteria. The various criteria may mean, for example, at least one of a setting of a user or a digital device, a recent execution order of an application, an execution time, an execution frequency, an execution frequency, an attribute, and the like.
상기 각 메뉴 아이템은, 도 12에 도시된 바와 같이, 해당 애플리케이션을 위한 아이콘 데이터(1232)를 포함할 수 있다. 이때, 상기 각 메뉴 아이템은 상기 애플리케이션을 위하여, 이미지 데이터, 타이틀 데이터 등을 더 포함할 수 있다. 상기에서, 이미지 데이터는 예컨대, 해당 애플리케이션에 대한 대표 썸네일 이미지 데이터일 수 있다. 한편, 상기 메뉴 아이템 상에 제공되는 각종 데이터는 예컨대, 해당 메뉴 아이템에 대한 신호가 수신되는 경우에만 제공하거나 또는 인접한 메뉴 아이템의 액세스에 따라 제공될 수 있다.Each menu item may include icon data 1232 for the corresponding application, as shown in FIG. 12. In this case, each menu item may further include image data, title data, etc. for the application. In the above, the image data may be, for example, representative thumbnail image data for the corresponding application. Meanwhile, various data provided on the menu item may be provided only when a signal for the corresponding menu item is received, or may be provided according to access of an adjacent menu item.
전술한 바와 같이, 상기 리스트 파트는 비록 명확하게 도시되진 않았으나, 스크롤 바를 제공하여 상기 레퍼런스 인디케이터(1240)를 기준으로 추가적인 애플리케이션 메뉴 아이템들을 화면 구성의 변화 없이도 액세스할 수 있다.As described above, the list part, although not clearly shown, provides a scroll bar to access additional application menu items based on the reference indicator 1240 without changing the screen configuration.
도 13을 참조하여, 메뉴 런처의 리스트 파트를 제어하는 일 실시 예를 설명하면, 다음과 같다. 여기서, 도 13의 리스트 파트는 제2 모드로 구성되었다.An embodiment of controlling the list part of the menu launcher will be described with reference to FIG. 13. Here, the list part of FIG. 13 is configured in the second mode.
디지털 디바이스는, 리스트 파트에 속한 하나의 메뉴 아이템을 선택하는 신호를 수신하면, 도 13에 도시된 바와 같이, 먼저 선택된 메뉴 아이템을 선택되지 않은 메뉴 아이템(들)로부터 차별화되도록 제공한다. 도 13에서는 해당 메뉴 아이템이 선택되지 않은 메뉴 아이템에 비하여 조금 더 위로 올라간다. 또한, 상기 선택된 메뉴 아이템은 선택되지 않은 메뉴 아이템(들)과 달리, 애플리케이션에 대한 데이터를 제공한다. 도 13에서는 해당 애플리케이션의 서버 데이터(ex, Pooq)와, 상기 애플리케이션의 타이틀 데이터(ex, 괜찮아 사랑이야)를 제공한다. 다만, 디지털 디바이스는 상기 도시되고 설명된 데이터 이외에도 추가적인 데이터를 더 제공하거나 다른 데이터를 제공할 수 있다. 상기에서 서버 데이터는 예컨대, 해당 애플리케이션 데이터를 제공하거나 서비스하는 서버에 대한 데이터를 의미한다.When the digital device receives a signal for selecting one menu item belonging to the list part, as shown in FIG. 13, the digital device first provides the selected menu item to be differentiated from the unselected menu item (s). In FIG. 13, the menu item rises slightly higher than the menu item that is not selected. In addition, the selected menu item, unlike the menu item (s) not selected, provides data for the application. In FIG. 13, server data (ex, Pooq) of the application and title data (ex, okay, love) of the application are provided. However, the digital device may further provide additional data or provide other data in addition to the data shown and described above. In the above, the server data means, for example, data about a server that provides or services corresponding application data.
도 14를 참조하여, 메뉴 런처의 리스트 파트를 제어하는 다른 실시 예를 설명하면, 다음과 같다.Referring to FIG. 14, another embodiment of controlling the list part of the menu launcher will be described below.
도 13에 이어 도 14에서는 여전히 제2 모드로 리스트 파트를 구성하여 제공하고 있다. 다만, 전술한 바와 같이, 본 발명에 따르면, 리스트 파트는 메인 영역에 제공 중인 애플리케이션 또는 컨텐트와 관련된 애플리케이션 리스트 또는 컨텐트 리스트를 제공하는 제2 모드 이외에도, 제1 모드로 구성하여 제공할 수 있다. 상기 제1 모드라 함은 전술한 바와 같이, 상기 메인 영역에서 제공 중인 애플리케이션 또는 컨텐트와 관련없이 디지털 디바이스에서 제공 가능한 또는 실행 가능한 애플리케이션 리스트를 포함한다. 다시 말해, 제2 파트의 제1 모드는 현재 메인 영역에서 실행 중인 애플리케이션 또는 컨텐트와 관련 없는 애플리케이션 리스트 또는 컨텐트 리스트를 제공하나, 제2 모드는 관련된 애플리케이션 리스트 또는 컨텐트 리스트를 제공한다. 13, the list part is still configured and provided in the second mode. However, as described above, according to the present invention, the list part may be configured and provided in the first mode in addition to the second mode of providing the application list or the content list related to the application or the content being provided in the main area. As described above, the first mode includes a list of applications that can be provided or executable in the digital device regardless of the application or content being provided in the main area. In other words, the first mode of the second part provides an application list or content list that is not related to an application or content currently running in the main area, while the second mode provides an associated application list or content list.
디지털 디바이스는 메뉴 런처를 제공함에 있어서, 제2 파트를 제1 모드로 제공할지 또는 제2 모드로 제공할지 사용자가 바로 식별하기 어렵다. 따라서, 상기 메뉴가 제공된 이후에 되도록 쉽고 편하게 제2 파트의 모드를 스위칭/인터체인징하는 것이 요구될 수 있다. 도 14에 따르면, 포인터(1410)가 예컨대, 리스트 파트 내에서 소정 영역(ex, 리스트 파트의 하단 영역)에 위치하면, 도 14와 같이 모드 전환을 위한 인터페이스(1420)가 제공될 수 있다.In the digital device providing a menu launcher, it is difficult for a user to immediately identify whether to provide the second part in the first mode or the second mode. Therefore, it may be required to switch / interchange the mode of the second part as easily and conveniently as possible after the menu is provided. According to FIG. 14, when the pointer 1410 is located in a predetermined region (eg, a lower region of the list part) in the list part, an interface 1420 for mode switching may be provided as shown in FIG. 14.
여기서, 디지털 디바이스는 상기 모드 전환 인터페이스(1420) 선택 신호를 수신하면, 도 14의 제2 모드에서 도 15의 제1 모드로 제2 파트를 모드 전환하여 제공한다.Here, when the digital device receives the mode switching interface 1420 selection signal, the digital device switches the mode from the second mode of FIG. 14 to the first mode of FIG. 15.
도 15를 참조하면, 제2 파트는 제1 모드 즉, 디지털 디바이스에서 제공 가능한 또는 실행 가능한 애플리케이션 리스트(1510)가 제공된다. 여기서, 상기 제1 모드에서 제공되는 애플리케이션 리스트(1510)의 각 메뉴 아이템은 예를 들어, 해당 애플리케이션을 식별하기 위해 데이터를 포함한다. 또한, 상기 제1 모드에서 제공되는 애플리케이션 리스트(1510) 중 하나 또는 그 이상의 메뉴 아이템들(1520,1530)은, 도 15에 도시된 바와 같이, 상기 해당 애플리케이션 식별 데이터를 대신하여 또는 그와 함께 해당 애플리케이션에 대한 이미지 데이터를 포함할 수 있다. 예컨대, 상기 이미지 데이터는 직전 실행 종료 시에 캡쳐한 이미지 데이터 또는 해당 애플리케이션의 대표 썸네일 이미지 데이터로서, 이는 디지털 디바이스의 메모리, 해당 애플리케이션을 제공하는 서버 또는 웹 서버 등으로부터 수신할 수 있다. 이때, 상기와 같이, 이미지 데이터가 없는 애플리케이션 리스트는 예컨대, 한번도 실행한 적이 없거나 최근에 실행한 적이 없는 애플리케이션일 수 있다.Referring to FIG. 15, the second part is provided with a first mode, that is, the application list 1510 that can be provided or executed in the digital device. Here, each menu item of the application list 1510 provided in the first mode includes data for identifying the corresponding application, for example. In addition, one or more menu items 1520 and 1530 of the application list 1510 provided in the first mode may correspond to or instead of the corresponding application identification data, as shown in FIG. 15. It may include image data for the application. For example, the image data may be image data captured at the end of the previous execution or representative thumbnail image data of the corresponding application, which may be received from a memory of the digital device, a server providing a corresponding application, or a web server. In this case, as described above, the application list without the image data may be, for example, an application that has never been executed or recently executed.
도 16a는, 예를 들어, 도 11a와 유사한 메뉴 구성을 도시한 것이다. 다시 말해, 제1 파트와 제2 파트 각각의 일 측면에 추가 메뉴 아이템 액세스를 위한 인터페이스들(1620, 1630)이 제공된다. 한편, 여기서, 상기 제2 파트는 제2 모드로 제공된다.FIG. 16A shows a menu configuration similar to, for example, FIG. 11A. In other words, interfaces 1620 and 1630 are provided for accessing additional menu items on one side of each of the first and second parts. Meanwhile, here, the second part is provided in the second mode.
도 16b는, 도 16a와 다른 인터페이스를 제공한다. 도 16b에서는 도 16a의 인터페이스 동일한 기능을 하는 화살표 모양의 인터페이스(1640,1650)을 제공한다. 도 16b에서는 비록 상기 인터페이스(1640,1650)가 메뉴 런처와 중복되지 않는 영역에 제공되는 것으로 도시되었으나, 구현 예에 따라 도 16a의 위치에 제공될 수도 있다.FIG. 16B provides an interface different from that of FIG. 16A. FIG. 16B provides arrow-shaped interfaces 1640 and 1650 that function the same as the interface of FIG. 16A. Although FIG. 16B illustrates that the interfaces 1640 and 1650 are provided in an area not overlapping with the menu launcher, the interface 1640 and 1650 may be provided in the position of FIG. 16A according to an embodiment.
도 17은 예컨대, 전술한 제2 파트의 모드 전환에 대한 다른 실시 예를 도시하였다. 도 15가 제2 모드에서 제1 모드로의 스위칭/인터체인징을 도시한 것이라면, 도 17은 제1 모드에서 제2 모드로의 전환 예시이다. 다시 말해, 포인터가 메뉴 런처의 제2 파트의 제1 모드에서 소정 영역에 위치하면 즉, 하단 모서리 쪽에 위치하면, 디지털 디바이스는 모드 전환을 위한 인터페이스(1710)를 제공한다. 디지털 디바이스는 모드 전환 인터페이스(1710)가 액세스되면, 기존 모드(제1 모드)에서 다른 모드(제2 모드)로 제2 파트 구성을 변경한다.FIG. 17 illustrates another embodiment of mode switching of the second part, for example. If FIG. 15 illustrates switching / interchanging from the second mode to the first mode, FIG. 17 is an example of switching from the first mode to the second mode. In other words, when the pointer is located in a predetermined area in the first mode of the second part of the menu launcher, that is, located at the bottom corner, the digital device provides an interface 1710 for mode switching. When the mode switching interface 1710 is accessed, the digital device changes the second part configuration from the existing mode (first mode) to another mode (second mode).
도 18을 참조하면, 메뉴는 제1 파트와 제2 파트를 포함하고, 상기 제2 파트는 제2 모드 즉, 애플리케이션 리스트 또는 컨텐트 리스트를 제공한다. 전술한 바와 같이, 이러한 애플리케이션 리스트 또는 컨텐트 리스트는 메인 영역에 제공 중인 애플리케이션 또는 컨텐트와 관련된 애플리케이션 또는 컨텐트를 포함한다.Referring to FIG. 18, a menu includes a first part and a second part, and the second part provides a second mode, that is, an application list or a content list. As described above, such an application list or content list includes an application or content related to the application or content being provided in the main area.
도 18a를 참조하면, 디지털 디바이스는 제2 파트 내의 리스트를 좌우로 스크롤 가능함을 나타내고 있다. 이에 따라, 도 18b와 18c와 같이, 좌로 스크롤하면 레퍼런스 인디케이터(1810)을 기준으로 애플리케이션을 위한 메뉴 아이템이 스크롤됨을 알 수 있다.Referring to FIG. 18A, the digital device may scroll the list in the second part from side to side. Accordingly, as shown in FIGS. 18B and 18C, when the user scrolls to the left, the menu item for the application may be scrolled based on the reference indicator 1810.
도 18에서의 스크롤은 예를 들어, 프론트 패널이나 리모컨과 같은 입력 수단에 구비된 방향 키 버튼 신호에 의해 이루어지거나 포인터의 위치나 움직임에 따라 이루어질 수 있다.The scroll in FIG. 18 may be performed by, for example, a direction key button signal provided in an input means such as a front panel or a remote controller, or may be made according to the position or movement of the pointer.
한편, 도시되진 않았으나, 포인터가 하나의 메뉴 아이템상에 위치하면, 디지털 디바이스는 해당 메뉴 아이템의 제어를 위한 동작을 수행할 수 있다. 예를 들어, 디지털 디바이스는 포인터가 하나의 메뉴 아이템을 선택하고 선택된 메뉴 아이템의 모서리에 위치하면, 해당 메뉴 아이템의 사이즈를 상하 또는 좌우로 변경할 수 있도록 처리할 수 있다. 예를 들어, 포인터가 선택된 메뉴 아이템의 우측 모서리에 위치하면, 도 18a에 도시된 바와 같이 좌우 사이즈 변경을 위한 아이콘을 표시하거나 포인터의 모양을 변경하고 그 선택에 따라 해당 메뉴 아이템의 사이즈를 변경할 수 있다. 사이즈 변경이 있으면, 디지털 디바이스는 변경된 사이즈의 메뉴 아이템상에 원래 사이즈의 메뉴 아이템에 비하여 더욱 상세한 데이터나 기능 아이콘, 추천 컨텐트/애플리케이션 등 다양한 데이터를 더 제공할 수도 있다. 또는 단지 메뉴 아이템의 사이즈만을 확대하는 것도 당연히 가능하다.Although not shown, when the pointer is positioned on one menu item, the digital device may perform an operation for controlling the menu item. For example, when the pointer selects one menu item and is located at an edge of the selected menu item, the digital device may process the size of the corresponding menu item to be changed up and down or left and right. For example, when the pointer is located at the right corner of the selected menu item, as shown in FIG. 18A, an icon for resizing the left and right or the shape of the pointer may be changed and the size of the menu item may be changed according to the selection. have. If there is a size change, the digital device may further provide various data such as more detailed data, function icons, recommended content / applications, etc., on the menu item of the changed size as compared to the menu item of the original size. Or it is of course also possible to enlarge only the size of the menu item.
도 19는 전술한 내용 중에 선택된 메뉴 아이템의 재생 제어에 관해 도시한 것이다.19 illustrates playback control of a menu item selected from the foregoing.
도 19a와 같이, 디지털 디바이스는 제2 파트의 하나의 메뉴 아이템(1910)상에 포인터(1420)가 위치하면, 전체 화면으로 스위칭/인터체인징하여 상기 메뉴 아이템(1910)의 애플리케이션을 실행하지 않고 도 19b와 같이 해당 윈도우 내에서 PIP 형태로 재생을 한다. 이때, 도 19b를 참조하면, 디지털 디바이스는 메뉴 아이템 내에 재생 바(1930)를 제공하여 현재 실행되는 부분의 위치나 재생 제어를 할 수 있다. 도 19b에서 비록 도시되진 않았으나, 디지털 디바이스는 상기 재생 바(1930)와 함께 재생 제어를 위한 다양한 기능 아이콘을 함께 제공할 수도 있다.As shown in FIG. 19A, when the pointer 1420 is positioned on one menu item 1910 of the second part, the digital device does not execute an application of the menu item 1910 by switching / interchanging to the full screen. Plays in PIP form in the window as shown in 19b. In this case, referring to FIG. 19B, the digital device may provide a play bar 1930 in the menu item to control the position or play control of the currently executed part. Although not shown in FIG. 19B, the digital device may provide various function icons for playback control together with the play bar 1930.
또한, 전술한 바와 같이, 도 19에서는 선택된 메뉴 아이템을 제공하는 윈도우상에서 애플리케이션을 재생한다고 하였는데, 만약 사용자가 이를 전체 화면으로 스위칭/인터체인징하여 확대 재생하고 싶은 경우에 이를 위한 스위칭/인터체인징 아이콘(1940)을 더 제공할 수도 있다.In addition, as described above, in FIG. 19, an application is played on a window that provides a selected menu item. If a user wants to switch / interchange to a full screen to enlarge and play the application, a switching / interchange icon ( 1940 may be further provided.
도 20은 선택된 메뉴 아이템의 제어에 관해 도시한 것이다.20 illustrates control of the selected menu item.
도 20a에서는 하나의 메뉴 아이템을 선택하고, 선택된 메뉴 아이템을 상 또는 하 방향으로 움직이면, 디지털 디바이스는 상기 메뉴 아이템의 애플리케이션을 도 20b와 같이 재생할 수 있다. 예를 들어, 도 20a에서 상 방향으로 만약 움직이면, 도 20b와 같이 애플리케이션이 재생이 된다. 반대로, 도 20a에서 하 방향으로 메뉴 아이템을 움직이면, 재생 중인 애플리케이션의 재생을 종료할 수 있다.In FIG. 20A, when one menu item is selected and the selected menu item is moved up or down, the digital device may play the application of the menu item as shown in FIG. 20B. For example, if it moves upward in FIG. 20A, the application is played as shown in FIG. 20B. Conversely, if the menu item is moved downward in FIG. 20A, playback of the application being played may be terminated.
또는, 도 20a에서 메뉴 아이템의 애플리케이션(ex, MP3 애플리케이션)이 기 재생 중인 경우에는, 상기 메뉴 아이템을 상 방향 또는 하 방향으로 움직임에 따라 다음 곡 또는 이전 곡으로 바로 이동하여 재생할 수 있다.Alternatively, when an application (eg, an MP3 application) of a menu item is being played back in FIG. 20A, the menu item may be directly moved to the next or previous song as the menu item moves upward or downward.
도 20a와 20b와 같이, 해당 애플리케이션의 재생 제어를 위해서는 해당 메뉴 아이템을 선택한 이후에 소정 높이만큼 상 방향 또는 하 방향으로 이동시키면 재생 제어가 되나, 만약 하 방향으로 스크린 아래로 메뉴 아이템 아이템이 사라지게 하면, 해당 애플리케이션을 위한 메뉴 아이템이 리스트 상에서 사라지도록 할 수도 있다. 또는, 해당 애플리케이션의 재생 파일만을 제거하도록 정의할 수도 있다.20A and 20B, in order to control playback of the corresponding application, if the menu item is selected and then moved upwards or downwards by a predetermined height, playback control is performed. In addition, the menu item for the application may disappear from the list. Alternatively, it may be defined to remove only the playback file of the application.
도 21a에 도시된 바와 같이, 제2 파트의 하나의 메뉴 아이템을 스크린 하단 모서리 방향으로 움직이면, 도 21b와 같이 재생 관련 아이콘들(2122, 2124, 2126)이 해당 메뉴 아이템의 주변(ex, 해당 메뉴 아이템 상단 등)에 제공될 수 있다. 상기 재생 관련 아이콘들(2122,2124,2126)은, 추천 컨텐트/애플리케이션, 해당 애플리케이션 재생 제어를 위한 기능 아이콘, 해당 애플리케이션의 프리뷰 이미지 등 일 수도 있다.As shown in FIG. 21A, when one menu item of the second part is moved toward the bottom corner of the screen, playback-related icons 2122, 2124, and 2126 are moved around the menu item (eg, the corresponding menu item) as shown in FIG. 21B. The top of the item, etc.). The playback related icons 2122, 2124, and 2126 may be recommended content / applications, function icons for controlling playback of the corresponding application, and preview images of the corresponding application.
한편, 도 21c에서는, 선택된 메뉴 아이템을 도 21a와 달리 하단 모서리가 아니라 좌우 모서리로 이동시킬 수 있다. 이렇게 좌우로 이동시키면, 디지털 디바이스는 해당 메뉴 아이템을 다른 메뉴 아이템 사이에 위치시킬 수 있다.Meanwhile, in FIG. 21C, unlike in FIG. 21A, the selected menu item may be moved to the left and right corners instead of the bottom corners. Moving left and right in this way, the digital device may place the corresponding menu item between other menu items.
다음으로, 전술한 바와 같이, 이하 도 22 내지 27에서는 과거 모드 메뉴의 메뉴 런처 구성, 제어 등에 대해 상세하게 설명한다.Next, as described above, the menu launcher configuration, control, and the like of the past mode menu will be described below in detail with reference to FIGS. 22 to 27.
과거 모드와 관련하여, 그 진입은 다양한 방식으로 이루어질 수 있다. 과거 모드 진입은 예를 들어, 리센트 파트나 상기 리센트 파트의 상세 내용 확인을 위한 인터페이스나 파트(ex, 도 11에서 제1 파트(1120) 또는 제3 파트(1140))를 액세스함에 따라 이루어질 수 있다. 상기에서 예를 들어, 제1 파트(1120)를 액세스하는 경우에는, 과거 모드로 진입함을 가이드하는 UI 데이터를 제공할 수도 있다. 또는, 비록 도시되진 않았으나, 도 11 또는 12와 같이, 최초 메뉴가 제공될 때, 과거 모드, 현재 모드 및 미래 모드 진입을 위한 메뉴 아이템이나 메뉴 아이콘을 제공하고 그 선택에 따라 상기 과거 모드 진입이 가능할 수도 있다.Regarding the past mode, the entry can be made in a variety of ways. The past mode entry may be performed by accessing, for example, an accent part or an interface or part (eg, the first part 1120 or the third part 1140 in FIG. 11) for checking details of the accent part. Can be. For example, when accessing the first part 1120, the UI data guiding the entry into the past mode may be provided. Alternatively, although not shown, as shown in FIG. 11 or 12, when the initial menu is provided, a menu item or a menu icon for entering the past mode, the present mode, and the future mode may be provided and the past mode may be entered according to the selection. It may be.
이하에서는, 과거 모드 진입 이후의 시나리오에 대해 상세하게 설명한다.Hereinafter, the scenario after entering the past mode will be described in detail.
도 22a를 참조하면, 과거 모드 즉, 히스토리 데이터가 기 이용한 시간 순에 따라 정렬되어 제공된다. 도 22a에서는 예를 들어, 메뉴 런처의 오른쪽 모서리를 기준으로 좌측으로 갈수록 이용한 시간이 오래된 애플리케이션/컨텐트임을 알 수 있다.Referring to FIG. 22A, historical modes, that is, historical data, are arranged and provided according to a used time sequence. In FIG. 22A, for example, it can be seen that the time used toward the left based on the right edge of the menu launcher is an old application / content.
한편, 도 22a에서는, 정렬된 애플리케이션들은 예를 들어, 날짜 단위(ex, 어제(2210))로 그룹핑되어 제공되고 있다. 다만, 이는 과거 모드에서 제공할 애플리케이션의 개수에 따라 다른 기준에 따라 정렬될 수도 있다. 예컨대, 도 22a에서 날짜(어제(2210)) 기준 내에서도 시간 단위, 분 단위, 초 단위 등으로 구분되어 정렬되고 그를 식별 가능하도록 제공할 수도 있다. 또한, 도시되진 않았으나, 상기 애플리케이션들은, 날짜, 요일 등 시간 기준 이외에도 애플리케이션/컨텐트 속성, 애플리케이션/컨텐트 화질, 애플리케이션/컨텐트 제공 채널, 애플리케이션/컨텐트 내 주연 배우 등 인물, 애플리케이션/컨텐트 시리즈 여부, 애플리케이션/컨텐트 이용 완료 여부, 애플리케이션/컨텐트 실시간 데이터/스트리밍 여부, 애플리케이션/컨텐트 용량 등 중 적어도 하나에 기초하여 정렬되어 제공될 수 있다. 한편, 상기 기술한 기준들은 적어도 둘 이상 서로 조합하여 애플리케이션들 정렬에 이용될 수도 있다.Meanwhile, in FIG. 22A, the sorted applications are provided, for example, grouped by a date unit (eg, yesterday 2210). However, this may be arranged according to other criteria according to the number of applications to be provided in the past mode. For example, in FIG. 22A, even within a date (yesterday 2210) criterion, the data may be divided into time units, minutes, seconds, and the like, and provided to be distinguishable. In addition, although not shown, the applications, in addition to the time criteria such as date, day of the week, application / content properties, application / content quality, application / content providing channel, characters such as the main actor in the application / content, whether the application / content series, application / The content may be arranged and provided based on at least one of whether content usage is completed, application / content real-time data / streaming, application / content capacity, and the like. Meanwhile, the above-described criteria may be used for arranging applications in combination with at least two or more of each other.
도 22b는 도 22a와 같이, 정렬된 애플리케이션들 중에 예를 들어, 기 이용 중인 애플리케이션이 실시간 애플리케이션(real-time application), 이용 기간이 정해져 있는 애플리케이션(time-limited application) 등인 경우에, 이용이 종료된 경우에는 상기 과거 모드의 애플리케이션 리스트에서 제거(2220)할 수도 있다. 이때, 디지털 디바이스는 상기 제거 시에 해당 메뉴 아이템이 시청 종료로 인하여 상기 과거 모드의 애플리케이션 리스트로부터 제거함을 식별되도록 가이드 데이터를 함께 제공할 수도 있다. 상기에서는 리스트에서 제거 시에 가이드 데이터를 제공한다고 기술하였으나 이와 달리, 상기 가이드 데이터를 상기 제거 즉, 해당 메뉴 아이템의 애플리케이션/컨텐트 이용 종료 소정 시간 전에 미리 제공하여 사용자의 추가적인 액션 등을 유도할 수도 있다. 다만, 상기 가이드 데이터는 과거 모드 수행 경우에만 제공될 수 있다. 상기와 같이, 가이드 데이터를 제공 함은, 해당 메뉴 아이템의 애플리케이션/컨텐트가 리스트에서 제거되고 나면 다시 액세스하는 것이 용이하지 않기 때문에 그 이용 편의를 위하여 즉시녹화/예약녹화(instant recording/reserved recordin)g, 타임-쉬프트(time-shift) 등의 기능을 이용할 수 있도록 가이드하기 위함이다. 상기와 같이, 실시간 애플리케이션의 경우에는, VOD 서버나 인터넷 서버 등을 접속하여 관련 데이터에 대한 녹화 여부를 체크하고 추후에 알람 데이터를 제공할 수도 있다.FIG. 22B illustrates that when the application in use among the sorted applications is a real-time application, a time-limited application, or the like as shown in FIG. 22A, the use is terminated. If yes, it may be removed 2220 from the application list of the past mode. In this case, the digital device may provide guide data together to identify that the menu item is removed from the application list of the past mode due to the termination of the viewing. In the above description, the guide data is provided upon removal from the list. Alternatively, the guide data may be provided in advance before the removal, that is, a predetermined time before the application / content of the corresponding menu item is used, to induce additional actions of the user. . However, the guide data may be provided only when the past mode is performed. As stated above, providing guide data means that instant recording / reserved recording for convenience of use, since it is not easy to access again after the application / content of the menu item is removed from the list. This is to guide you to use functions such as time-shift and time-shift. As described above, in the case of a real-time application, a VOD server or an Internet server may be connected to check whether or not recording of related data is performed, and the alarm data may be provided later.
도시되진 않았으나, 현재 모드, 과거 모드 및 미래 모드에서는 메뉴 아이템을 통해 EPG/ESG 데이터의 호출, 즉시 녹화/예약 녹화, 예약 시청 등 다양한 기능을 바로 이용할 수도 있다.Although not shown, in the present mode, the past mode, and the future mode, various functions such as calling EPG / ESG data, instant recording / scheduled recording, and scheduled viewing can be directly accessed through menu items.
그 밖에, 디지털 디바이스는, 과거 모드 이용 중에, 기 제공된 히스토리 데이터 즉, 메뉴 아이템들에 대하여 어떤 데이터가 수정, 변경 등 업데이트 사항이 있는 경우에는, 그를 해당 메뉴 아이템상 또는 스크린의 소정 영역상에 제공하여 식별 가능하도록 제공할 수 있다.In addition, the digital device, when using the past mode, if any data has been updated, such as history data, that is, modifications or changes to the menu items, the device is provided on the menu item or a predetermined area of the screen. It can be provided so that it can be identified.
도 23은 과거 모드에서 메뉴 아이템을 제어하는 실시 예를 도시한 도면이다.FIG. 23 is a diagram illustrating an embodiment of controlling a menu item in a past mode.
도 23을 참조하면, 전술한 바와 같이, 시청 시간에 따라 메뉴 아이템이 정렬되어 제공되고 있다.Referring to FIG. 23, as described above, the menu items are provided in line with the viewing time.
여기서, 정렬된 메뉴 아이템들 중 기 시청한 KBS2 프로야구 방송 서비스 애플리케이션에 대한 메뉴 아이템(2310)의 위치를 과거 모드 내에서 이동시킬 수 있다. 예컨대, 상기 메뉴 아이템(2310)을 그 보다 먼저 시청한 것으로 정렬된 Halcyon Days 애플리케이션 메뉴 아이템과 Rain on Me 애플리케이션 메뉴 아이템 사이에 위치(2320)하도록 할 수 있다. 비록 도시되진 않았으나, 도 23과 같이, 소정 메뉴 아이템(2310)의 위치를 이동시키면, 상기 메뉴 아이템과 관련된 과거 모드에 포함된 메뉴 아이템들이 주변에 정렬되어 제공되거나 상기 메뉴 아이템과 관련된 기능 아이콘 등이 제공될 수도 있다.Here, the position of the menu item 2310 with respect to the previously viewed KBS2 professional baseball broadcast service application among the aligned menu items may be moved within the past mode. For example, the menu item 2310 may be positioned 2320 between the Halcyon Days application menu item and the Rain on Me application menu item arranged as viewed earlier. Although not shown, as shown in FIG. 23, when the position of the predetermined menu item 2310 is moved, the menu items included in the past mode associated with the menu item are arranged in a vicinity, or a function icon associated with the menu item is provided. May be provided.
도 24는 과거 모드에서 애플리케이션 처리 방법을 설명하기 위해 도시한 도면이다.24 is a diagram illustrating an application processing method in a past mode.
도 24a를 참조하면, 과거 모드는 전술한 바와 같이, 기 시청한 애플리케이션들에 대한 메뉴 아이템들이 정렬되어 제공된다. 이때, 상기 각 메뉴 아이템은, 상기 시청 종료 직전의 이미지를 캡쳐하여 메뉴 아이템상에 제공한다.Referring to FIG. 24A, as described above, the past mode is provided by arranging menu items for previously viewed applications. At this time, each menu item captures an image immediately before the end of viewing and provides it on the menu item.
포인터(2410)를 통해 메뉴 아이템(2420) 선택 신호가 수신되면, 디지털 디바이스는 해당 메뉴 아이템(2420)을 위쪽으로 살짝 올려 선택되었음을 표시하고, 상기 메뉴 아이템상에 재생 아이콘(2430)과 재생 바(2440) 중 적어도 하나를 출력한다. 여기서, 상기 재생 아이콘(2430) 선택 신호가 수신되면, 디지털 디바이스는 메인 영역 또는 해당 메뉴 아이템 윈도우 상에서 이전 재생 부분에 이어서 재생할 수 있다.When the menu item 2420 selection signal is received through the pointer 2410, the digital device slightly raises the menu item 2420 upwards to indicate that the selection has been made, and a play icon 2430 and a play bar ( 2440). Here, when the play icon 2430 selection signal is received, the digital device may play back the previous play portion on the main area or the corresponding menu item window.
도 24b와 24c는 예컨대, 과거 모드를 위한 메뉴 아이템 액세스를 통한 멀티-뷰 화면 제공 실시 예를 도시한 것이다.24B and 24C illustrate embodiments of providing a multi-view screen through, for example, accessing a menu item for a past mode.
도 24a에서는 메뉴 아이템이 액세스되면, 해당 윈도우에서 바로 상기 메뉴 아이템의 애플리케이션이 재생되거나 메인 영역에서 실행 중인 애플리케이션을 대신하여 상기 메뉴 아이템의 애플리케이션이 전체 화면으로 재생되는 실시 예를 도시하였으나, 도 24b와 24c에서는 PIP 윈도우나 분할된 화면상에서 상기 메뉴 아이템의 애플리케이션을 실행한다.In FIG. 24A, when the menu item is accessed, the application of the menu item is directly played in the window or the application of the menu item is played in full screen instead of the application running in the main area. In 24c, the application of the menu item is executed in a PIP window or a divided screen.
도 24b에서는 선택된 메뉴 아이템의 애플리케이션이 PIP 윈도우(2450)를 통해 제공되는 실시 예이다. 도 24c에서는 도 24b와 유사하나, 상기 PIP 윈도우들(2450,2560)이 제공되는 위치가 상이하다. 한편, 도 24c에서는, 선택된 메뉴 아이템의 애플리케이션을 실행하기 위한 PIP 윈도우(2460)뿐만 아니라 추가로 상기 PIP 윈도우(2460)을 통하여 실행되는 애플리케이션과 관련된 애플리케이션을 실행하기 위한 하나 또는 그 이상의 PIP 윈도우들(2470,2480)이 더 제공된다.In FIG. 24B, an application of the selected menu item is provided through the PIP window 2450. In FIG. 24C, the PIP windows 2450 and 2560 are provided at positions similar to those of FIG. 24B. Meanwhile, in FIG. 24C, not only the PIP window 2460 for executing the application of the selected menu item but also one or more PIP windows for executing an application related to an application executed through the PIP window 2460 ( 2470, 2480 is further provided.
상술한 도 24b와 24c는, 전술한 도 24a와 달리, 기 이용 중인 애플리케이션의 이용 방해를 최소화한 상태에서 다른 애플리케이션을 이용할 수 있게 된다.24B and 24C described above, unlike the above-described FIG. 24A, other applications may be used while minimizing use disturbance of previously used applications.
도 25 역시 과거 모드에서 애플리케이션 처리 방법을 설명하기 위해 도시한 도면이다.FIG. 25 is a diagram for explaining an application processing method in a past mode.
도 25a는 전술한 도 24와 달리, 포인터를 통하여 과거 모드의 기 이용한 애플리케이션에 대응되는 메뉴 아이템을 선택한 후에, 전체 화면을 통하여 기 이용 중인 애플리케이션이 제공되고 있는 메인 영역으로 이동시키면, 도 25b와 같이, 상기 메뉴 아이템의 애플리케이션이 전체 화면을 통해 제공된다. 이때, 도 25b에서는, 기 제공 중인 과거 모드의 메뉴 런처를 숨기거나 종료할 수도 있다.25A is different from FIG. 24 described above, after selecting a menu item corresponding to a previously used application through a pointer, and then moving to a main area where an already used application is provided through a full screen, as shown in FIG. 25B. The application of the menu item is provided over the full screen. In this case, in FIG. 25B, the menu launcher of the past mode currently provided may be hidden or terminated.
도 26은 과거 모드에서 메뉴 런처의 제어 방법을 설명하기 위해 도시한 도면이다.FIG. 26 is a diagram illustrating a method of controlling a menu launcher in a past mode.
도 26a를 참조하면, 과거 모드의 메뉴 런처가 구성되어 제공되는데, 메뉴 항목들은 이용 시간 기준(2610,2620)으로 그룹핑하여 분류하여 제공하며, 각 그룹은 식별 가능하도록 가이드 데이터(ex, 어제, 일주일 전 등)를 제공하고 있다. Referring to FIG. 26A, the menu launcher of the past mode is configured and provided, and the menu items are classified and provided by grouping the use time criteria 2610 and 2620, and each group is provided with guide data (ex, yesterday, one week). Etc.).
다만, 상기 도 26a는 예를 들어, 고거 모드의 메뉴를 구성함에 있어서, TV 서비스 애플리케이션만으로 구성하여 제공할 수 있다.However, FIG. 26A may be provided by configuring only a TV service application, for example, in configuring a menu in a go-go mode.
이 경우, 만약 사용자가 TV 서비스 애플리케이션 이외에 게임, 웹 브라우저, HDMI 등 다른 애플리케이션에 대한 과거 모드 데이터를 요구하는 경우에는, 도 26b와 같이, 제공할 수 있다.In this case, if the user requests past mode data for other applications such as games, web browsers, HDMI, etc. in addition to the TV service application, it may be provided as shown in FIG. 26B.
도 26a에서 만약 포인터를 상기 제공 중인 메뉴 런처의 하단 소정 영역상에 위치시키면, 디지털 디바이스는 현재 모드에서의 제어 방식과 유사하게 도 26b와 같이, 메뉴 아이템 전환 인터페이스(2630)를 제공한다. In FIG. 26A, if the pointer is positioned on the lower predetermined area of the providing menu launcher, the digital device provides the menu item switching interface 2630, as in FIG. 26B, similar to the control method in the current mode.
상기 도 26b의 메뉴 아이템 전환 인터페이스(2630)를 액세스하면, 디지털 디바이스는 상기 도 26a에서 기 제공하였던 TV 서비스 애플리케이션의 메뉴 아이템들을 제외 또는 포함하여 과거 모드를 위한 메뉴 아이템을 재구성하여 또는 전환하여 제공한다.When the menu item switching interface 2630 of FIG. 26B is accessed, the digital device reconfigures or switches the menu item for the past mode by excluding or including the menu items of the TV service application previously provided in FIG. 26A. .
도 26b에서는 편의상 포인터의 위치에 따라 어제와 일주일 전 사이의 메뉴 항목의 제어만을 위한 인터페이스(2630)를 제공하는 것으로 도시하였으나, 상기 포인터의 위치에 무관하게 과거 모드의 전체 데이터에 대한 전술한 바와 같이, 전환이 가능하도록 구현할 수도 있다.In FIG. 26B, for convenience, an interface 2630 for controlling only a menu item between yesterday and a week ago is provided according to the location of the pointer. However, as described above with respect to the entire data of the past mode regardless of the location of the pointer, FIG. It can also be implemented to enable switching.
한편, 도시되진 않았으나, 과거 모드의 메뉴를 구성함에 있어서, 상기 과거 모드의 히스토리 데이터가 많은 경우에는, 전술한 바와 달리 그룹 아이콘만 제공할 수도 있다. 이러한 그룹 아이콘으로 예컨대, 도 26에서의 일주일 전, 어제 등을 들 수 있다. 또는, 상기 각 그룹 아이콘에서 대표적인 하나의 애플리케이션을 위한 메뉴 아이템을 1개씩만 제공할 수도 있다. 전자 또는 후자에서, 만약 소정 그룹 아이콘 선택 신호가 수신되면, 디지털 디바이스는 선택된 그룹에 속한 메뉴 아이템들을 펼쳐서 제공할 수도 있다.On the other hand, although not shown in the configuration of the menu in the past mode, when there is a lot of history data of the past mode, it is possible to provide only a group icon, unlike the above. As such a group icon, for example, a week ago in FIG. 26, yesterday, and the like. Alternatively, only one menu item for one representative application may be provided in each group icon. In the former or the latter, if a predetermined group icon selection signal is received, the digital device may expand and provide menu items belonging to the selected group.
본 명세서에서 기술하는 메뉴 구성 방식은 예컨대, 사용자의 설정에 따를 수도 있고 디지털 디바이스에서 결정할 수도 있다. 후자의 경우에는, 사용자 데이터, 이용 패턴, 시간, 날짜, 요일, 날씨 등 다양한 기준을 이용 또는 상기 기준들을 적절히 조합하여 결정할 수 있다. The menu configuration method described herein may be, for example, according to a user's setting or determined by the digital device. In the latter case, various criteria such as user data, usage pattern, time, date, day of the week, weather, etc. may be used or determined by appropriate combination of the above criteria.
도 27은 역시 과거 모드의 메뉴 아이템 제어에 대한 설명을 위해 도시한 도면이다.27 is a diagram for explaining the menu item control of the past mode as well.
전술한 바와 같이, 과거 모드에서도 메뉴 아이템은 선택 이후에 상하좌우 방향으로 움직여 소정 기능을 수행할 수 있다. As described above, even in the past mode, the menu item may move up, down, left, and right after selection to perform a predetermined function.
도 27a를 참조하면, 디지털 디바이스는 포인터를 통해 소정 메뉴 아이템(2710)이 선택되고, 선택된 메뉴 아이템을 드래그하여 스크린의 하단 모서리 방향으로 이동시키면, 도 27b와 같이, 상기 선택된 메뉴 아이템과 관련된 데이터(2722,2724,2726)를 제공한다.Referring to FIG. 27A, when a predetermined menu item 2710 is selected through a pointer and the selected menu item is dragged to move toward the bottom corner of the screen, as shown in FIG. 27B, data related to the selected menu item (see FIG. 27B) may be used. 2722,2724,2726.
상기에서 관련 데이터(2722,2724,2726)는, 상기 메뉴 아이템의 애플리케이션에 대한 소정 기능 수행을 위한 기능 아이콘, 상기 애플리케이션과 관련된 애플리케이션, 또는 상기 애플리케이션에 대한 프리뷰 이미지(이전 시청 부분 포함) 등일 수 있다. 예를 들어, 상기 선택된 메뉴 아이템이 야구 방송 컨텐트에 대한 것이면, 상기 관련 데이터(2722,2724,2726)는 다른 채널의 야구 방송 컨텐트일 수 있다.The related data 2722, 2724, and 2726 may be a function icon for performing a predetermined function of an application of the menu item, an application related to the application, or a preview image (including a previous viewing portion) of the application. . For example, if the selected menu item is for baseball broadcast content, the related data 2722, 2724, 2726 may be baseball broadcast content of another channel.
마지막으로, 이하 도 28 내지 35는 미래 모드의 메뉴 구성 및 제어에 대해 첨부된 도면을 참조하여, 상세하게 설명한다.Lastly, FIGS. 28 to 35 will be described in detail with reference to the accompanying drawings for menu configuration and control in the future mode.
도 28은 예를 들어, 미래 모드 메뉴 진입을 위한 방법을 설명하기 위해 도시한 도면이다.FIG. 28 is a diagram to describe a method for entering a future mode menu, for example.
전술한 바와 같이, 미래 모드 메뉴는 예를 들어, 도 28a에서와 같이, 포인터(2810)를 통해 메뉴 런처와는 별도로 제공된 미래 모드 진입을 위한 인터페이스(2820)를 액세스함에 따라 진입할 수도 있고, 도 28b와 같이 메뉴 호출에 따라 제공된 현재 모드(과거 모드도 포함)의 메뉴 런처와 함께 제공되는 미래 모드 진입을 위한 인터페이스(2840)을 통해 진입할 수도 있다.As described above, the future mode menu may enter through, for example, accessing the interface 2820 for future mode entry provided separately from the menu launcher via the pointer 2810, as shown in FIG. 28A, and FIG. It may be entered through the interface 2840 for entry into the future mode provided with the menu launcher of the current mode (including the past mode) provided according to the menu call, such as 28b.
도 28a의 미래 모드 진입 인터페이스(2820)는 예컨대, 도 28b와 같이, 메뉴 호출 시에 현재 모드 메뉴 없이도 제공될 수도 있으나, 상기 메뉴 호출이 없더라도 리모컨의 키 버튼 신호에 대응하여 화면상에 바로 제공될 수도 있다. 한편, 도 28a에서는 미래 모드 진입 인터페이스(2820)가 화면 중하단에 제공되는 것으로 도시하였으나, 이에 한정되는 것은 아니다. 따라서, 상기 미래 모드 진입 인터페이스(2820)는 스크린상의 다양한 위치에서 제공될 수 있다. 그 밖에, 상기 미래 모드 진입 인터페이스(2820)의 모양은 도 28a에 도시된 모양에 한정되지 않고, 다양하게 구성할 수 있다.The future mode entry interface 2820 of FIG. 28A may be provided without a current mode menu when a menu is called, for example, as shown in FIG. 28B, but may be provided directly on the screen in response to a key button signal of a remote controller even when the menu is not called. It may be. Meanwhile, although FIG. 28A illustrates that the future mode entry interface 2820 is provided at the middle of the screen, the present invention is not limited thereto. Thus, the future mode entry interface 2820 may be provided at various locations on the screen. In addition, the shape of the future mode entry interface 2820 is not limited to the shape shown in FIG. 28A, and may be variously configured.
도 28과 같이, 미래 모드 진입 인터페이스(2820,2830) 선택 신호가 수신되면, 디지털 디바이스는 도 29와 같이 미래 모드 메뉴를 구성하여 제공한다. As shown in FIG. 28, when a future mode entry interface 2820 and 2830 selection signal is received, the digital device configures and provides a future mode menu as shown in FIG. 29.
미래 모드는 사용자가 아직 이용하지 않았거나 이용 가능성이 높은 애플리케이션/컨텐트에 대한 추천 등을 위한 메뉴 구성을 말한다.Future mode refers to a menu configuration for recommendation for applications / content that the user has not yet used or is likely to use.
미래 모드에서는 카테고리(category) 별로 추천 애플리케이션/컨텐트를 정렬하여 제공할 수 있다. 이러한 카테고리로는, 기본(Basic) 카테고리, 라이브(Live) 카테고리, TV 쇼(TV shows) 카테고리, 영화(Movies) 카테고리, 음악(Music) 카테고리, 추천 애플리케이션(Recommended Applications, Apps) 카테고리, 마이 컨텐트(My contents) 카테고리 등이 있다. 이들 각 카테고리의 메뉴 구성에 대하여 도 29 내지 35에서 각각 일 실시 예를 도시하였다. 한편, 본 발명의 미래 모드 메뉴의 카테고리로 상술한 바에 한정되지 않고, 사용자의 설정 등에 따라 다양하게 구현 가능하다. 또한, 후술하겠지만, 각 카테고리의 메뉴 구성은 해당 카테고리의 특성 등을 고려하여 서로 상이하게 구현될 수도 있다.In future mode, you can provide recommended applications / content sorted by category. These categories include the Basic category, Live category, TV shows category, Movies category, Music category, Recommended Applications, Apps category, My Content ( My contents) category. 29 to 35 illustrate menu configurations of the respective categories. Meanwhile, the present invention is not limited to the above-described category of the future mode menu, and may be variously implemented according to a user's setting. In addition, as will be described later, the menu structure of each category may be implemented differently in consideration of characteristics of the corresponding category.
도 29를 참조하면, 미래 모드 메뉴는 검색 영역(2910), 카테고리 영역, 선택된 카테고리에 해당하는 추천 컨텐트 영역(2930)을 포함한다. 특히, 도 29에서는 카테고리 영역에서 기본 카테고리(2920)가 선택되어, 추천 컨텐트 영역(2930)에서 상기 기본 카테고리에 속하는 애플리케이션/컨텐츠가 리스팅되어 있다.Referring to FIG. 29, the future mode menu includes a search area 2910, a category area, and a recommended content area 2930 corresponding to a selected category. In particular, in FIG. 29, the basic category 2920 is selected in the category area, and applications / contents belonging to the basic category are listed in the recommended content area 2930.
도 29의 기본 카테고리는, 전체 추천 컨텐츠 또는 다양한 기준에 따라 선별된 추천 애플리케이션/컨텐트를 리스팅할 수 있다. 따라서, 전자의 경우에는 다른 카테고리의 추천 애플리케이션/컨텐트와 중복될 수도 있다. 한편, 기본 카테고리에서 정렬되는 순서는 카테고리 순, 우선순위 순 등 설정 등에 따를 수 있다. 또한, 후자와 관련하여, 상기 다양한 기준에는 예를 들어, 계절, 날씨, 시간, 식별된 사용자, 최근 이용 애플리케이션/컨텐트 속성, 타입 등, 유료 여부 등을 포함할 수 있다. 예를 들어, 도 29는 미래 모드가 실행된 현재의 계절(ex, 겨울) 또는 날씨(ex, 눈이 오는 날씨)에 기초하여 선별되고 추천된 겨울 또는/및 눈과 관련된 애플리케이션/컨텐트를 리스팅한 것이다. 다시 말해, 도 29의 실시 예에서는, 눈 내리는 겨울에 인기가 높고, 이용할만한 애플리케이션/컨텐츠가 리스팅된다.The basic category of FIG. 29 may list recommended applications / content selected according to all recommended contents or various criteria. Thus, in the former case, it may overlap with other categories of recommended applications / content. The order of sorting in the basic category may be set according to the category order, the priority order, and the like. In addition, with respect to the latter, the various criteria may include, for example, season, weather, time, identified user, recently used application / content attribute, type, etc., whether paid or not. For example, FIG. 29 lists the applications / content associated with selected and recommended winter or / and snow based on the current season (ex, winter) or weather (ex, snowy weather) in which future mode has been implemented. will be. In other words, in the embodiment of FIG. 29, the most popular and available applications / content are listed in the snowy winter.
한편, 도시되진 않았으나, 도 29 내지 35에서 리스팅된 추천 애플리케이션/컨텐츠로부터 선택된 하나 또는 그 이상의 애플리케이션/컨텐트는 그 선택에 따라 전체 화면으로 전환되어 재생되거나 현재 미래 모드 메뉴를 유지한 채로 PBP(Picture by Picture)(ex, 분할 화면), PIP(Picture in Picture), POP(Picture of Picture) 등의 형태로 제공될 수 있다.Meanwhile, although not shown, one or more applications / content selected from the recommended applications / contents listed in FIGS. 29 to 35 are switched to the full screen according to the selection, and the PBP (Picture by It may be provided in the form of a picture (eg, a split screen), a picture in picture (PIP), a picture of picture (POP), or the like.
도 30은 라이브 카테고리(3010)를 그리고 도 31은 TV 쇼 카테고리(3110)에 따른 추천 애플리케이션/컨텐트들을 리스팅한다. 여기서, 상기 도 30과 31은 예컨대, 둘 다 TV 서비스 또는 TV 서비스 애플리케이션과 관련된 카테고리이다. 다만, 도 30이 현재 시각을 기준으로 이후 방송될 방송 컨텐트들에 대한 EPG/ESG 데이터를 제공함에 반하여, 도 31은 주로 VOD 컨텐트을 제공하는 점이 상이하다.30 lists live category 3010 and FIG. 31 lists recommended applications / content according to TV show category 3110. 30 and 31 are both categories related to TV service or TV service applications, for example. However, while FIG. 30 provides EPG / ESG data for broadcast contents to be broadcasted later based on the current time, FIG. 31 mainly provides VOD contents.
도시되진 않았으나, 도 30에서 제공된 가이드로부터 하나의 메뉴 아이템이 선택되면, 즉시녹화/예약녹화 등을 미래 모드에서 바로 수행할 수 있다. 또한, 도 30에서 소정 메뉴 아이템이 선택되면, 전체 화면으로 전환 또는 현재 메뉴 아이템이 제공되고 있는 윈도우 내에서 프리뷰 이미지 등을 제공할 수도 있다. 이는 예약 시청 등의 경우에도 마찬가지이다. 만약 미래 모드를 이용하는 과정에서 만약 기 제공된 메뉴 아이템들의 라이브 방송 시간이 되거나 예약 시청 등에 의한 경우에는 미래 모드에서 제거 또는 해당 윈도우에서 그대로 실행할 수도 있다. 이 경우, 예약 시청 등을 설정한 이후에 만약 다른 카테고리나 메뉴 이용 시에는 전체 화면을 통하거나 또는 미래 모드의 라이브 카테고리를 자동 실행한 후에 해당 윈도우 상에서 재생할 수도 있다. 또한, 상술한 각 경우에 있어서, 이용 편의나 식별 편의를 위한 가이드 데이터를 제공할 수도 있다.Although not shown, if one menu item is selected from the guide provided in FIG. 30, immediate recording / reserved recording may be performed immediately in a future mode. In addition, when a predetermined menu item is selected in FIG. 30, a full screen or a preview image may be provided in a window in which a current menu item is provided. The same applies to reservation viewing and the like. If in the process of using the future mode, if the live broadcast time of the provided menu items, or by reservation viewing, etc. may be removed from the future mode or may be executed in the window as it is. In this case, after setting the reserved viewing and the like, if another category or menu is used, it may be played on the corresponding window through the full screen or after automatically executing the live category in the future mode. In each of the above-described cases, guide data for convenience of use or identification can also be provided.
도 31은 전술한 바와 같이, 일 실시 예로 VOD 추천 리스트일 수가 있는데, 이 경우 무료 VOD 컨텐트와 유료 VOD 컨텐트를 구분하여 제공할 수 있다. 또한, VOD 컨텐트를 제공하는 서버 단위, VOD 컨텐트의 타입이나 속성 단위로 VOD 컨텐트를 분류하여 리스팅할 수도 있다.As described above, FIG. 31 may be a VOD recommendation list according to an embodiment. In this case, the free VOD content and the paid VOD content may be separately provided. In addition, the VOD content may be classified and listed by the server unit providing the VOD content, the type or the attribute of the VOD content.
도 32는 영화 카테고리(3210)에 속하는 추천 애플리케이션/컨텐트 리스트가 제공한다. 상기 영화 카테고리에 속하는 추천 애플리케이션/컨텐트 리스트는 예컨대, 영화 VOD일 수도 있고, 디지털 디바이스에 저장되었으나 아직 이용하지 않은 영화 컨텐트의 리스트일 수 있다. 또는, 상기 영화 카테고리에 속하는 추천 애플리케이션/컨텐트는 TV 서비스에 속하는 하나 또는 그 이상의 채널 중에 영화 전용 채널 등에서 제공할 컨텐트일 수도 있다. 비록 도 32에서 도시하였으나, 미래 모드에서 제공되는 추천 애플리케이션/컨텐트에 대응되는 메뉴 아이템들은 그 위치를 상하좌우 어느 방향으로도 이동시킬 수 있음은 자명하다. 또한, 이러한 위치 이동이 있는 경우에는, 디지털 디바이스에서 상기 이동의 의미가 예컨대, 우선순위를 높이는 것으로 판단되면, 그 의미에 따라 기 제공되는 리스트 내 추천 애플리케이션/컨텐트를 재정렬하거나 재구성할 수 있다. 이는 카테고리 역시 마찬가지이다. 다시 말해, 사용자는 상기 카테고리 영역에 정렬된 각 카테고리 메뉴 아이템들의 위치 역시 이동 등 변경 가능하며, 그에 따라 정렬되는 또는 정렬할 추천 애플리케이션/컨텐트 리스트 구성도 달리할 수 있다.32 provides a list of recommended applications / contents belonging to the movie category 3210. The recommended application / content list belonging to the movie category may be, for example, a movie VOD or a list of movie contents stored in a digital device but not yet used. Alternatively, the recommended application / content belonging to the movie category may be content to be provided by a movie dedicated channel among one or more channels belonging to the TV service. Although illustrated in FIG. 32, it is apparent that menu items corresponding to the recommended application / content provided in the future mode may move their positions in any of up, down, left, and right directions. In addition, when there is such a location movement, if the meaning of the movement is, for example, a priority increase in the digital device, the recommended application / content in the previously provided list may be rearranged or reconfigured according to the meaning. The same is true for categories. In other words, the user may change the position of each category menu item arranged in the category area, such as moving or changing the recommended application / content list structure.
도 33은 음악 카테고리(3310)에 속하는 추천 애플리케이션/컨텐트 리스트를 제공하고, 도 34는 애플리케이션 카테고리(3410)에 속하는 추천 애플리케이션/컨텐트 리스트를 제공하고, 도 35는 마이 컨텐츠 카테고리(3510)에 속하는 추천 애플리케이션/컨텐트 리스트를 제공한다.33 provides a list of recommended applications / contents belonging to the music category 3310, FIG. 34 provides a list of recommended applications / contents belonging to the application category 3410, and FIG. 35 is a recommendation belonging to the my content category 3510. Provide an application / content list.
도 36은 본 발명의 일 실시 예에 다라 디지털 서비스 시템의 일 예를 설명하기 위해 도시한 도면이다.36 is a diagram illustrating an example of a digital service system according to one embodiment of the present invention.
도 36을 참조하면, 디지털 디바이스(3610)와 제2 디지털 디바이스(3640)는 외부 서버(클라우드 서버 등)(3650)와 데이터 커뮤니케이션을 통하여, 본 발명에 따르 메뉴 구성을 위한 메뉴 구성 데이터, 상기 메뉴 내 메뉴 아이템의 애플리케이션/컨텐트 등을 위한 애플리케이션/컨텐트 데이터를 수신할 수 있다. 한편, 상기 디지털 디바이스(3610)와 제2 디지털 디바이스(3640) 외에 모바일 디바이스(3620)나 중계기(3630)에서도 상술한 외부 서버(3650)와의 데이터 커뮤니케이션을 수행할 수 있다. 또한, 상기에서 모바일 디바이스(3620), 중계기(3630) 및 제2 디지털 디바이스(3640)는, 상기 외부 서버(3650)과 데이터 커뮤니케이션을 통해 수신한 데이터를 디지털 디바이스(3610)의 메뉴 구성 등을 위하여 전달할 수 있다. 이 경우, 필요시 전달될 데이터는 포맷 변경 등 가공되어 전달될 수 있다.Referring to FIG. 36, the digital device 3610 and the second digital device 3640 communicate data with an external server (such as a cloud server) 3650 through menu communication data for configuring a menu according to the present invention. Receive application / content data for applications / content, etc. of my menu items. In addition to the digital device 3610 and the second digital device 3640, the mobile device 3620 or the repeater 3630 may perform data communication with the external server 3650 described above. In addition, the mobile device 3620, the repeater 3630 and the second digital device 3640, the data received through the data communication with the external server 3650 for the menu configuration of the digital device 3610, etc. I can deliver it. In this case, the data to be delivered, if necessary, may be processed and delivered in a format change or the like.
한편, 상기 모바일 디바이스(3620), 중계기(3630)와 제2 디지털 디바이스(3640) 중 적어도 하나 이상은, 상기 디지털 디바이스(3610)에서 제공하는 메뉴 데이터를 수신하여 출력할 수 있다. 예컨대, 디지털 디바이스(3610)에서 현재 모드 메뉴를 출력 중이라면, 모바일 디바이스(3620)와 제2 디지털 디바이스(3640) 중 적어도 하나 이상은 상기 현재 모드 메뉴를 수신하여 출력할 수도 있고, 상기 현재 모드 이외의 과거 모드나 미래 모드의 메뉴를 수신하여 출력할 수 있다. 또한, 모바일 디바이스(3620)와 제2 디지털 디바이스(3640) 각각은, 디지털 디바이스(3610)로부터 서로 다른 모드의 메뉴 데이터를 수신하여 출력할 수도 있다.Meanwhile, at least one of the mobile device 3620, the repeater 3630, and the second digital device 3640 may receive and output menu data provided by the digital device 3610. For example, if the digital device 3610 is currently outputting a current mode menu, at least one or more of the mobile device 3620 and the second digital device 3640 may receive and output the current mode menu. Receives and prints the menu of past mode or future mode. In addition, each of the mobile device 3620 and the second digital device 3640 may receive and output menu data of different modes from the digital device 3610.
도 37은 일 예로, 디지털 디바이스(3710)에서 요청된 메뉴가 상기 디지털 디바이스(3710)의 스크린이 아니라 모바일 디바이스(3720)로 전송되어 출력되는 실시 예를 도시한 것이다.FIG. 37 illustrates an example in which a menu requested by the digital device 3710 is transmitted to and output from the mobile device 3720 instead of the screen of the digital device 3710.
한편, 도 38은 메뉴 런처의 새로운 형태 즉, 모바일 디바이스 형태의 메뉴 런처 구성에 대한 실시 예일 수도 있다. 다른 예로는, 도 38은 모바일 디바이스의 OSP와 같은 애플리케이션 실행에 따라 디지털 디바이스에서 모바일 디바이스의 다양한 메뉴나 데이터, 애플리케이션 등을 실행할 수 있도록 구현된 UI일 수 있다.38 may be an embodiment of a new type of menu launcher, that is, a menu launcher configuration in the form of a mobile device. As another example, FIG. 38 may be a UI implemented to execute various menus, data, applications, etc. of the mobile device in the digital device according to execution of an application such as OSP of the mobile device.
도 39는 본 발명에 따른 디지털 디바이스에서 메뉴 데이터 처리 방법을 설명하기 위해 도시한 순서도이다.39 is a flowchart illustrating a menu data processing method in a digital device according to the present invention.
디지털 디바이스는 컨텐트와 시그널링 데이터를 포함한 방송 신호를 수신하고(S3902), 수신된 컨텐트와 시그널링 데이터를 디코딩한 후에 화면상에 출력한다(S3904).The digital device receives a broadcast signal including content and signaling data (S3902), decodes the received content and signaling data, and outputs it on a screen (S3904).
디지털 디바이스는 메뉴 호출을 위한 제1 사용자 입력 신호가 수신되면(S3906), 상기 컨텐트가 출력 중인 화면의 소정 영역에 메뉴 화면을 구성하고 오버레이 형태로 출력한다(S3908).When the first user input signal for a menu call is received (S3906), the digital device composes a menu screen in a predetermined area of the screen on which the content is being output and outputs it in an overlay form (S3908).
상기와 같이, 메뉴를 컨텐트와 함께 출력한 이후, 제2 사용자 입력 신호가 수신되면(S3910), 디지털 디바이스는 상기 제2 사용자 입력 신호에 따라 상기 출력된 메뉴 화면 구성 스위칭/인터체인징을 위한 GUI를 출력한다(S3912),As described above, after the second user input signal is received after outputting the menu together with the content (S3910), the digital device generates a GUI for switching the menu screen configuration / interchange according to the second user input signal. Output (S3912),
디지털 디바이스는 제3 사용자 입력 신호가 수신되면(S3914), 상기 제3 사용자 입력 신호에 따라 상기 메뉴 화면의 구성을 스위칭/인터체인징하여 출력한다(S3916).When the third user input signal is received (S3914), the digital device switches / interchanges the configuration of the menu screen according to the third user input signal (S3916).
이하는 멀티-뷰 모드 데이터 처리에 대하여 첨부된 도면을 참조하여, 더욱 상세하게 설명한다.The following describes the multi-view mode data processing in more detail with reference to the accompanying drawings.
도 40은 멀티-뷰 모드 데이터 처리와 관련하여, 화면 분할 시에 사운드 제어 방법을 설명하기 위해 도시한 도면이다.FIG. 40 is a diagram for explaining a sound control method in screen division in relation to multi-view mode data processing.
도 40에서는, 편의상 스크린이 2개의 화면으로 분할된 것을 예시하였다. 다만, 이하 후술하는 제어 방법은 도시된 2개의 분할 화면뿐만 아니라, 후술할 멀티-뷰 모드에서도 동일 또는 유사한 방식으로 적용 가능함을 미리 밝혀 둔다.In FIG. 40, the screen is divided into two screens for convenience. However, it will be appreciated that the control method described below can be applied in the same or similar manner in the multi-view mode to be described later as well as the two split screens shown.
도 40의 스크린은 전술한 바와 같이, 제1 분할 화면(4010)과 제2 분할 화면(4020)으로 구성된다. 이 경우, 디지털 디바이스는 상기 제1 분할 화면(4010)의 사운드는 온(On)하여 스피커 등을 통해 출력하나, 상기 제2 분할 화면(4020)의 사운드는 오프(Off)하여 스피커 등을 통해 출력되지 않도록 제어할 수 있다. 이 경우, 사운드가 출력되지 않는 제2 분할 화면(4020)에 대해서는 사운드를 대신하여 해당 영역에 자막(캡션 또는 서브 타이틀)을 제공할 수 있다.As described above, the screen of FIG. 40 includes a first split screen 4010 and a second split screen 4020. In this case, the digital device turns on the sound of the first split screen 4010 and outputs it through a speaker, but turns off the sound of the second split screen 4020 and outputs it through a speaker. Can be controlled to prevent In this case, a subtitle (caption or subtitle) may be provided to the corresponding area for the second split screen 4020 in which the sound is not output.
한편, 전술한 사운드 제어 방법은, 사용자의 설정이나 디지털 디바이스의 기본 설정 예를 들어, 화면 분할 시에는 좌측의 분할 화면에 사운드 우선 출력 등에 따라 이루어질 수 있다. 반면, 상기와 같이, 사용자나 디바이스의 설정이 아니라고 하더라도, 주변 환경의 조도나 소음 등을 기초로 하여 어느 하나 또는 모든 분할 화면에 대하여 사운드 설정을 임의로 제어할 수 있다. 이러한 제어는 일시적일 수도 있고, 컨텐트 단위로 이루어질 수도 있다. 한편, 상술한 조건 이외에 추가로 개인화된 정보에 기초한 사용자의 성향이나 각 분할 화면에 제공되고 있는 컨텐트의 속성이나 타입 데이터를 더 참고하여 상기 사운드 설정에 이용할 수도 있다. 전술한 바와 같이, 이러한 사운드 제어 방법은, 후술할 멀티-뷰에서도 적절히 적용될 수 있다.Meanwhile, the above-described sound control method may be performed according to a user's setting or a basic setting of a digital device, for example, a sound priority output on a split screen on the left when splitting a screen. On the other hand, as described above, even if the user or the device is not set, it is possible to arbitrarily control the sound setting for any one or all divided screens based on the illuminance or noise of the surrounding environment. Such control may be temporary or may be performed in units of content. On the other hand, in addition to the above-described conditions, the user's propensity based on the personalized information or the attribute or type data of the content provided in each divided screen may be further referred to and used for the sound setting. As described above, this sound control method can be suitably applied even in the multi-view described later.
이하에서는, 본 발명에 따른 멀티-뷰 모드의 제어 방법에 대하여 더욱 상세하게 설명한다. 여기서, 상기 멀티-뷰 모드는, 편의상 현재 모드를 가정하여 설명하나, 과거 모드와 미래 모드에서도 제어 가능함에 자명하다. 그 밖에, 도시되진 않았으나, 상기 모드들 이외에 별도의 멀티-뷰 모드가 존재하고 그를 통해 본 발명에 따른 멀티-뷰 모드 제어 방법을 설명할 수도 있다.Hereinafter, the control method of the multi-view mode according to the present invention will be described in more detail. Here, the multi-view mode will be described assuming a current mode for convenience, but it is obvious that the multi-view mode can be controlled in the past mode and the future mode. In addition, although not shown, there is a separate multi-view mode in addition to the above modes, through which the multi-view mode control method according to the present invention may be described.
도 41과 42는 본 발명에 따라 멀티-뷰 모드 진입 방법을 설명하기 위해 도시한 도면이다.41 and 42 are diagrams for explaining a multi-view mode entry method according to the present invention.
도 41을 참조하면, 메인 화면상에서는 하나의 컨텐트를 위한 애플리케이션 실행 화면이 제공되고, 그 위에 현재 모드의 메뉴 런처가 오버레이되어 제공되고 있다.Referring to FIG. 41, an application execution screen for one content is provided on a main screen, and a menu launcher of the current mode is overlaid on it.
도 41에서, 현재 모드의 메뉴 런처는 복수의 애플리케이션에 대한 아이템들을 제공한다. 여기서, 디지털 디바이스는 포인터가 상기 제공되는 아이템들 중 어느 하나의 아이템(4110)상에 위치하면, 상기 포인터 위치에 대응되는 아이템(4110)을 다른 아이템에 비하여 확대하여 제공한다.In FIG. 41, the menu launcher of the current mode provides items for the plurality of applications. Here, when the pointer is positioned on any one item 4110 of the provided items, the digital device enlarges and provides the item 4110 corresponding to the pointer position compared to other items.
한편, 상기와 같이, 포인터가 소정 아이템(4110)상에 위치하면, 디지털 디바이스는 도 42와 같이 처리할 수 있다.Meanwhile, as described above, when the pointer is positioned on the predetermined item 4110, the digital device may process as shown in FIG. 42.
도 42a를 참조하면, 디지턱 디바이스는 포인터(4212)가 미리 정한 시간 이상 계속하여 해당 아이템(4110)상에 존재하면, 상기 아이템(4110)의 상부에 멀티-뷰 진입을 위한 아이콘(이하, 멀티-뷰 아이콘)(4216) 또는 재생 바(4214)를 제공한다. 상기 제공되는 재생 바(4214)는 예를 들어, 해당 아이템의 애플리케이션의 직전 실행 지점에 이어서 재생 가능하도록 표시되어 제공될 수 있다. 한편, 도 42a에서는 비록 재생 바(4214)를 예시하였으나, 상기 재생 바(4214)를 대신하여 아이템상에 또는 상기 멀티-뷰 아이콘(4216) 주변에 재생 아이콘이 제공되고, 상기 재생 아이콘 선택에 따라 재생 바(4214)가 제공될 수도 있다. 여기서, 전술한 바와 같이, 재생 아이콘이나 재생 바를 통해 해당 아이템의 애플리케이션에 대한 재생 제어가 가능한데, 재생 명령을 받으면, 디지털 디바이스는 메인 화면상에 해당 애플리케이션 실행 화면을 제공할 수도 있고, 해당 아이템을 위한 윈도우 상에서 바로 재생할 수도 있다. 본 발명과 관련하여, 만약 별도의 멀티-뷰 모드로 진입하였거나 멀티-뷰 아이콘이 제공된 경우에는, 상기 재생 명령에 따라 멀티-뷰 모드로 진입할 수도 있다.Referring to FIG. 42A, when the pointer device stays on the corresponding item 4110 for a predetermined time or more, an icon for entering a multi-view on the upper part of the item 4110 (hereinafter, multi) is shown. View icon 4216 or playback bar 4214. For example, the provided play bar 4214 may be displayed and provided to be playable after the execution point immediately before the application of the item. In FIG. 42A, although the play bar 4214 is illustrated in FIG. 42A, a play icon is provided on the item or around the multi-view icon 4216 in place of the play bar 4214, and according to the play icon selection. A play bar 4214 may be provided. Here, as described above, playback control of the application of the item is possible through the play icon or the play bar. When the play command is received, the digital device may provide a corresponding application execution screen on the main screen. You can also play directly on Windows. In connection with the present invention, if the user enters a separate multi-view mode or a multi-view icon is provided, the user may enter the multi-view mode according to the playback command.
도 42b는 도 42a에서 제공된 멀티-뷰 아이콘(4222)를 포인터를 통해 선택 가능함을 도시하고, 상기와 같이 멀티-뷰 아이콘(4222)가 선택되면, 디지털 디바이스는 도 42c와 같이, 해당 아이템만 남고 나머지 하나 또는 그 이상의 아이템들은 제거되어 메뉴 런처가 종료 또는 메뉴 런처 자체는 종료되지 않고 후술하는 바와 같이, 바로 멀티-뷰 모드로 진입하여 멀티-뷰 윈도우를 제공할 수도 있다.FIG. 42B illustrates that the multi-view icon 4202 provided in FIG. 42A can be selected through the pointer. When the multi-view icon 4202 is selected as described above, the digital device leaves only the corresponding item as shown in FIG. 42C. The remaining one or more items may be removed such that the menu launcher does not terminate or the menu launcher itself does not terminate and may immediately enter the multi-view mode to provide a multi-view window.
그 밖에, 도시되진 않았으나, 멀티-뷰 모드는 간단하게 리모컨과 같은 입력 수단에 구비된 멀티-뷰 키 버튼, 제스처, 보이스 등에 의해 실행될 수 있다. 상기 제스처나 보이스 등은 반드시 입력 수단에 의하지 않고 해당 디지털 디바이스에서 또는 다른 디지털 디바이스를 통해서 인식 또는 입력받을 수 있다. 이상 멀티-뷰 진입에 대하여 설명하였으나, 본 명세서에서 기술한 진입 방법 이외에 다양한 방법으로 진입 가능하고, 이 역시 본 발명에 포함된다.In addition, although not shown, the multi-view mode may be simply executed by a multi-view key button, a gesture, a voice, or the like provided in an input means such as a remote controller. The gesture or voice may be recognized or input through the corresponding digital device or through another digital device without necessarily using the input means. Although the multi-view entry has been described above, it is possible to enter in various ways in addition to the entry method described herein, which is also included in the present invention.
도 43 이하에서는 멀티-뷰 모드 제공 화면과 상기 멀티-뷰 모드 진입 이후에 멀티-뷰 제어 방법을 도시하고 설명한다.43 illustrates a multi-view mode providing screen and a multi-view control method after entering the multi-view mode.
도 43은 본 발명의 일 실시 예에 따른 멀티-뷰 진입 화면을 도시한 도면이다.43 is a diagram illustrating a multi-view entry screen according to an embodiment of the present invention.
도 43a를 참조하면, 멀티-뷰 윈도우(4310)는 메인 화면의 좌측 하단에 PIP 형태로 제공된다. 다만, 상기 멀티-뷰 윈도우(4310)는 메뉴 런처의 존재 여부, 메인 화면에서 제공 중인 애플리케이션에 대한 자막 데이터 존재 여부, 데이터 방송 제공 여부 등에 따라 그 위치가 변경될 수 있다. 한편, 상기 멀티-뷰 윈도우(4310)는, 해당 위치에서 고정될 수도 있으나 사용자의 제어에 따라 이동될 수도 있다. 한편, 상기 멀티-뷰 윈도우(4310)는 도시된 바와 다르게 크기를 임의로 조절할 수 있다. 또한, 상기 멀티-뷰 윈도우(4310)의 모양은 반드시 사각형일 필요는 없으며, 사용자가 임의로 설정 변경 가능하다. 상기 멀티-뷰 윈도우(4310)의 모양 설정 변경 등을 위해 필요한 경우, 디지털 디바이스는 템플릿(template)을 제공하여 그 선택 편의를 기할 수도 있다. 한편, 도 43a에 도시되지 않았으나, 멀티-뷰 윈도우는 메인 화면에서 제공 중인 애플리케이션 화면과 구분하기 위해 또한 멀티-뷰 모드 실행을 식별 가능하도록 하기 위해 상기 윈도우의 외곽선이 특정 컬러를 가지거나 하이라이트될 수도 있으며, 별도로 메인 화면상이나 윈도우 주변에 텍스트나 아이콘 형태로 멀티-뷰 실행임을 식별 가능하도록 가이드 데이터를 제공할 수도 있다.Referring to FIG. 43A, the multi-view window 4310 is provided in a PIP form on the lower left side of the main screen. However, the location of the multi-view window 4310 may be changed depending on whether there is a menu launcher, whether there is subtitle data for an application being provided on the main screen, whether data broadcasting is provided, and the like. The multi-view window 4310 may be fixed at a corresponding position but may be moved under the control of a user. Meanwhile, the multi-view window 4310 may be arbitrarily adjusted in size as shown in the drawing. In addition, the shape of the multi-view window 4310 does not necessarily have to be a rectangle, and the user may arbitrarily change the setting. When necessary for changing the shape setting of the multi-view window 4310, the digital device may provide a template for convenience of selection. Although not shown in FIG. 43A, the multi-view window may have a specific color or be highlighted in order to distinguish it from the application screen being provided on the main screen and also to identify the execution of the multi-view mode. In addition, guide data may be separately provided to identify that the multi-view is executed in the form of text or icons on the main screen or around the window.
도 43b는, 도 43a와 다르게, 멀티-뷰 윈도우 주변에 기능 아이콘(들)이 제공되는 실시 예이다. 도 43b는 최초 멀티-뷰 윈도우 제공 시의 멀티-뷰 구성일 수도 있고 상기 도 43a에서 사용자의 소정 액션에 따라 제공되는 멀티-뷰 구성일 수도 있다.FIG. 43B illustrates an embodiment in which functional icon (s) are provided around the multi-view window, unlike FIG. 43A. FIG. 43B may be a multi-view configuration when the first multi-view window is provided or may be a multi-view configuration provided according to a predetermined action of the user in FIG. 43A.
사용자의 요청 등에 따라 멀티-뷰 윈도우가 호출되면, 디지털 디바이스는 멀티-뷰 윈도우상에 제공할 애플리케이션과 관련된 애플리케이션이 추가로 존재하는 경우에는 멀티-뷰 윈도우의 일 측면에 제공되는 인디케이터(4320)을 제공하여, 상기 관련 애플리케이션이 제공 가능하고 존재함을 사용자가 식별 가능하도록 한다. 한편, 멀티-뷰 윈도우의 제거를 위한 삭제 아이콘이 해당 멀티-뷰 윈도우상에 제공될 수 있다. 만약 복수의 멀티-뷰 윈도우가 제공 중인 경우에는, 휴지통 아이콘이 제공되고, 상기 휴지통 아이콘 선택에 따라 상기 삭제 아이콘이 각 멀티-뷰 윈도우상에 제공될 수도 있고, 멀티-뷰 윈도우를 상기 휴지통 아이콘으로 드래그&드롭 등을 통해 멀티-뷰 윈도우에 대한 제어를 할 수 있다. 한편, 상기 인디케이터(4320)은 사용자의 식별 편의를 위하여, 그 높이, 너비, 컬러, 모양 등이 다양하게 제공될 수 있다. 예를 들어, 서브 멀티-뷰 제공 가능한 애플리케이션이 2개인 경우와 4개인 경우에, 상기 인디케이터(4320)의 너비를 다르게 하여 추가 제공 가능한 애플리케이션의 개수를 가늠할 수 있도록 할 수 있다. 그 밖에, 도시되진 않았으나, 상기 인디케이터(4320)와 관련하여, 서브 멀티-뷰 제공 가능한 애플리케이션의 개수를 멀티-뷰 윈도우상 또는 인디케이터상이나 그 주변에 숫자 형태로 제공하여 식별 가능하도록 할 수 있다.When the multi-view window is called according to a user's request, the digital device may display an indicator 4320 provided on one side of the multi-view window when there are additional applications related to the application to be provided on the multi-view window. By providing a user with discernible presence of the relevant application. Meanwhile, a delete icon for removing the multi-view window may be provided on the corresponding multi-view window. If a plurality of multi-view windows are being provided, a recycle bin icon may be provided, and the delete icon may be provided on each multi-view window according to the selection of the recycle bin icon, and a multi-view window is defined as the recycle bin icon. You can control the multi-view window by dragging and dropping. On the other hand, the indicator 4320 may be provided in a variety of height, width, color, shape, etc. for the user's identification convenience. For example, in the case of two and four sub-view providing applications, the width of the indicator 4320 may be varied so that the number of additionally providing applications can be measured. In addition, although not shown, with respect to the indicator 4320, the number of sub-view-providing applications may be provided in the form of a number on or around the multi-view window or the indicator so as to be identified.
도 44는 본 발명의 다른 실시 예에 따라 멀티-뷰 윈도우 제어 방법을 설명하기 위해 도시한 도면이다.FIG. 44 is a diagram illustrating a multi-view window control method according to another embodiment of the present invention.
특히, 도 44는 전술한 도 43b와 같이, 서브 멀티-뷰 제공 가능한 애플리케이션의 제어에 관한 실시 예이다.In particular, FIG. 44 is an embodiment of control of an application capable of providing a sub multi-view as in FIG. 43B described above.
포인터가 도 44a와 같이, 메인 멀티-뷰 윈도우의 일 측면에 제공되는 인디케이터(4410)상에 위치하거나 상기 인디케이터(4410)를 선택하면, 디지털 디바이스는 상기 인디케이터(4410) 액세스에 대응하여 도 44b와 같이 하나 또는 그 이상의 서브 멀티-뷰 윈도우들(4420, 4430, 4440)을 펼쳐서 제공한다.When the pointer is positioned on the indicator 4410 provided on one side of the main multi-view window or selects the indicator 4410, as shown in FIG. 44A, the digital device corresponds to FIG. 44B in response to the access of the indicator 4410. One or more sub multi-view windows 4420, 4430, and 4440 are unfolded and provided.
여기서, 상기 서브 멀티-뷰 윈도우들(4420, 4430, 4440)은, 상기 메인 멀티-뷰 윈도우에서 제공하는 애플리케이션과 동일한 애플리케이션일 수도 있고, 다른 애플리케이션일 수도 있다. 한편, 상기 서브 멀티-뷰 윈도우들(4420, 4430, 4440) 각각은, 또 서로 동일한 애플리케이션일 수도 있고 다른 애플리케이션일 수도 있다.Here, the sub multi-view windows 4420, 4430, and 4440 may be the same application as the application provided by the main multi-view window or may be another application. Meanwhile, each of the sub multi-view windows 4420, 4430, and 4440 may be the same application or another application.
또한, 상기 서브 멀티-뷰 윈도우들(4420, 4430, 4440)은, 메인 멀티-뷰 윈도우에 비하여 사이즈(size)가 작거나 같게 제공될 수 있다. 그리고, 상기 서브 멀티-뷰 윈도우들(4420, 4430, 4440)의 해상도(resolution)는, 상기 메인 멀티-뷰 윈도우의 해상도에 비해 떨어질 수도 있다.In addition, the sub multi-view windows 4420, 4430, and 4440 may be provided with a size equal to or smaller than that of the main multi-view window. The resolution of the sub multi-view windows 4420, 4430, and 4440 may be lower than that of the main multi-view window.
그 밖에, 편의상 상기 서브 멀티-뷰 윈도우들(4420, 4430, 4440)은 최초 멀티-뷰 윈도우와 관련된 애플리케이션들을 제공하는 것으로 설명하나, 반드시 이에 한정되는 것은 아니며 서로 관련되지 않을 수도 있다.In addition, for convenience, the sub-multi- view windows 4420, 4430, and 4440 are described as providing applications related to the initial multi-view window, but are not necessarily limited thereto and may not be related to each other.
도 45는 본 발명의 일 실시 예에 따라 멀티-뷰 윈도우의 상세 제어 방법을 설명하기 위해 도시한 도면이다.45 is a diagram illustrating a detailed control method of a multi-view window according to one embodiment of the present invention.
도 44와 45에서는 예컨대, 메인 멀티-뷰 윈도우의 애플리케이션이 TV 애플리케이션으로 스포츠 채널의 컨텐트를 제공하고 있는 경우에, 상기 서브 멀티-뷰 윈도우들에서는 다른 채널에서 제공 중인 스포츠를 제공한다.44 and 45, for example, when an application of the main multi-view window is providing content of a sports channel to a TV application, the sub multi-view windows provide sports being provided by another channel.
도 45a와 45b를 참조하면, 메인 멀티-뷰 윈도우를 제외하고 서브 멀티-뷰 윈도우들 각각은 포인터의 위치나 액세스(4510, 4520)에 따라서, 해당 멀티-뷰 윈도우가 다른 서브 멀티-뷰 윈도우에 비하여 그 액세스를 식별 가능하도록 제공함을 나타낸다. 다시 말해, 선택된 멀티-뷰 윈도우는 다른 멀티-뷰 윈도우에 비하여 사이즈가 달라지거나 하이라이트 또는 도시된 바와 같이, 위로 조금 올라가 선택되었음을 식별 가능하도록 제공한다.45A and 45B, except for the main multi-view window, each of the sub-multi-view windows may be assigned to another sub-multi-view window according to the position or access of the pointer 4510 and 4520. In comparison, the access is provided to be identified. In other words, the selected multi-view window is different in size compared to other multi-view windows or highlights, or as shown slightly up, to provide a discernible selection.
또는, 디지털 디바이스의 리소스는 한정되어 있기 때문에, 비록 인디케이터를 통해 서브 멀티-뷰 윈도우가 복수 개 제공된다고 하더라도 그 리소스 상태에 따라 모든 멀티-뷰 윈도우들에 해당 애플리케이션이 재생되지 않을 수도 있다. 이 경우, 디지털 디바이스는, 해당 멀티-뷰 윈도우의 애플리케이션에 대한 대표 썸네일 이미지나 캡쳐한 이미지를 제공하고, 도 45a와 45b에 도시된 바와 같이, 선택된 멀티-뷰 윈도우에 해당하는 애플리케이션만 재생되도록 처리할 수 있다. 이 경우, 리소스가 필요한 경우에는 메인 멀티-뷰 윈도우를 위한 리소스 이용을 위하여 상기 메인 멀티-뷰 윈도우의 재생을 일시 정지할 수도 있다.Or, since the resources of the digital device are limited, even if a plurality of sub-multi-view windows are provided through the indicator, the corresponding application may not be played in all the multi-view windows according to the resource state. In this case, the digital device provides a representative thumbnail image or captured image of the application of the corresponding multi-view window, and processes only the application corresponding to the selected multi-view window as shown in FIGS. 45A and 45B. can do. In this case, when resources are needed, playback of the main multi-view window may be paused in order to use resources for the main multi-view window.
도 46과 47은 본 발명의 일 실시 예에 따라 멀티-뷰 윈도우의 상세 재생 제어 방법을 설명하기 위해 도시한 도면이다.46 and 47 are diagrams for describing a detailed playback control method of a multi-view window according to one embodiment of the present invention.
도 46을 참조하면, 메인 멀티-뷰 윈도우가 제공된 상태에서, 상기 메인 멀티-뷰 윈도우가 선택되면, 디지털 디바이스는 전술한 바와 같이, 삭제 아이콘(4630)을 제공할 수 있다.Referring to FIG. 46, when the main multi-view window is selected while the main multi-view window is provided, the digital device may provide a delete icon 4630 as described above.
포인터를 통해 상기 삭제 아이콘(4630)이 액세스되면, 메인 멀티-뷰 윈도우는 제거되고, 멀티-뷰 모드는 종료될 수 있다. 디지털 디바이스는, 이 경우 상기 제거된 멀티-뷰 윈도우를 통해 제공했던 애플리케이션에 대하여 리센트 리스트에 포함하도록 하고, 그 재생 종료 시점을 저장할 수도 있다. When the delete icon 4630 is accessed via a pointer, the main multi-view window may be removed and the multi-view mode may end. The digital device may, in this case, include it in the list of rewards for the application provided through the removed multi-view window, and store the reproduction end time.
또한, 포인터를 통해 메인 멀티-뷰 윈도우를 드래그하여 메인 영역(4610)상에 드롭하면, 디지털 디바이스는 메인 영역(4610)에서 제공 중인 애플리케이션의 재생을 종료하고, 상기 메인 멀티-뷰 윈도우상에서 제공 중인 애플리케이션을 메인 영역(4610)을 통하여 제공할 수 있다. 이때, 상기 드롭된 멀티-뷰 윈도우 이외의 멀티-뷰 윈도우가 존재하는 경우에는, 상기 메인 영역(4610)에서 제공하던 애플리케이션과 멀티-뷰 윈도우를 통해 제공하던 애플리케이션을 도 47과 같이, 스위칭/인터체인징할 수 있다. 그러나 만약 멀티-뷰 윈도우가 존재하지 않는 경우에는, 자동으로 멀티-뷰 모드를 종료할 수 있다. 또는, 상술한 바와 같이, 멀티-뷰 모드 존재 여부와 관계없이 사용자의 드래그&드롭에 따라 자동으로 멀티-뷰 모드는 종료될 수도 있다.In addition, when the main multi-view window is dragged and dropped onto the main area 4610 via the pointer, the digital device terminates playback of the application being provided in the main area 4610 and is being provided on the main multi-view window. An application may be provided through the main area 4610. In this case, when there is a multi-view window other than the dropped multi-view window, the application provided in the main area 4610 and the application provided through the multi-view window are switched / inter as shown in FIG. 47. You can change it. However, if there is no multi-view window, the multi-view mode can be automatically terminated. Alternatively, as described above, the multi-view mode may be automatically terminated according to the drag & drop of the user regardless of whether the multi-view mode exists.
한편, 도시되진 않았으나, 상술한 내용은, 메인 멀티-뷰 윈도우 이외의 서브 멀티-뷰 윈도우에 대하여도 동일 또는 유사한 방식으로 적용 가능하다.Although not shown, the above description may be applied to the sub-multi-view windows other than the main multi-view window in the same or similar manner.
도 48은 본 발명에 따라 멀티-뷰 모드 종료 방법을 설명하기 위해 도시한 도면이다.48 is a diagram illustrating a method of exiting a multi-view mode according to the present invention.
도 48a는 전술한 바와 같이, 포인터(4810)를 통해 멀티-뷰 상에 제공된 삭제 아이콘(4820)을 선택하고, 디지털 디바이스는 상기 선택에 대응하여 해당 멀티-뷰 윈도우를 제거한다. 이때, 만약 모든 멀티-뷰 윈도우들이 화면상에서 제거되면, 자동으로 멀티-뷰 모드는 종료하게 된다.48A, as described above, selects the delete icon 4820 provided on the multi-view via the pointer 4810, and the digital device removes the corresponding multi-view window in response to the selection. At this time, if all the multi-view windows are removed from the screen, the multi-view mode is automatically terminated.
도 48b는 예컨대, 도 48a의 삭제 아이콘 선택시에, 해당 멀티-뷰 윈도우가 제거되는 모습을 도시한 것이다. 도 48b를 참조하면, 상기 삭제 아이콘 선택에 따라 해당 윈도우 제거를 위하여 애니메이션과 같이, 펭귄(4830)이 나와서 해당 멀티-뷰 윈도우를 화면 밖으로 가지고 사라짐으로써 상기 멀티-뷰 윈도우는 제거되고 멀티-뷰 모드는 종료한다.FIG. 48B shows a state in which the corresponding multi-view window is removed, for example, when the delete icon of FIG. 48A is selected. Referring to FIG. 48B, the multi-view window is removed and the multi-view mode is removed by the penguin 4830 coming out and disappearing with the multi-view window out of the screen, such as animation, to remove the window according to the deletion icon selection. Ends.
한편, 도시되진 않았으나, 멀티-뷰 모드 진입에 대응하여 종료 역시, 리모컨과 같은 입력 수단이나 프론트 패널상에 구비된 멀티-뷰 키 버튼, 제스처나 보이스 등을 통해서 간편하게 이루어질 수도 있다.On the other hand, although not shown, in response to entering the multi-view mode, termination can also be made simply through input means such as a remote control or multi-view key buttons, gestures or voices provided on the front panel.
도 49 내지 58은 본 발명에 따라 서브 멀티-뷰 동작 제어 방법을 설명하기 위해 도시한 도면이다.49 to 58 are diagrams for explaining a sub multi-view operation control method according to the present invention.
특히, 도 49 내지 52는 전술한 인디케이터를 통한 서브 멀티-뷰 동작 제어 방법의 다양한 실시 예들을 개시한다.In particular, FIGS. 49 to 52 disclose various embodiments of a method for controlling a sub multi-view operation through the aforementioned indicator.
도 49는, 도 43b 및 도 44와 다르게, 멀티-뷰 윈도우(4910)의 우측면이 아니라 상부면에 인디케이터(4920)가 제공되는 실시 예를 도시하였다.FIG. 49 illustrates an embodiment in which an indicator 4920 is provided on the upper surface instead of the right side of the multi-view window 4910 unlike FIGS. 43B and 44.
도 49에서 멀티-뷰 윈도우(4910)의 상부면에 제공되는 인디케이터(4920)를 액세스하면, 디지털 디바이스는 도 50에 도시된 바와 같이, 상기 멀티-뷰 윈도우(4910)의 상부면 방향으로 하나 또는 그 이상의 서브 멀티-뷰 윈도우들(5010)을 제공할 수 있다.When accessing the indicator 4920 provided on the upper surface of the multi-view window 4910 in FIG. 49, the digital device is one or more in the direction of the upper surface of the multi-view window 4910, as shown in FIG. 50. More sub-multi-view windows 5010 may be provided.
한편, 도 50을 참조하면, 메인 멀티-뷰 윈도우의 우측면에도 서브 멀티-뷰 윈도우들(5020)이 제공될 수 있다. 상기 서브 멀티-뷰 윈도우들(5020)는 예컨대, 별도의 인디케이터(4920)의 액세스가 아니라고 하더라도 상기 메인 멀티-뷰 윈도우상에 제공되는 애플리케이션에 대한 프리뷰 데이터일 수 있다. 상기 프리뷰 데이터는, 정지 영상이나 동영상일 수 있다. 예를 들어, 상기 메인 멀티-뷰 윈도우상에 제공되는 애플리케이션이 총 60분짜리 비디오 데이터이고, 현재 40분을 재생하고 있는 경우에, 서브 멀티-뷰 윈도우들(5020)에서는 10분, 20분, 30분이나 50분과 60분에 대한 프리뷰 데이터일 수 있다. 그 밖에, 상기에서는, 서브 멀티-뷰 윈도우들(5020)상의 애플리케이션이 상기 메인 멀티-뷰 윈도우상에서 제공 중인 애플리케이션과 관련된 데이터라고 기술하였으나, 반드시 이에 한정되지는 않으며, 관련 없는 애플리케이션 데이터일 수도 있다. 예를 들어, 도 49에서, 사용자가 인디케이터(4920)를 액세스함에 따라 상부에 제공되는 서브 멀티-뷰 윈도우들(5010)만으로 화면 사이즈 등의 이유로 부족한 경우에 나머지 서브 멀티-뷰 윈도우들(5020)을 중복되지 않는 메인 멀티-뷰 윈도우의 우측면에 할당하여 제공할 수도 있다.Meanwhile, referring to FIG. 50, the sub multi-view windows 5020 may also be provided on the right side of the main multi-view window. The sub-multi-view windows 5020 may be, for example, preview data for an application provided on the main multi-view window even if it is not accessed by a separate indicator 4920. The preview data may be a still image or a moving image. For example, if the application provided on the main multi-view window is a total of 60 minutes of video data and currently plays 40 minutes, the sub multi-view windows 5020 may include 10 minutes, 20 minutes, It may be preview data for 30 minutes, 50 minutes and 60 minutes. In addition, in the above, the application on the sub multi-view windows 5020 is described as data related to the application being provided on the main multi-view window, but is not necessarily limited thereto, and may be irrelevant application data. For example, in FIG. 49, only the sub-multi-view windows 5010 provided on the upper part as the user accesses the indicator 4920 is insufficient due to screen size or the like. May be allocated to the right side of the non-overlapping main multi-view window and provided.
그 밖에, 도 50에서 제1 서브 멀티-뷰 윈도우(5010)는 메인 멀티-뷰 윈도우상의 애플리케이션과 관련되거나 프리뷰 데이터이고, 제2 서브 멀티-뷰 윈도우(5020)는 메인 멀티-뷰 윈도우상의 애플리케이션과 관련 없는 애플리케이션을 위한 것일 수도 있다. 예를 들어, 메인 멀티-뷰 윈도우상에서 TV 애플리케이션으로 7회를 진행 중인 제1 야구 경기를 제공하고 있다고 하자. 이때, 제1 서브 멀티-뷰 윈도우(5010)는 상기 제1 야구 경기의 1회 내지 6회에 대한 데이터이거나 하이라이트 영상일 수 있다. 반면, 제2 서브 멀티-뷰 윈도우(5020)는 상기 제1 야구 경기와는 다른 팀들 간의 제2 야구 경기 또는 해당 채널의 다른 방송 프로그램이나 전혀 관련 없는 데이터를 제공할 수 있다.In addition, in FIG. 50, the first sub multi-view window 5010 is associated with or preview data of an application on the main multi-view window, and the second sub multi-view window 5020 is associated with an application on the main multi-view window. It may be for an unrelated application. For example, suppose you are offering a seven-game first baseball game on a TV application on the main multi-view window. In this case, the first sub multi-view window 5010 may be data for one to six times of the first baseball game or may be a highlight image. On the other hand, the second sub multi-view window 5020 may provide data not related to the second baseball game or other broadcast program of the corresponding channel between the teams different from the first baseball game.
도 51을 참조하면, 제1 애플리케이션이 제공 중인 메인 화면상에 메인 멀티-뷰 윈도우(5110)가 오버레이 되어 소정 영역에 제공된다. 여기서, 상기 메인 멀티-뷰 윈도우(5110)의 각 면에는 서브 멀티-뷰 윈도우를 위한 인디케이터들이 제공될 수 있다. 도 51에서는 편의상 우측면에 제공되는 제1 인디케이터(5120)와 상부면에 제공되는 제2 인디케이터(5130)이 도시되었다. 다만, 이에 한정되는 것은 아니다.Referring to FIG. 51, a main multi-view window 5110 is overlaid on a main screen provided by a first application and provided in a predetermined region. Here, indicators for the sub multi-view window may be provided on each side of the main multi-view window 5110. In FIG. 51, the first indicator 5120 provided on the right side and the second indicator 5130 provided on the upper side are illustrated for convenience. However, the present invention is not limited thereto.
전술한 실시 예에서는, 메인 멀티-뷰 윈도우(5110)상에 제공되는 인디케이터를 액세스하면, 디지털 디바이스는 액세스된 인디케이터에 따라 상기 메인 멀티-뷰 윈도우(5110)의 주변에 서브 멀티-뷰 윈도우들을 제공하였다. 다만, 이 경우, 경우에 따라서는, 메인 화면에 제공 중인 애플리케이션이나 메인 멀티-뷰 윈도우상의 애플리케이션에 대한 집중을 해치거나 중요 데이터를 가릴 수도 있으므로, 도 51과 같이 상기 메인 멀티-뷰 윈도우(5110)의 주변이 아니라 스크린의 가장자리에 서브 멀티-뷰 윈도우들(5140)를 제공할 수도 있다. 상기 서브 멀티-뷰 윈도우들(5140)이 제공되는 위치나 영역은 예컨대, 반드시 도 51에 도시된 스크린 우측면에 한정되는 것은 아니며 애플리케이션의 속성이나 타입, 현재 재생 씬의 특성 등 다양한 데이터를 고려하여 자동 또는 수동으로 결정되고 제공될 수 있다. 한편, 도 51에서는 상기와 같이, 서브 멀티-뷰 윈도우들(5140)이 메인 멀티-뷰 윈도우(5110)의 주변이 아닌 스크린의 가장자리에 제공되나 한꺼번에 모아서 제공되는 실시 예를 도시하였으나, 반드시 이에 한정되는 것은 아니며, 도 51과 같이 3개의 서브 멀티-뷰 윈도우가 제공 시에, 각각은 서로 다른 위치에 개별적으로 위치하여 제공될 수도 있다.In the above-described embodiment, upon accessing the indicator provided on the main multi-view window 5110, the digital device provides sub-multi-view windows around the main multi-view window 5110 according to the accessed indicator. It was. In this case, however, in some cases, the main multi-view window 5110 may be obstructed as shown in FIG. 51 because it may impair the concentration of the application being provided on the main screen or the application on the main multi-view window or hide important data. It is also possible to provide sub-multi-view windows 5140 at the edge of the screen rather than around. The location or area in which the sub multi-view windows 5140 are provided is not necessarily limited to the right side of the screen illustrated in FIG. 51, but is automatically determined in consideration of various data such as the property or type of the application and the characteristics of the current playback scene. Or manually determined and provided. Meanwhile, in FIG. 51, the sub-multi-view windows 5140 are provided at the edges of the screen, not the periphery of the main multi-view window 5110 as described above. In this case, when three sub-multi-view windows are provided as shown in FIG. 51, each may be provided separately from each other at a different position.
도 52는 전술한 실시 예들과 달리, 인디케이터에 의해 또는 메인 멀티-뷰 윈도우 제공시에 자동으로 서브 멀티-뷰 윈도우들(5210, 5220, 5230)이 상기 메인 멀티-뷰 윈도우 사이즈에 맞게 최적화되어 그 상부에 제공될 수 있다. 이 경우, 상기 서브 멀티-뷰 윈도우들(5210, 5220, 5230)은 고정된 것은 아니며 사용자의 액션에 따라 좌우로 액세스 가능하여 다른 시간대나 다른 애플리케이션을 위한 윈도우로 대체될 수도 있으며, 메인 멀티-뷰 윈도우나 메인 화면과 스위칭/인터체인징도 가능하다.52 illustrates that, unlike the above-described embodiments, the sub-multi- view windows 5210, 5220, 5230 are automatically optimized for the main multi-view window size by the indicator or when the main multi-view window is provided. It may be provided at the top. In this case, the sub multi-view windows 5210, 5220, and 5230 are not fixed and may be accessed left and right according to a user's action, and may be replaced with windows for other time zones or other applications. You can also switch between windows and main screens.
도 53은 메인 멀티-뷰 윈도우(5310)이 최초 제공 시부터 화면 중앙 하단에 제공될 수도 있고, 반대로 이전 실시 예와 같이, 최초 제공시에는 화면 좌측 하단에 제공된 이후에 사용자의 액션에 따라 위치가 이동되어 제공된 경우일 수도 있다.53 illustrates that the main multi-view window 5310 may be provided at the bottom of the center of the screen from the initial presentation. On the contrary, as shown in the previous embodiment, the main multi-view window 5310 may be provided at the bottom left of the screen. It may be the case that it is moved and provided.
전자의 경우를 예를 들면, 메인 멀티-뷰 윈도우(5310)는, 그 제공 시에 하나 또는 그 이상의 서브 멀티-뷰 윈도우들이 존재하면, 전술한 실시 예들과 달리, 화면 하단의 중앙에 제공될 수 있다. 이 경우, 상기 화면 하단 중앙에 제공되는 메인 멀티-뷰 윈도우(5310)를 기준으로 좌측 또는/및 우측에는 서브 멀티-뷰 윈도우(들)(5320, 5330, 5340, 5350)이 도 53에 도시된 바와 같이, 제공될 수 있다. 한편, 이때, 상기 서브 멀티-뷰 윈도우(5320, 5330)는, 메인 멀티-뷰 윈도우(5310)를 통해 제공되는 시점 즉, 현재 이전에 기 제공된 데이터를 나타낼 수 있다. 또한, 상기 서브 멀티-뷰 윈도우(5340, 5350)는, 메인 멀티-뷰 윈도우(5310)를 통해 제공되는 시점 즉, 현재 이후에 제공될 데이터를 나타낼 수 있다. 전자의 경우에는, 정지 영상 또는 동영상이 서브 멀티-뷰 윈도우(5320, 5330)를 통해 제공될 수 있으며, 후자의 경우에는 미래의 데이터이므로 썸네일 이미지와 같이, 정지 영상 데이터가 서브 멀티-뷰 윈도우(5340, 5350)를 통해 제공될 수 있다. 다만, 상기 서브 멀티-뷰 윈도우(5340, 5350)를 통해 제공될 데이터가 이미 디지털 디바이스에 저장 또는 다운로드된 애플리케이션 데이터인 경우에는, 동영상일 수도 있다. 한편, 상술한 바와 달리, 서브 멀티-뷰 윈도우(5320, 5330, 5340, 5350)는, 메인 멀티-뷰 윈도우(5310)상에 제공되는 애플리케이션과 동일한 애플리케이션이 아니라 상기 애플리케이션과 관련 또는 그렇지 않은 애플리케이션일 수도 있다.For example, in the former case, the main multi-view window 5310 may be provided at the center of the bottom of the screen, unlike the above-described embodiments, if one or more sub-multi-view windows exist in the provision thereof. have. In this case, the sub multi-view window (s) 5320, 5330, 5340, and 5350 are shown on the left side and / or the right side of the main multi-view window 5310 provided at the bottom center of the screen. As may be provided. In this case, the sub multi-view windows 5320 and 5330 may represent a time point provided through the main multi-view window 5310, that is, data previously provided before the present. In addition, the sub multi-view windows 5340 and 5350 may indicate a time point provided through the main multi-view window 5310, that is, data to be provided after the present. In the former case, a still image or a moving image may be provided through the sub multi-view windows 5320 and 5330. In the latter case, the still image data may be provided in the sub multi-view window (such as a thumbnail image because it is future data. 5340, 5350 may be provided. However, if the data to be provided through the sub multi-view windows 5340 and 5350 is application data already stored or downloaded to the digital device, it may be a video. On the other hand, unlike the above, the sub multi-view windows 5320, 5330, 5340, and 5350 are not the same application as the application provided on the main multi-view window 5310, but are related to or not related to the application. It may be.
후자의 경우를 예를 들며, 메인 멀티-뷰 윈도우(5310)를 전술한 실시 예와 같이, 스크린의 좌측면 하부에서 중앙으로 이동하면 그에 따라 자동으로 제2 서브 멀티-뷰 윈도우가 제공되는 실시 예이다. 예컨대, 메인 멀티-뷰 윈도우가 제공시에는 제공되지 않던 제2 서브 멀티-뷰 윈도우들(5320,5330)이 상기 메인 멀티-뷰 윈도우(5310)를 스크린 내에서 이동시키면, 그에 따라 하나 또는 그 이상의 제2 서브 멀티-뷰 윈도우들(5320, 5330)이 자동으로 제공되는 것이다. 이러한 제2 서브 멀티-뷰 윈도우들(5320, 5330)은 상기 제1 서브 멀티-뷰 윈도우들(5340, 5350)과는 다른 방식으로 제공될 수 있으며, 상기 메인 멀티-뷰 윈도우의 이동 위치나 이동 거리 이동 영역에 따라 제공되는 서브 멀티-뷰 윈도우의 개수나 위치 등이 달라질 수 있다.For example, in the latter case, when the main multi-view window 5310 is moved from the lower left side of the screen to the center as in the above-described embodiment, the second sub-multi-view window is automatically provided accordingly. to be. For example, if the second sub-view windows 5320, 5330, which were not provided when the main multi-view window is provided, move the main multi-view window 5310 within the screen, one or more of them may be changed accordingly. The second sub multi-view windows 5320 and 5330 are automatically provided. The second sub multi-view windows 5320 and 5330 may be provided differently from the first sub multi-view windows 5340 and 5350, and may be moved or moved in the main multi-view window. The number or position of the sub multi-view windows provided according to the distance moving area may vary.
도 54를 참조하여, 디지털 디바이스에서 사용자가 메인 화면을 통하여, 야구 애플리케이션을 시청하고 있다고 가정하자. 이 경우, 현재 7회(5410)를 진행 중인 경우에는, 디지털 디바이스는 사용자의 요청에 따라 또는 자동으로 멀티-뷰 모드를 제공할 수 있다. 상기와 같이, 멀티-뷰 모드를 제공함에 있어서, 메인 화면상의 일 영역에 멀티-뷰 모드 제공 가능을 나타내는 인디케이터나 멀티-뷰 모드 진입을 위한 인디케이터를 제공하고, 상기 제공된 인디케이터를 통해 도 54에 도시된 바와 같이, 현재 진행 중인 7회 이전의 6회(5420), 5회(5430), 4회(5440), 3회(5450) 등에 대한 애플리케이션 데이터를 포함한 서브 멀티-뷰 윈도우들을 제공할 수 있다. 도 54에서는, 메인 멀티-뷰 윈도우(5410)에 현재 7회 직전인 6회에 대한 서브 멀티-뷰 윈도우(5420)를 제공하고, 그 주변에 순차로 5회, 4회, 3회에 대한 서브 멀티-뷰 윈도우(5430, 5440, 5450)를 정렬하여 제공할 수 있다. 다만, 이와 반대일 수도 있다. 그 밖에, 도시되진 않았으나, 만약 사용자가 서브 멀티-뷰 윈도우들 중 어느 하나를 선택하면, 선택된 서브 멀티-뷰 윈도우상의 애플리케이션은 해당 위치에서 재생되거나 메인 화면상의 애플리케이션 데이터와 스위칭/인터체인징될 수도 있다. 특히, 후자의 경우, 예를 들어, 선택된 서브 멀티-뷰 윈도우상의 애플리케이션 데이터를 제공함에 있어서, 적어도 하나의 리소스가 부족한 경우에는 메인 화면의 애플리케이션 데이터와 스위칭/인터체인징할 수 있다. 그 밖에, 상기 이유가 아니라고 하더라도 현재 제공 중인 애플리케이션 데이터와 멀티-뷰 윈도우들에서 제공 중인 애플리케이션 데이터 사이에 스위칭/인터체인징이 이루어지는 경우에는, 상기 현재 애플리케이션 데이터를 스위칭/인터페인징된 윈도우상에서 계속하여 이어서 재생하거나 정지하되 타임-쉬프트 기능을 수행할 수도 있다. 타임-쉬프트된 애플리케이션 데이터가 다시 메인 화면으로 스위칭/인터체인징되는 경우에는, 사용자에게 타임-쉬프트 시작 지점에서부터 재생을 시작할 것인지 아니면 현재 재생부분부터 재생 시작할 것인지를 선택 가능하도록 제공하고, 그 선택에 따라 제공할 수 있다.Referring to FIG. 54, assume that a user is watching a baseball application through a main screen in a digital device. In this case, in the case where 7 times 5410 is currently in progress, the digital device may provide a multi-view mode at the user's request or automatically. As described above, in providing the multi-view mode, an indicator indicating that the multi-view mode can be provided or an indicator for entering the multi-view mode is provided in one region on the main screen, and the indicator is shown in FIG. 54 through the provided indicator. As can be seen, it is possible to provide sub-multi-view windows including application data for six times 5520, five 5430, four 5440, three 5450, etc., seven times prior to the current process. . In FIG. 54, the main multi-view window 5410 is provided with the sub multi-view window 5520 for six times, which is currently just seven times, and the sub-views for five, four, and three times are sequentially around. The multi-view windows 5430, 5440, and 5450 may be aligned and provided. However, this may be the opposite. In addition, although not shown, if the user selects any one of the sub multi-view windows, the application on the selected sub multi-view window may be played at the corresponding location or switched / interchanged with the application data on the main screen. . In particular, in the latter case, in the case of providing the application data on the selected sub multi-view window, when at least one resource is insufficient, the latter may switch / interchange with the application data of the main screen. In addition, if switching / interchanging is performed between the application data currently being provided and the application data being provided in the multi-view windows even if not for the above reason, the current application data is continuously continued on the switched / interpainted window. You can then play or stop, but perform the time-shift function. When the time-shifted application data is switched / interchanged back to the main screen, the user is provided with a choice whether to start playback from the time-shift start point or the current playback portion. Can provide.
도 55를 참조하면, 메인 화면(5510)에 애플리케이션 데이터가 출력되고, 멀티-뷰 윈도우들도 제공된다. 여기서, 상기 각 멀티-뷰 윈도우는 예컨대, 그룹 기능을 수행할 수 있다. 예컨대, 메인 화면(5510)에 제공 중인 애플리케이션 데이터가 시즌 4의 8회 에피소드인 경우, 해당 시즌의 애플리케이션의 나머지 에피소드는 제1 멀티-뷰 윈도우(5520)에 제공되고, 나머지 멀티-뷰 윈도우(5530, 5540, 5550)는 다른 시즌의 에피소드들을 제공한다. 이때, 각 멀티-뷰 윈도우상에는 해당 시즌의 에피소드 액세스를 위한 인디케이터가 제공되고, 상기 제공되는 인디케이터를 액세스하면, 해당 시즌의 에피소드 목록이 제공된다. 한편, 각 멀티-뷰 윈도우는, 해당 시즌을 식별할 수 있는 데이터, 이미지 데이터, 해당 시즌에 속한 에피소드의 개수 등에 대한 데이터를 함께 출력할 수 있다. 한편, 소정 멀티-뷰 윈도우 자체가 선택되면, 해당 시즌의 애플리케이션 데이터가 에피소드 순서대로 순차로 해당 윈도우상 또는 메인 화면에서 자동으로 재생될 수 있다. 반면, 해당 멀티-뷰 윈도우상에 포인터를 위치시킨 후에 소정 시간이 경과하면, 자동으로 에피소드 리스트가 제공되고, 그 선택에 따라 해당 에피소드를 해당 윈도우상 또는 메인 화면상에서 자동 재생할 수도 있다.Referring to FIG. 55, application data is output to the main screen 5510, and multi-view windows are also provided. Here, each of the multi-view windows may perform a group function, for example. For example, when the application data being provided on the main screen 5510 is eight episodes of season 4, the remaining episodes of the application of the season are provided to the first multi-view window 5520, and the remaining multi-view windows 5530 are provided. 5540 and 5550 provide episodes of different seasons. At this time, an indicator for accessing the episode of the season is provided on each multi-view window, and when the provided indicator is accessed, an episode list of the season is provided. Meanwhile, each of the multi-view windows may output data for identifying the corresponding season, image data, and data about the number of episodes belonging to the corresponding season. On the other hand, if a predetermined multi-view window itself is selected, the application data of the season can be automatically reproduced on the window or the main screen in sequence in episode order. On the other hand, if a predetermined time elapses after placing the pointer on the multi-view window, the episode list is automatically provided, and the episode may be automatically played on the window or the main screen according to the selection.
도 56을 참조하면, 도 55와 유사하게, 각 멀티-뷰 윈도우는 그룹 단위로 구성되고, 소정 멀티-뷰 윈도우(5610)가 선택되면, 해당 시즌에 속한 에피소드들(5620, 5630)이 해당 윈도우의 서브 윈도우 형태로 도시된 바와 같이 제공될 수 있다.Referring to FIG. 56, similar to FIG. 55, each multi-view window is configured in group units, and when a predetermined multi-view window 5610 is selected, episodes 5620 and 5630 belonging to the season are selected. It can be provided as shown in the form of a sub-window of.
도 57을 참조하면, 각 멀티-뷰 윈도우는 메인 화면상에 제공 중인 애플리케이션 즉, 시즌 4의 에피소드 8을 제공하는 경우엔, 해당 시즌의 이전 에피소드 및 추후 제공 가능한 해당 시즌의 에피소드들을 제공한다. 이때, 제1 멀티-뷰 윈도우에서는 현재 메인 화면상에 제공 중인 애플리케이션의 에피소드의 직전 에피소드가 제공된다. 이때, 제1 멀티-뷰 윈도우는, 상기 메인 화면상에 제공 중인 애플리케이션의 시즌 에피소드가 복수 개인 경우에는, 그 액세스를 위한 인디케이터를 제공할 수 있다. 나머지 멀티-뷰 윈도우에서는 상기 메인 화면에서 제공 중인 애플리케이션의 시즌 에피소드보다 이후에 제공 가능한 에피소드들을 제공한다. 이때, 상기 에피소드들은 한 번도 시청하거나 녹화 등이 이루어지지 않은 경우에는, 해당 멀티-뷰 윈도우(5710) 액세스에 따라 예약 녹화/시청 예약(5712/5714)을 위한 기능 아이콘들이 상기 멀티-뷰 윈도우(5710) 주변에 제공되어 바로 기능 수행 또는 수행 예약 등을 할 수 있다.Referring to FIG. 57, when the multi-view window provides an application being provided on the main screen, that is, episode 8 of season 4, each multi-view window provides previous episodes of the season and episodes of the season that can be provided later. In this case, the first multi-view window is provided with an episode immediately before the episode of the application currently being provided on the main screen. In this case, when there are a plurality of season episodes of the application being provided on the main screen, the first multi-view window may provide an indicator for access thereof. The remaining multi-view window provides episodes that can be provided after the season episode of the application being provided on the main screen. In this case, when the episodes have not been viewed or recorded, the function icons for the reserved recording / viewing reservations 5712/5714 are accessed according to the access of the corresponding multi-view window 5710. 5710) may be provided in the vicinity to immediately perform a function or schedule a performance.
도 58은 전술한 실시 예들과 유사하나, 다른 내용은 이전 실시 예들은, 추가 시즌이나 추가 에피소드가 존재하는 경우에는 이를 멀티-뷰 윈도우를 통해 제공함에 따라 화면을 가리는 영역이 많아, 메인 화면상의 애플리케이션에 대한 시청에 불편함을 줄 수도 있다. 따라서, 도 58에서는 접근 가능한 시즌이나 에피소드들을 메인 멀티-뷰 윈도우의 주변에 아이콘 형태로 제공하여, 화면 가림 현상은 최소화하되, 기능 수행은 보다 쉽게 제어할 수 있도록 한다.FIG. 58 is similar to the above-described embodiments, but other contents of the previous embodiments include an area on the main screen that is largely covered by providing a multi-view window when additional seasons or additional episodes exist. It may be inconvenient to watch. Thus, in FIG. 58, accessible seasons or episodes are provided in the form of icons in the periphery of the main multi-view window, thereby minimizing screen obscurity and making it easier to control function execution.
도 56에 비록 도시되진 않았으나, 서브 멀티-뷰 윈도우도 메인 멀티-뷰 윈도우와 마찬가지로 추가적인 서브 멀티-뷰 윈도우 제공을 위한 인터페이스로서 인디케이터를 제공할 수 있다. 예를 들어, 도 56에서 제공되는 하나 또는 그 이상의 제2 서브 멀티-뷰 윈도우들(5620, 5630)은 제1 서브 멀티-뷰 윈도우(5610)상에 제공되는 인디케이터의 액세스에 따라 제공될 수 있다.Although not shown in FIG. 56, the sub multi-view window may also provide an indicator as an interface for providing additional sub multi-view windows, similar to the main multi-view window. For example, one or more second sub multi-view windows 5620 and 5630 provided in FIG. 56 may be provided according to an access of an indicator provided on the first sub multi-view window 5610. .
도 59는 본 발명의 일 실시 예에 따라 멀티-뷰 모드를 지원하는 디지털 디바이스의 제어 방법을 설명하기 위해 도시한 순서도이다.FIG. 59 is a flowchart illustrating a control method of a digital device supporting a multi-view mode according to an embodiment of the present invention.
디지털 디바이스에서 멀티 뷰 데이터를 처리하는 방법은, 다음과 같을 수 있다.A method of processing multi-view data in a digital device may be as follows.
디지털 디바이스는, 컨텐트와 상기 컨텐트에 대한 시그널링 데이터를 수신하고(S5902), 상기 컨텐트와 시그널링 데이터를 디코딩하여(S5904), 상기 디코딩된 컨텐트를 스크린에 출력한다(S5906).The digital device receives content and signaling data for the content (S5902), decodes the content and signaling data (S5904), and outputs the decoded content to the screen (S5906).
디지털 디바이스는, 메뉴 런처 출력을 요청하는 사용자 입력을 수신하고(S5908), 상기 메뉴 런처 출력 요청 사용자 입력에 따라 상기 스크린상에 하나 또는 그 이상의 메뉴 아이템들을 출력한다(S5910).The digital device receives a user input for requesting a menu launcher output (S5908), and outputs one or more menu items on the screen according to the menu launcher output request user input (S5910).
디지털 디바이스는, 멀티 뷰 컨텐트 출력을 요청하는 사용자 입력을 수신하고(S5912), 상기 제1 사용자 입력에 따라 상기 컨텐트가 출력 중인 스크린상의 소정 영역에 상기 멀티 뷰 컨텐트를 출력하는 윈도우를 오버레이하여 출력한다(S5914). The digital device receives a user input for requesting output of the multi-view content (S5912), and overlays and outputs a window for outputting the multi-view content on a predetermined area on the screen where the content is output according to the first user input. (S5914).
상기 출력되는 윈도우는, 하나 또는 그 이상의 서브 윈도우들 출력을 위한 인터페이스를 포함하고, 상기 인터페이스의 선택에 따라 상기 하나 또는 그 이상의 서브 윈도우들을 상기 윈도우와 함께 스크린 영역에 출력할 수 있다.The output window may include an interface for outputting one or more subwindows, and output the one or more subwindows together with the window to a screen area according to the selection of the interface.
상기에서, 하나 또는 그 이상의 서브 윈도우들을 통해 출력되는 컨텐트는, 상기 컨텐트와 상기 윈도우를 통해 출력되는 멀티 뷰 컨텐트 중 적어도 하나와 연관된 컨텐트일 수 있다.The content output through the one or more sub-windows may be content associated with at least one of the content and the multi-view content output through the window.
상기에서, 제1 사용자 입력은, 상기 출력되는 메뉴 런처에 속한 하나 또는 그 이상의 메뉴 아이템들 중 어느 하나를 선택함에 따라 상기 선택된 메뉴 아이템 주변에 제공된 멀티 뷰 기능 아이콘 선택 신호일 수 있다.The first user input may be a multi-view function icon selection signal provided around the selected menu item as one of one or more menu items belonging to the output menu launcher is selected.
한편, 상기 멀티 뷰 컨텐트 출력을 위한 윈도우는, 상기 출력되는 메뉴 런처와 중복되지 않는 영역에 출력할 수 있고, 상기 하나 또는 그 이상의 서브 윈도우들은, 상기 윈도우에 비하여 다른 사이즈로 출력할 수 있다.The window for outputting the multi-view content may be output in an area not overlapping with the output menu launcher, and the one or more sub-windows may be output in a different size than the window.
상기에서, 윈도우는, 드래그 앤드 드롭에 따라 상기 스크린상에 제공 중인 컨텐트와 인터체인징할 수 있으며, 상기 하나 또는 그 이상의 서브 윈도우들은, 상기 윈도우와 인접한 스크린 영역 또는 상기 스크린의 가장자리에 출력할 수 있다.The window may interact with content being provided on the screen according to drag and drop, and the one or more sub-windows may be output to a screen area adjacent to the window or an edge of the screen. .
그 밖에, 상기 출력되는 윈도우가 상기 스크린 영역 내 최초 위치로부터 다른 위치로 변경되면, 변경된 위치를 기반으로 상기 인터페이스 선택에 따라 출력되는 서브 윈도우들 외에 추가로 하나 또는 그 이상의 서브 윈도우들을 출력할 수 있다.In addition, when the output window is changed from an initial position in the screen area to another position, one or more sub windows may be output in addition to the sub windows output according to the interface selection based on the changed position. .
한편, 상기 출력되는 윈도우와 서브 윈도우들 중 적어도 하나는, 동일 카테고리의 컨텐트를 포함한 그룹 단위로 구성하고, 상기 포인터가 해당 윈도우 또는 서브 윈도우에 위치하면, 상기 그룹 단위의 컨텐트 리스트를 윈도우 형태 또는 아이콘 형태로 해당 윈도우상에 출력할 수 있다.본 명세서에서, 메인 멀티-뷰와 서브 멀티-뷰 윈도우들에서는, 디지털 디바이스에서 처리 가능한 다양한 데이터들이 제공될 수 있는데 이러한 데이터로는 이미지, 비디오, 오디오뿐만 아니라 DVI/HDMI나 게임 디바이스와 같은 외부 입력 기기나 웹 브라우저 형식도 지원할 수 있다. 한편, 메인 멀티-뷰 윈도우상에서 웹 브라우저가 제공되면, 서브 멀티-뷰 윈도우도 웹 브라우저 형태로 추천되거나 제공될 수도 있고 그렇지 않을 수도 있다.Meanwhile, at least one of the output window and the sub-windows is configured in a group unit including content of the same category, and when the pointer is located in the corresponding window or sub-window, the content list in the group unit is displayed in a window form or icon. In the present specification, in the main multi-view and sub-multi-view windows, various data that can be processed by the digital device may be provided. Such data may include only image, video, and audio. It can also support external input devices such as DVI / HDMI or gaming devices, or web browser formats. On the other hand, if a web browser is provided on the main multi-view window, the sub multi-view window may or may not be recommended or provided in the form of a web browser.
또한, 메인 멀티-뷰 윈도우상에서 제공 중인 애플리케이션이 메인 화면상에서 제공 중인 애플리케이션 또는 서브 멀티-뷰 윈도우와 스위칭/인터체인징이 되는 경우에는, 해당 멀티-뷰 윈도우를 제외한 나머지 멀티-뷰 윈도우는 변동이 없을 수도 있고, 반대로 스위칭/인터체인징된 메인 멀티-뷰 윈도우상의 애플리케이션에 따라 전면적으로 서브 멀티-뷰 윈도우가 변경될 수도 있다.In addition, when the application provided on the main multi-view window is switched / interchanged with the application provided on the main screen or the sub multi-view window, the remaining multi-view windows except for the corresponding multi-view window remain unchanged. Conversely, the sub multi-view window may be changed in full depending on the application on the switched / interchained main multi-view window.
본 명세서에서 각 도면에서 기술한 내용은 편의상 해당 도면에 대한 설명에 국한하였으나, 본 발명의 기술 사상은 이에 한정되지 않는다. 따라서, 비록 도시하지 않았거나 설명되지 않았다고 하더라도, 해당 도면에 도시되었거나 해당 도면에 대한 설명 부분에서 언급한 내용 중 서로 상충되지 않는 내용은 관련 도면 및 상기 관련 도면의 설명 부분에도 그대로 적용 또는 적절히 조합하여 적용 가능하며, 이 역시 본 발명의 기술사상에 포함된다.In the present specification, the contents described in the drawings are limited to the description of the drawings for convenience, but the technical idea of the present invention is not limited thereto. Accordingly, although not shown or described, any contents not shown in the drawings or referred to in the description of the drawings that do not conflict with each other may be applied to the related drawings and the description of the related drawings as they are or may be appropriately combined. Applicable, it is also included in the technical idea of the present invention.
본 발명의 다양한 실시 예들에 따르면, 디지털 디바이스는 사용자가 원하는 기능, 컨텐트 등 데이터를 종래에 비해 더욱 쉽고 빠르게 접근 및 이용할 수 있도록 하고, 메인 화면상에 출력 중인 컨텐트 즉, 기 시청 중인 컨텐트의 시청 방해를 최소화하면서 호출된 메뉴 상에서 최소한의 뎁쓰나 화면 변화를 통하여 원하는 데이터를 쉽고 빠르게 접근 및 이용할 수 있도록 하고, 메인 컨텐트 또는/및 메뉴 런처가 출력 중인 상태에서 웹OS 플랫폼에 기반하여, 멀티-뷰 화면을 쉽게 제공하고 그를 제어할 수 있도록 할뿐만 아니라 종래에 비해 더욱 직관적이고 이용 편의성이 극대화된 메뉴 화면을 구성하여 제공함으로써 디지털 디바이스를 누구나 쉽고 편리하게 이용할 수 있도록 할 수 있다.According to various embodiments of the present disclosure, a digital device may make accessing and using data, such as a function and content desired by a user, easier and faster than in the related art, and prevents viewing of content being displayed on a main screen, that is, content previously viewed. Multi-view screens, based on the webOS platform, with the main content or / and menu launcher being displayed, allowing for quick and easy access and use of the desired data with minimal depth or screen changes on the called menus In addition to making it easy to control and control, as well as by providing a menu screen that is more intuitive and easier to use than the conventional, it is possible for anyone to use the digital device easily and conveniently.
본 발명에 따른 디지털 디바이스 및 디지털 디바이스 제어 방법은 상기한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The digital device and the method for controlling the digital device according to the present invention are not limited to the configuration and method of the embodiments described as described above, but the embodiments are all or part of the embodiments so that various modifications can be made. May be optionally combined.
한편, 본 발명의 디지털 디바이스의 동작 방법은 디지털 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브(carrier wave)의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.On the other hand, the operating method of the digital device of the present invention can be embodied as a processor-readable code on a processor-readable recording medium provided in the digital device. The processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and are implemented in the form of a carrier wave such as transmission over the Internet. It includes being. The processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the above-described specific embodiment, the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.
본 발명은 디지털 디바이스에 관한 것으로, 다양한 형태의 디지털 디바이스에 적용 가능한바, 산업상 이용 가능성이 있다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to digital devices, and is applicable to various types of digital devices, and thus there is industrial applicability.

Claims (20)

  1. 디지털 디바이스에 있어서,In a digital device,
    컨텐트와 상기 컨텐트에 대한 시그널링 데이터를 수신하는 수신부;A receiver which receives content and signaling data for the content;
    멀티 뷰 컨텐트 출력을 요청하는 제1 사용자 입력을 수신하는 사용자 입력 수신부;A user input receiver configured to receive a first user input for requesting output of the multi-view content;
    상기 컨텐트와 시그널링 데이터를 디코딩하는 디코더;A decoder for decoding the content and signaling data;
    상기 디코딩된 컨텐트를 화면에 출력하도록 제어하고, 상기 제1 사용자 입력에 따라 상기 컨텐트가 출력 중인 스크린상의 소정 영역에 상기 멀티 뷰 컨텐트를 출력하는 윈도우를 오버레이하여 출력하도록 제어하는 제어부; 및A controller configured to control the output of the decoded content on a screen and to overlay and output a window for outputting the multi-view content in a predetermined area on a screen on which the content is output according to the first user input; And
    상기 컨텐트 및 윈도우를 출력하는 출력부를 포함하고,An output unit for outputting the content and the window,
    상기 제어부는,The control unit,
    포인터가 상기 윈도우 내에 위치하면 하나 또는 그 이상의 서브 윈도우들 출력을 위한 인터페이스가 출력하도록 제어하고,If a pointer is located in the window, the interface for outputting one or more subwindows is controlled.
    상기 인터페이스 선택에 따라 상기 하나 또는 그 이상의 서브 윈도우들을 상기 윈도우와 함께 스크린 영역에 출력되도록 제어하는 디지털 디바이스.And controlling the one or more sub-windows to be output to the screen area together with the window according to the interface selection.
  2. 제1항에 있어서, The method of claim 1,
    상기 하나 또는 그 이상의 서브 윈도우들을 통해 출력되는 컨텐트는,Content output through the one or more sub-windows,
    상기 컨텐트와 상기 윈도우를 통해 출력되는 멀티 뷰 컨텐트 중 적어도 하나와 연관된 컨텐트인 것을 특징으로 하는 디지털 디바이스.And at least one of the content and the multi-view content output through the window.
  3. 제1항에 있어서,The method of claim 1,
    상기 사용자 입력 수신부는,The user input receiver,
    메뉴 런처 출력을 요청하는 사용자 입력을 수신하고,Receive user input requesting menu launcher output,
    상기 제어부는,The control unit,
    상기 메뉴 런처 출력 요청 사용자 입력에 따라 상기 스크린상에 하나 또는 그 이상의 메뉴 아이템들을 출력하도록 제어하는 것을 특징으로 하는 디지털 디바이스.And output one or more menu items on the screen according to the menu launcher output request user input.
  4. 제3항에 있어서,The method of claim 3,
    상기 제1 사용자 입력은,The first user input is
    상기 출력되는 메뉴 런처에 속한 하나 또는 그 이상의 메뉴 아이템들 중 어느 하나를 선택함에 따라 상기 선택된 메뉴 아이템 주변에 제공된 멀티 뷰 기능 아이콘 선택 신호인 것을 특징으로 하는 디지털 디바이스.And a multi-view function icon selection signal provided around the selected menu item in response to selecting one of the one or more menu items belonging to the output menu launcher.
  5. 제3항에 있어서,The method of claim 3,
    상기 제어부는,The control unit,
    상기 멀티 뷰 컨텐트 출력을 위한 윈도우를 상기 출력되는 메뉴 런처와 중복되지 않는 영역에 출력하도록 제어하는 것을 특징으로 하는 디지털 디바이스.And output the window for outputting the multi-view content to an area not overlapping with the output menu launcher.
  6. 제1항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    상기 하나 또는 그 이상의 서브 윈도우들을 상기 윈도우에 비하여 사이즈를 다르게 출력하도록 제어하는 것을 특징으로 하는 디지털 디바이스.And controlling the one or more sub-windows to output a different size than the window.
  7. 제1항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    상기 윈도우를 드래그 앤드 드롭함에 따라 상기 스크린상에 제공 중인 컨텐트와 인터체인징하도록 제어하는 것을 특징으로 하는 디지털 디바이스.And control to interchange with the content being provided on the screen as the window is dragged and dropped.
  8. 제1항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    상기 하나 또는 그 이상의 서브 윈도우들을 상기 윈도우와 인접한 스크린 영역 또는 상기 스크린의 가장자리에 출력되도록 제어하는 것을 특징으로 하는 디지털 디바이스.And control the one or more sub-windows to be output to a screen area adjacent to the window or an edge of the screen.
  9. 제1항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    상기 출력되는 윈도우가 상기 스크린 영역 내 최초 위치로부터 다른 위치로 변경되면, 변경된 위치를 기반으로 상기 인터페이스 선택에 따라 출력되는 서브 윈도우들 외에 추가로 하나 또는 그 이상의 서브 윈도우들을 출력하도록 제어하는 것을 특징으로 하는 디지털 디바이스.When the output window is changed from the initial position in the screen area to another position, the control unit outputs one or more sub windows in addition to the sub windows output according to the interface selection based on the changed position. Digital device.
  10. 제1항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    상기 출력되는 윈도우와 서브 윈도우들 중 적어도 하나를 동일 카테고리의 컨텐트를 포함한 그룹 단위로 구성하고, 상기 포인터가 해당 윈도우 또는 서브 윈도우에 위치하면, 상기 그룹 단위의 컨텐트 리스트를 윈도우 형태 또는 아이콘 형태로 해당 윈도우상에 출력하도록 제어하는 것을 특징으로 하는 디지털 디바이스.At least one of the output window and the sub-window is configured in a group unit including content of the same category, and when the pointer is located in the corresponding window or sub-window, the content list in the group unit corresponds to a window or icon form. Digital device for controlling the output on the window.
  11. 디지털 디바이스에서 멀티 뷰 데이터를 처리하는 방법에 있어서,In the method for processing multi-view data in a digital device,
    컨텐트와 상기 컨텐트에 대한 시그널링 데이터를 수신하는 단계;Receiving content and signaling data for the content;
    상기 컨텐트와 시그널링 데이터를 디코딩하는 단계;Decoding the content and signaling data;
    상기 디코딩된 컨텐트를 스크린에 출력하는 단계;Outputting the decoded content to a screen;
    멀티 뷰 컨텐트 출력을 요청하는 제1 사용자 입력을 수신하는 단계; 및Receiving a first user input requesting multi-view content output; And
    상기 제1 사용자 입력에 따라 상기 컨텐트가 출력 중인 스크린상의 소정 영역에 상기 멀티 뷰 컨텐트를 출력하는 윈도우를 오버레이하여 출력하는 단계를 포함하여 이루어지고,And overlaying and outputting a window for outputting the multi-view content in a predetermined area on a screen where the content is being output according to the first user input.
    상기 출력되는 윈도우는 하나 또는 그 이상의 서브 윈도우들 출력을 위한 인터페이스를 포함하고, 상기 인터페이스의 선택에 따라 상기 하나 또는 그 이상의 서브 윈도우들을 상기 윈도우와 함께 스크린 영역에 출력하는 디지털 디바이스에서 멀티 뷰 데이터 처리 방법.The output window includes an interface for outputting one or more sub-windows, and the multi-view data processing in the digital device outputting the one or more sub-windows together with the window to the screen area according to selection of the interface. Way.
  12. 제11항에 있어서, The method of claim 11,
    상기 하나 또는 그 이상의 서브 윈도우들을 통해 출력되는 컨텐트는,Content output through the one or more sub-windows,
    상기 컨텐트와 상기 윈도우를 통해 출력되는 멀티 뷰 컨텐트 중 적어도 하나와 연관된 컨텐트인 것을 특징으로 하는 디지털 디바이스에서 멀티 뷰 데이터 처리 방법.And content associated with at least one of the content and the multi-view content output through the window.
  13. 제11항에 있어서,The method of claim 11,
    메뉴 런처 출력을 요청하는 사용자 입력을 수신하는 단계; 및Receiving a user input requesting a menu launcher output; And
    상기 메뉴 런처 출력 요청 사용자 입력에 따라 상기 스크린상에 하나 또는 그 이상의 메뉴 아이템들을 출력하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 디지털 디바이스에서 멀티 뷰 데이터 처리 방법.And outputting one or more menu items on the screen in accordance with the menu launcher output request user input.
  14. 제13항에 있어서,The method of claim 13,
    상기 제1 사용자 입력은,The first user input is
    상기 출력되는 메뉴 런처에 속한 하나 또는 그 이상의 메뉴 아이템들 중 어느 하나를 선택함에 따라 상기 선택된 메뉴 아이템 주변에 제공된 멀티 뷰 기능 아이콘 선택 신호인 것을 특징으로 하는 디지털 디바이스에서 멀티 뷰 데이터 처리 방법.And a multi-view function icon selection signal provided around the selected menu item in response to selecting any one of one or more menu items belonging to the output menu launcher.
  15. 제13항에 있어서,The method of claim 13,
    상기 멀티 뷰 컨텐트 출력을 위한 윈도우는, The window for outputting the multi-view content,
    상기 출력되는 메뉴 런처와 중복되지 않는 영역에 출력하는 것을 특징으로 하는 디지털 디바이스에서 멀티 뷰 데이터 처리 방법.And outputting the data to an area not overlapping with the output menu launcher.
  16. 제11항에 있어서,The method of claim 11,
    상기 하나 또는 그 이상의 서브 윈도우들은,The one or more subwindows,
    상기 윈도우에 비하여 다른 사이즈로 출력하는 것을 특징으로 하는 디지털 디바이스에서 멀티 뷰 데이터 처리 방법.And outputting in a different size as compared to the window.
  17. 제11항에 있어서,The method of claim 11,
    상기 윈도우는,The window is,
    드래그 앤드 드롭에 따라 상기 스크린상에 제공 중인 컨텐트와 인터체인징하는 것을 특징으로 하는 디지털 디바이스에서 멀티 뷰 데이터 처리 방법.And interacting with content being provided on the screen according to drag and drop.
  18. 제11항에 있어서,The method of claim 11,
    상기 하나 또는 그 이상의 서브 윈도우들은,The one or more subwindows,
    상기 윈도우와 인접한 스크린 영역 또는 상기 스크린의 가장자리에 출력하는 것을 특징으로 하는 디지털 디바이스에서 멀티 뷰 데이터 처리 방법.And outputting to a screen area adjacent to the window or to an edge of the screen.
  19. 제11항에 있어서,The method of claim 11,
    상기 출력되는 윈도우가 상기 스크린 영역 내 최초 위치로부터 다른 위치로 변경되면, 변경된 위치를 기반으로 상기 인터페이스 선택에 따라 출력되는 서브 윈도우들 외에 추가로 하나 또는 그 이상의 서브 윈도우들을 출력하는 것을 특징으로 하는 디지털 디바이스에서 멀티 뷰 데이터 처리 방법.When the output window is changed from the initial position in the screen area to another position, on the basis of the changed position, in addition to the sub-window output according to the interface selection, one or more sub-windows further output How to handle multi-view data on a device.
  20. 제11항에 있어서,The method of claim 11,
    상기 출력되는 윈도우와 서브 윈도우들 중 적어도 하나는,At least one of the output window and the sub-window,
    동일 카테고리의 컨텐트를 포함한 그룹 단위로 구성하고, 상기 포인터가 해당 윈도우 또는 서브 윈도우에 위치하면, 상기 그룹 단위의 컨텐트 리스트를 윈도우 형태 또는 아이콘 형태로 해당 윈도우상에 출력하는 것을 특징으로 하는 디지털 디바이스에서 멀티 뷰 데이터 처리 방법.In a digital device comprising a group unit including content of the same category, and if the pointer is located in the window or sub-window, the content list of the group unit is output on the window in the form of a window or icon How to handle multi-view data.
PCT/KR2015/004506 2015-05-06 2015-05-06 Digital device and digital device control method WO2016178442A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020177026246A KR20180002599A (en) 2015-05-06 2015-05-06 Digital device and digital device control method
KR1020227008155A KR102418149B1 (en) 2015-05-06 2015-05-06 Digital device and digital device control method
PCT/KR2015/004506 WO2016178442A1 (en) 2015-05-06 2015-05-06 Digital device and digital device control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/004506 WO2016178442A1 (en) 2015-05-06 2015-05-06 Digital device and digital device control method

Publications (1)

Publication Number Publication Date
WO2016178442A1 true WO2016178442A1 (en) 2016-11-10

Family

ID=57217641

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/004506 WO2016178442A1 (en) 2015-05-06 2015-05-06 Digital device and digital device control method

Country Status (2)

Country Link
KR (2) KR20180002599A (en)
WO (1) WO2016178442A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113672321A (en) * 2021-07-26 2021-11-19 中标软件有限公司 Implementation method of lightweight wayland synthesizer supporting client window coordinates
CN113676764A (en) * 2021-08-04 2021-11-19 深圳康佳电子科技有限公司 Screen split-screen display method and device and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220048670A (en) * 2020-10-13 2022-04-20 삼성전자주식회사 An electronic apparatus and a method of operating the electronic apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080313677A1 (en) * 2007-06-18 2008-12-18 Alticast Corporation Channel selection device and method
WO2009088246A2 (en) * 2008-01-09 2009-07-16 Industry-Academic Cooperation Foundation, Yonsei University Server, set-top box for interactive tv system, interactive tv system including the same, method of changing channel thereof, and method of transmitting multimedia thereof
US20110119611A1 (en) * 2009-11-17 2011-05-19 Eun Seon Ahn Method for playing contents
US20110131296A1 (en) * 2009-11-27 2011-06-02 Hyungnam Lee Method for managing contents and display apparatus thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101213674B1 (en) * 2007-06-18 2012-12-18 주식회사 알티캐스트 Apparatus and method for selecting channel
KR102040608B1 (en) * 2012-12-12 2019-11-05 엘지전자 주식회사 Digital device and method of processing a signal thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080313677A1 (en) * 2007-06-18 2008-12-18 Alticast Corporation Channel selection device and method
WO2009088246A2 (en) * 2008-01-09 2009-07-16 Industry-Academic Cooperation Foundation, Yonsei University Server, set-top box for interactive tv system, interactive tv system including the same, method of changing channel thereof, and method of transmitting multimedia thereof
US20110119611A1 (en) * 2009-11-17 2011-05-19 Eun Seon Ahn Method for playing contents
US20110131296A1 (en) * 2009-11-27 2011-06-02 Hyungnam Lee Method for managing contents and display apparatus thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113672321A (en) * 2021-07-26 2021-11-19 中标软件有限公司 Implementation method of lightweight wayland synthesizer supporting client window coordinates
CN113672321B (en) * 2021-07-26 2023-08-22 中标软件有限公司 Implementation method of lightweight wayside synthesizer supporting client window coordinates
CN113676764A (en) * 2021-08-04 2021-11-19 深圳康佳电子科技有限公司 Screen split-screen display method and device and storage medium
CN113676764B (en) * 2021-08-04 2023-12-05 深圳康佳电子科技有限公司 Screen splitting display method, device and storage medium

Also Published As

Publication number Publication date
KR102418149B1 (en) 2022-07-07
KR20220038179A (en) 2022-03-25
KR20180002599A (en) 2018-01-08

Similar Documents

Publication Publication Date Title
WO2015099343A1 (en) Digital device and method for controlling same
WO2016175356A1 (en) Digital device and digital device control method
WO2016085070A1 (en) System for controlling device, digital device, and method for controlling same
WO2016104907A1 (en) Digital device and method for processing data by same digital device
WO2016085094A1 (en) Multimedia device and control method therefor
WO2017003022A1 (en) Display device and control method therefor
WO2016027933A1 (en) Digital device and method for controlling same
WO2016186254A1 (en) Display device and control method therefor
WO2017034065A1 (en) Display device and control method therefor
WO2016143965A1 (en) Display device and controlling method thereof
WO2012030036A1 (en) Image display apparatus and method for operating the same
WO2012015116A1 (en) Image display apparatus and method for operating the same
WO2012015117A1 (en) Method for operating image display apparatus
WO2012015118A1 (en) Method for operating image display apparatus
WO2011136458A1 (en) Image display apparatus and method for operating the same
WO2012074197A1 (en) Method for sharing messages in image display device and image display device for the same
WO2011126202A1 (en) Image display apparatus and method for operating the same
WO2011132840A1 (en) Image display apparatus and method for operating the same
WO2016175361A1 (en) Display device and control method thereof
WO2012074189A1 (en) Method for controlling screen display and image display device using same
WO2012070789A2 (en) System, method and apparatus of providing/receiving service of plurality of content providers and client
WO2012030025A1 (en) Image display apparatus and method for operating the same
WO2012070742A1 (en) Method for installing applications, and image display device using same
WO2017200215A1 (en) Digital device and controlling method thereof
WO2017034298A1 (en) Digital device and method of processing data in said digital device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15891306

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20177026246

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15891306

Country of ref document: EP

Kind code of ref document: A1