WO2012099378A2 - 콘텐트 송수신 제어 방법 및 장치 - Google Patents

콘텐트 송수신 제어 방법 및 장치 Download PDF

Info

Publication number
WO2012099378A2
WO2012099378A2 PCT/KR2012/000398 KR2012000398W WO2012099378A2 WO 2012099378 A2 WO2012099378 A2 WO 2012099378A2 KR 2012000398 W KR2012000398 W KR 2012000398W WO 2012099378 A2 WO2012099378 A2 WO 2012099378A2
Authority
WO
WIPO (PCT)
Prior art keywords
hdmi
content
upnp
cec
sink
Prior art date
Application number
PCT/KR2012/000398
Other languages
English (en)
French (fr)
Other versions
WO2012099378A3 (ko
Inventor
양승률
이민수
박장웅
전범진
이종엽
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US13/979,990 priority Critical patent/US20130304860A1/en
Publication of WO2012099378A2 publication Critical patent/WO2012099378A2/ko
Publication of WO2012099378A3 publication Critical patent/WO2012099378A3/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2807Exchanging configuration information on appliance services in a home automation network
    • H04L12/2809Exchanging configuration information on appliance services in a home automation network indicating that an appliance service is present in a home automation network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • H04L12/282Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2838Distribution of signals within a home automation network, e.g. involving splitting/multiplexing signals to/from different paths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/34Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals

Definitions

  • the present invention relates to a method of controlling transmission and reception of AV content between Universal Plug and Play (UPnP) devices.
  • UnP Universal Plug and Play
  • Universal plug and play (UPnP) technology and digital living network alliance (DLNA) technology enable service and control between consumer electronics devices from a variety of manufacturers.
  • UPnP technology and DLNA technology enable compatible AV services and controls between audio-visual (AV) devices. These compatible AV services include media streaming, uploading and downloading.
  • DLNA is a home network device, which is a digital media server (DMS), digital media player (DMP), digital media renderer (DMR), digital media controller (DMC), It defines digital media printer (DMPr), mobile digital media server (M-DMS), mobile digital media player (M-DMP), mobile digital A media uploader (M-DMU), a mobile digital media downloader (M-DMD), and a mobile digital media controller (M-DMC) are defined.
  • DMS digital media server
  • DMR digital media renderer
  • DMC digital media controller
  • UPnP classifies these devices into control point (CP) devices and control target devices.
  • the digital media controller (DMC) and the digital media player (DMP) may be classified as control point devices, and the digital media renderer (DMR), digital media server (DMS), and DMPr may be classified as control target devices.
  • DMC digital media controller
  • DMP digital media player
  • DMR digital media renderer
  • DMS digital media server
  • DMPr digital media server
  • An object of the present invention is to provide a method for controlling transmission and reception of content and a control device using the same, which can efficiently service AV content among UPnP devices.
  • UPF Universal Plug and Play
  • HDMI Consumer Electronics Control
  • control device for achieving the above object, the communication unit for receiving CEC address information from at least one of the discovered UPnP devices; And a control unit which checks an HDMI connection between a source device and a sink device among the searched UPnP devices using the received CEC address information, and controls content to be streamed through the HDMI connection between the source device and the sink device.
  • the CEC address information includes a CEC address of the UPnP device and a CEC address of a device connected to the UPnP device through HDMI.
  • FIG. 1 is a block diagram illustrating an embodiment of a configuration of a UPnP network.
  • FIG. 2 is a block diagram schematically illustrating a configuration of a content transmission and reception system according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a content transmission and reception control method according to an embodiment of the present invention.
  • FIG. 4 is a ladder diagram for explaining a first embodiment of a method for receiving CEC address information of UPnP devices.
  • FIG. 5 is a diagram illustrating an embodiment of an action defined for requesting CEC address information.
  • 6 to 13 are diagrams showing embodiments of device information searched by the control device CP.
  • FIG. 14 is a block diagram briefly illustrating a configuration of a content transmission and reception system according to another embodiment of the present invention.
  • FIG. 15 is a diagram illustrating an embodiment of device information searched by a control device (CP) in the case of the two box model shown in FIG. 14.
  • CP control device
  • 16 is a block diagram briefly illustrating a configuration of a content transmission and reception system according to another embodiment of the present invention.
  • 17 to 22 are diagrams illustrating embodiments of device information searched by the control device CP in the system illustrated in FIG. 14.
  • FIG. 23 is a ladder diagram for describing a second embodiment of a method for receiving CEC address information of UPnP devices.
  • 24 is a diagram illustrating an embodiment of protocol information received by a control device (CP).
  • CP control device
  • 25 and 26 are diagrams for describing an embodiment of a method of confirming an HDMI connection between a source device and a sink device.
  • 27 and 28 are diagrams for describing a first embodiment of a method of turning on an HDMI session between a source device and a sink device.
  • 29 to 31 are diagrams for describing a second embodiment of a method of turning on an HDMI session between a source device and a sink device.
  • 32 is a ladder diagram for explaining a first embodiment of a method of controlling content streaming through an HDMI connection.
  • 33 is a ladder diagram for explaining a second embodiment of a method of controlling content streaming through an HDMI connection.
  • 34 to 38 are diagrams for describing embodiments of a method of confirming whether content can be decoded by UPnP devices.
  • 39 is a block diagram illustrating an embodiment of a method of relaying content streaming.
  • 40 and 41 are block diagrams for describing embodiments of a configuration of a source device.
  • FIG. 42 is a block diagram showing a configuration of a control apparatus according to an embodiment of the present invention.
  • 43 to 51 are diagrams for describing embodiments of a method of determining an interface for transmitting and receiving content.
  • FIG. 1 is a block diagram illustrating an embodiment of a configuration of a UPnP network.
  • UDP Universal Plug and Play
  • IP Internet protocol
  • HTTP HyperText Transfer Protocol
  • XML XML
  • network devices such as home appliances, network printers, and Internet gates to be networked, especially home networking. It is a technique to make.
  • the UPnP network may be configured based on a plurality of UPnP devices, a service, and a control point (CP).
  • CP control point
  • the service refers to the smallest small control unit on the network, and the service itself is modeled through a state variable.
  • the control point CP refers to a control device having a function of detecting and controlling other devices, and thus, a user searches for various devices through an interface provided by the control point CP and discovers description information. ) And it may be possible to control it.
  • a UPnP network includes a media server 20 that provides media data to a home network, and a media renderer 30 that plays media data through a home network. And a control point 10 for controlling the media server 20 and the media renderer 30.
  • the control point 10 may know the states of the media server 20 and the media renderer 30 through an event.
  • AVTransport and Rendering Control puts the changed state variable in a state variable called LastChang and informs the control point 10 after a predetermined time to inform the state of the current device.
  • the media server 20 may notify the information about the content whenever there is a UPnP action, and streaming between the media server 20 and the media renderer 30 to play the content.
  • the content is transmitted in such a manner that the corresponding content is played.
  • the content streaming may be performed using various streaming methods, and the UPnP AV standard uses an out-of-band transfer protocol without separately defining a streaming method for the content streaming.
  • the transmission status of media data can be monitored using RTCP, and the transmission parameters can be adjusted based on this.
  • control point 10 can control the media server 20 and the media renderer 30 by calling a UPnP action provided based on a standardized Simple Object Access Protocol (SOAP).
  • SOAP Simple Object Access Protocol
  • control point 10 may subscribe to an event service provided by the UPnP device and report the change of state information of the device.
  • the media server 20 is a ContentDirectory service that provides a service for searching media data managed by the server, a ConnectionManager service that manages a connection for streaming between the media server 20 and the media renderer 30, and playback of media.
  • AVTransport service that provides controls such as Play) and Stop can be provided.
  • the media renderer 30 may provide a RenderingControl service, a ConnectionManager service, and an AVTransport service 133 that control screen brightness and brightness.
  • control point 10 finds the media file information of the server for the discovered media server 20 and the media renderer 30 by using the ContentDirectory service, and based on the information, the control point 10 uses the media server (through the ConnectionManger service). 20) and the media renderer 30 establish a connection for transmitting and receiving content, and play the corresponding content using the AVTransport service.
  • the control point 10 may monitor information about a change in content of the media server 20 or a change in state of a current content stream by subscribing to an event provided by each service.
  • the devices constituting the UPnP network as described above includes UPnP middleware, and the UPnP middleware includes addressing, discovery, description, control, eventing, and presentation. It can support networking functions including presentation process.
  • the addressing process searches for a Dynamic Host Configuration Protocol (DHCP) server and receives an IP (Internet Protocol) address and port from the server, or automatically assigns an IP when the DHCP server is not operated. It refers to a process of automatically selecting and obtaining an IP address and port within a certain range by a function (Auto IP).
  • DHCP Dynamic Host Configuration Protocol
  • UPnP devices obtain different IP addresses and ports through the addressing process
  • UPnP devices configuring one SBC Single Board Computer
  • Different ports can be obtained.
  • UPnP devices that use an IP address and port assigned by a DHCP server or selected by Auto IP communicate with other devices on the network through Transmission Control Protocol (TCP) / IP and use the IP address to You can search and query other devices on the web.
  • TCP Transmission Control Protocol
  • the discovery process is an advertising step in which a UPnP device (for example, the media server 20 or the media renderer 30) first connects to the UPnP network to notify other devices operating on the UPnP network.
  • the control device for example, the control point 10
  • the control device may be divided into a searching step of first accessing the UPnP network and searching for UPnP devices operating on the UPnP network.
  • UPnP devices that first access a UPnP network and obtain a predetermined IP address and port through an addressing process may multiply an advertising message informing them of the devices first connected to the network. You can advertise your connection by multicasting.
  • control point 10 receiving the advertising message may register the IP address and port of the corresponding UPnP device as a registration control target.
  • the first control device connected to the UPnP network that is, the control point 10 obtains a predetermined IP address and port through the addressing process, SSDP to identify the UPnP devices operating on the network (Simple Service Discovery Protocol) can be used to multicast discovery messages.
  • SSDP Simple Service Discovery Protocol
  • the UPnP devices receiving the search message unicast the response message to the control point 10
  • the control point 10 registers the IP address and port of the UPnP device unicast the response message. can do.
  • the description process may include a device description file (eg, a service description XML file or a device description) to the UPnP device through the IP address registered in the advertising step in order for the control point 10 to recognize a service provided by the UPnP device.
  • a device description file eg, a service description XML file or a device description
  • XML file is requested and provided.
  • control process is a control command message that the control point 10 analyzes the device specification file obtained through the description process to recognize the service provided by the UPnP device, and then requests the execution of the service provided by the device It refers to a process of controlling the UPnP device by transmitting and receiving a response message thereto.
  • control command message and the control response message are control related data and may be expressed in XML using a simple object access protocol (SOAP).
  • SOAP simple object access protocol
  • the eventing process refers to a process of checking whether an event of a UPnP device providing a predetermined service occurs, for example, a state change, by a control command message transmitted from the control point 10.
  • control point 10 when the control point 10 sends a message requesting a subscription to the device to confirm the status change of the UPnP device, the device uses the General Event Notification Architecture (GENA) to notify the status change.
  • GAA General Event Notification Architecture
  • An event message in the form of text may be transmitted to the control point 10.
  • the presentation process is a process of reading the HTML page of the UPnP device in the control point 10, the HTML page can provide a user interface for controlling the device to show the state of the controlled device.
  • control point 10 the media server 20, and the media renderer 30 are “Ethernet”, “USB”, “802.11”, “HSDPA”, “HomePNA”, “HomePlug”, “MoCA”, “G” Data may be transmitted and received through an IP-based interface such as .hn ”or“ UPA ”, and accordingly, although not shown in FIG. 1, an access point (AP) or a repeater for the IP-based interface may be further provided.
  • IP-based interface such as .hn ”or“ UPA ”, and accordingly, although not shown in FIG. 1, an access point (AP) or a repeater for the IP-based interface may be further provided.
  • UPnP devices for example, the media server 20 and the media renderer 30 may be connected to each other using a high definition multimedia interface (HDMI).
  • HDMI high definition multimedia interface
  • FIG. 2 is a block diagram illustrating a simplified configuration of a content transmission and reception system according to an embodiment of the present invention.
  • the illustrated system may include a source device and a sink device connected via HDMI.
  • transmission and reception of data through HDMI is represented by a solid line
  • transmission and reception of data through an IP-based interface are represented by a solid line.
  • HDMI High Definition Multimedia Interface
  • DVI Digital Video Interactive
  • HDMIs consist of one physical cable with three independent channels, such as Transition Minimized Differential Signaling (TMDS), Display Data Channel (DDC), and Consumer Electronics Control (CEC), which enable AV data, device information, and control. You can send and receive commands and the like.
  • TMDS Transition Minimized Differential Signaling
  • DDC Display Data Channel
  • CEC Consumer Electronics Control
  • the HDMI source 110 as a source device is a device for transmitting AV data through an HDMI cable
  • the HDMI sink 120 as a sink device receives AV data among devices connected through an HDMI cable. It may mean a device located at the top of the link (link).
  • the logical address may be assigned by pinging peripheral devices, and the physical address may be assigned by performing HDMI Hot Plug Detection (HPD).
  • HPD HDMI Hot Plug Detection
  • a TV system which is a root device, has a physical address of '0.0.0.0', and the remaining source devices have an Extended Display Identification Data (EDID) ROM of the sink device through Display Data Channel (DDC) communication. Can be obtained by reading the physical address.
  • the DDC communication may be performed only when the + 5V power signal applied by the source device is fed back from the sink device and applied to the HPD line.
  • the HDMI source 110 when the HDMI source 110 receives the HPD signal from the HDMI sink 120, the HDMI source 110 recognizes that the HDMI connection with the HDMI sink 110, and reads the EDID information of the HDMI sink 120 to be assigned a physical address using it. Can be.
  • the HDMI source 110 may be assigned a logical address by performing a logical address discovery process defined in the HDMI CEC standard.
  • the control device 100 is a device that performs a function of a control point (CP) as described with reference to FIG. 1, and may detect and control the HDMI source 110 and the HDMI sink 120.
  • CP control point
  • HDMI source 110 and the HDMI sink 120 under the control of the control device 100, "Ethernet”, “USB”, “802.11”, “HSDPA”, “HomePNA”, " You can send and receive content through IP-based interfaces such as HomePlug, MoCA, G.hn or UPA, or send and receive content via HDMI.
  • IP-based interfaces such as HomePlug, MoCA, G.hn or UPA
  • the device having the content is defined as a UPnP media server (MS) or DLNA DMS (Digital Media Server), and the HDMI source 110 having an HDMI output is a UPnP media renderer (MR) or DLNA DMR (Digital Media Renderer).
  • UPnP “Decoding” media renderer (MR) or DLNA “Decoding” DMR HDMI sink 120 with HDMI input is defined as UPnP media renderer (MR) or DLNA DMR and specifically May be defined as a UPnP "Displaying” media renderer (MR) or DLNA “Displaying” DMR.
  • FIG. 3 is a flowchart illustrating a content transmission and reception control method according to an embodiment of the present invention, and the control method shown in FIG. 2 will be described with reference to the block diagram shown in FIG. 2.
  • control device 100 searches for a plurality of UPnP devices (step S200), and receives CEC address information from the discovered UPnP devices (step S210).
  • the HDMI source 110 and the HDMI sink 120 connected to the UPnP / DLNA network may be automatically discovered by the control device 100 according to the discovery process as described with reference to FIG. 1. have.
  • the discovered devices can be connected or separated from each other using an IP address and a universally unique ID (UUID), and accordingly, the control device 100 uses the IP address and the UUID to identify the network according to the IP-based interface. Identify maps and topologies.
  • IP address and UUID universally unique ID
  • HDMI source 110 and the HDMI sink 120 connected through the HDMI may be automatically discovered as described with reference to FIG. 2 and assigned a CEC address, that is, a physical address and a logical address.
  • control device 100 may transmit a UPnP message for requesting transmission of CEC address information to each UPnP device discovered through the UPnP discovery protocol using an IP address of each device.
  • control device 100 may receive the CEC address information from the HDMI source 110 and the HDMI sink 120, the CEC address information of the device connected to the device through the CEC address and HDMI of the device May contain a CEC address.
  • control device 100 checks the HDMI connection between the source device and the sink device using the received CEC addresses (step S220), and allows the content to be streamed through the HDMI connection between the source device and the sink device. Control (step S230).
  • control device 100 uses the CEC address information received in step S210, that is, the CEC address for each of the discovered UPnP devices and the CEC address of the device connected thereto, among the discovered UPnP devices. It is possible to determine which devices are connected to each other through HDMI, and thus, it can be seen that the HDMI source 110 and the HDMI sink 120 are connected through HDMI.
  • control device 100 may manage the HDMI connection between the HDMI source 110 and the HDMI sink 120, and control the content streaming through the HDMI connection, in addition to the content streaming It can also be relayed to control delivery through other devices.
  • control device 100 has described an embodiment of the present invention as an example of receiving and requesting the CEC address information to the discovered devices, the present invention is not limited to this, for example, FIG.
  • each device may transmit its CEC address and the CEC address of the device connected thereto to the control device 100.
  • a GetCECInfo () action and a state variable associated therewith are added. Newly defined.
  • the control device 100 calls the GetCECInfo () and, for each of the discovered UPnP devices, whether the device supports the HDMI protocol, the CEC address and the HDMI of the corresponding device acquired by the CEC discovery protocol. It may receive CEC topology information indicating the CEC address of the device connected thereto.
  • the state variables of the GetCECInfo () action may include CECAddress and CECTopology
  • the CECAddress may indicate the CEC address of the discovered device
  • the CECTopology may indicate the CEC address of the device connected to the device through HDMI.
  • the discovered UPnP devices can report the CECAddress and CECTopology state variable values as output arguments of the action.
  • the phone 101 as the control point CP calls the GetCECInfo () (step S300 and step S301), the BDP (Bluelay Disk Player 111) and the TV 121 which are UPnP devices connected via HDMI are connected. Receives the CECAddress and CECTopology state variable values as output independent variables and reports the CEC address and the CEC address (ie, CEC topology information) of the device connected thereto to the phone 101 (steps S302 and S303).
  • the control point (CP) Phone 101 can check the CEC addresses and the CEC topology of the HDMI source BDP 111 and the HDMI sink TV 121, so that the BDP 111 and TV 121 You can see that they are connected to each other via HDMI.
  • FIG. 6 to 13 illustrate embodiments of device discovery result information obtained by the control device 100 through the discovery processes and the CEC address information request process as described above, wherein the discovery result information is a searched UPnP. It may include a device category, an IP address, a UUID, a CEC address, and a CEC discovery result (ie, CEC topology information) for each device.
  • the discovery result information is a searched UPnP. It may include a device category, an IP address, a UUID, a CEC address, and a CEC discovery result (ie, CEC topology information) for each device.
  • the CEC address and CEC topology information of the BDP 111 and the TV 121 are displayed for the GetCECInfo (). It is not passed to Phone 101 as a variable.
  • the CEC addresses of the BDP 111 and the TV 121 are state variables for the GetCECInfo (). It is passed to Phone 101, but no CEC topology information is reported.
  • the CEC addresses and CEC topology information of the BDP 111 and the TV 121 are transmitted to the GetCECInfo (). It is passed to Phone 101 as the state variable for.
  • the CEC topology information of the BDP 111 indicates "0.0.0.0/0", which is the CEC address of the TV 121, and the CEC topology information of the TV 121, "2.1. 0.0 / 4), the phone 101, which is the control point CP, may recognize that the BDP 111 and the TV 121 are connected to each other through HDMI.
  • only one of the HDMI source and the HDMI sink may pass the CEC topology information to the control device 100 as a state variable for the GetCECInfo () action.
  • HDMI source BDP 111 reports CEC topology information to the control point CP Phone 101, or as shown in FIG. 10, an HDMI sink-in (or Only TV 111, which is the root or media renderer MR, may report the CEC topology information to Phone 101.
  • the phone 101 which is the control point CP, can know that the BDP 111 and the TV 121 are connected to each other through the HDMI / CEC protocol with only one CEC topology information.
  • each device may be distinguished from each other only by a logical address among CEC addresses, and thus, the CEC address information, that is, the CEC address and the CEC topology may be configured by only logical addresses.
  • DLNA defines a 2 Box Model and a 3 Box Model.
  • the two box model includes a digital media player (DMP) and a digital media server (DMS).
  • DMP digital media player
  • DMS digital media server
  • the TV 122 may perform a search process as described above.
  • Information such as IP address, UUID, CEC address, and CEC topology can be obtained.
  • the TV 122 confirms that the CEC topology information of the BDP 112 includes its CEC address "0.0.0.0/0", and assigns itself and a CEC address of "2.1.0.0/4". It can be appreciated that the BDP 112 is connected using the HDMI / CEC protocol.
  • FIG. 16 is a block diagram illustrating a configuration of a content transmission and reception system according to another embodiment of the present invention.
  • the illustrated network may include a plurality of source devices and sink devices connected through HDMI.
  • the phone 101 which is the control point CP, performs the above-described discovery process, and the plurality of devices constituting the network, BDP1 113, TV1 123, BDP2 114, and TV2 124, respectively.
  • the phone 101 which is the control point CP, performs the above-described discovery process, and the plurality of devices constituting the network, BDP1 113, TV1 123, BDP2 114, and TV2 124, respectively.
  • an IP address, UUID, CEC address, and CEC topology information as shown in FIG. 17 can be obtained.
  • only one of the HDMI source and the HDMI sink for example, BDP1 113 and BDP2 114 or TV1 123 and TV2 124 transmits the CEC topology information to the control point ( It may also report to Phone 101, which is a CP).
  • the CEC address and the CEC topology for each of the plurality of discovered devices may be configured only with a logical address assigned to the corresponding device.
  • control device 100 may request CEC address information on discovered UPnP devices by using an existing action defined in UPnP.
  • control device 100 may request CEC address information for UPnP devices using Browse / Search () or GetProtocolInfo (), which are actions defined in UPnP's ContentDirectory service and ConnectionManager service.
  • FIG. 23 is a ladder diagram for describing a second embodiment of a method for receiving CEC address information of UPnP devices.
  • the phone 101 which is a control point CP, calls a Browse / Search () or GetProtocolInfo () action (steps S310 and S311), and a protocol name in response to the action.
  • Protocol, network, and additional information are received from the BDP 111 and the TV 121 (steps S312 and S313).
  • the phone 101 which is the control point CP calls the Browse / Search () action to obtain res @ procotolInfo as the CDS property, or
  • the GetProtocolInfo () action can be called to report the values of SourceProtocolIno and SinkProtocolInfo state variables as output arguments.
  • the phone 101 which is the control point CP may call the GetProtocolInfo () action to receive the SourceProtocolIno and SinkProtocolInfo state variable values as output arguments.
  • ProtocolInfo and its values added for the HDMI protocol the protocol name is "HDMI”
  • the protocol is "hdmi”
  • the network contains the CEC address of the device
  • the contentFormat is standardized in HDMI It may include a name
  • additionalInfo may include CEC topology information.
  • the contentFormat may exist only for the media server MS, and a corresponding field may be filled when the media server MS can decode content to be played in an uncompressed file format defined in HDMI.
  • 25 and 26 illustrate an embodiment of a method for confirming an HDMI connection between a source device and a sink device, and specifically, an HDMI connection validation method performed in step S220 of FIG. 3. An example is shown.
  • the BDP1 113, the TV1 123, the BDP2 114, and the TV2 124 may be connected to each other through HDMI to form an independent HDMI network.
  • the BDP1 113 and the BDP2 114 may have the same CEC address, and the TV1 123 and the TV2 124 may have the same CEC address.
  • the control point The phone 101 may recognize that BDP1 113 and TV2 124 and BDP2 114 and TV1 123 that are not actually connected to each other are connected to each other via HDMI.
  • the phone 101 which is a control point CP, may perform a process of verifying the recognized HDMI connection again using CEC address information.
  • control device 100 transmits a connection confirmation request message to any one of an HDMI source and an HDMI sink recognized as being connected to each other through the CEC address information, and there is a response to the connection confirmation request message from the other In this case, it can be confirmed that the two devices are connected to each other through HDMI.
  • the control device 100 checks the HDMI connection between the UPnP devices by using the method described above, and then turns on / off the HDMI session between the HDMI source 110 and the HDMI sink 120. It can be managed.
  • the control device 100 which is a control point CP, sends an UPnP control message for turning on or off an HDMI session between the HDMI source 110 and the HDMI sink 120.
  • the CEC message corresponding to the transmitted UPnP control message is controlled to be transmitted and received through the HDMI connection between the HDMI source 110 and the HDMI sink 120, it is possible to manage the HDMI connection. .
  • 27 and 28 are diagrams for describing a first embodiment of a method of turning on an HDMI session between a source device and a sink device.
  • a SetHDMIMode () action and associated state variables may be newly defined as a UPnP control message for the control device 100 to turn on an HDMI session between the HDMI source 110 and the HDMI sink 120. have.
  • the control device 100 may request to turn on the HDMI session between the HDMI source 110 and the HDMI sink 120 by calling the SetHDMIMode () action.
  • the state variables of the SetHDMIMode () action may include CECAddress and HDMIMode, wherein the CECAddress represents a CEC address of an HDMI input device, and the HDMIMode may indicate whether the HDMI session is on or off. have.
  • control device 100 may include the CECAddress and HDMIMode state variable values as an input argument of the action.
  • the device receiving the SetHDMIMode () action among the HDMI source 110 and the HDMI sink 120 may transmit a CEC message (for example, ⁇ Active Source> and ⁇ Image View On>) to transfer to another device via HDMI.
  • a CEC message for example, ⁇ Active Source> and ⁇ Image View On>
  • the SetHDMIMode () action and its state variable values as described above are used for CEC message exchange between the HDMI source 110 and the HDMI sink 120, and the HDMI source 110 and the HDMI sink 120 by the CEC message exchange.
  • HDMI sessions may be turned on or off.
  • the phone 101 which is a control point CP, calls the SetHDMIMode () action to the BDP 111, which is an HDMI source (step S400), and the called SetHDMIMode () action is an input independent variable.
  • the CEC address of the TV 121 which is a HDMI sink, and a value (eg, '1') for turning on the HDMI session may be included as the CECAddress and HDMIMode state variable values.
  • the BDP 111 Upon receiving the SetHDMIMode () action, the BDP 111 checks the CECAddress and HDMIMode state variable values, and displays ⁇ Image View On> and ⁇ Active Source>, which are CEC messages for turning on an HDMI session with the TV 121. Transmission is sequentially performed to 121 (step S401, step S402).
  • 29 to 31 are diagrams for describing a second embodiment of a method of turning on an HDMI session between a source device and a sink device.
  • control device 100 is a UPnP control message for turning on an HDMI session between the HDMI source 110 and the HDMI sink 120, and the SetActiveSource () action and its associated state variables.
  • the SetImageViewMode () action and its associated state variables can be newly defined.
  • the control device 100 may request to turn on the HDMI session between the HDMI source 110 and the HDMI sink 120 by sequentially calling the SetImageViewMode () action and the SetActiveSource () action.
  • the state variable of the SetActiveSource () action may include a CECAddress and an ActiveSource, and the CECAddress may indicate a CEC address of an HDMI input device.
  • the ActiveSource state variable may have a value of "0" or “Inactive” string when the source is “not active”, and may have a value of "1" or “Active” string when “active”.
  • control device 100 may include the CECAddress and ActiveSource state variable values as an input argument of the action.
  • the device receiving the SetActiveSource () action among the HDMI source 110 and the HDMI sink 120 may convert the UPnP control message into a ⁇ Active Source> which is a CEC message and transmit the same to another device through HDMI.
  • the state variable of the SetImageViewMode () action may be composed of CECAddress and ImageViewMode, and the CECAddress may represent a CEC address of an HDMI input device.
  • the ImageViewMode state variable has a value of "0" or "ImageViewModeOff” string when the Image View mode is "off", and its value is designated as a default (dafqult), and when the Image View mode is "on” It can have a value of 1 "or” ImageViewModeOn "string.
  • control device 100 may include the CECAddress and ImageViewMode state variable values as input arguments of the action.
  • the device receiving the SetImageViewMode () action among the HDMI source 110 and the HDMI sink 120 may convert the corresponding UPnP control message into a ⁇ CE> message ⁇ Image View On> and transmit the same to another device through HDMI.
  • the control point (CP) Phone 101 calls the SetImageViewMode () action to the HDMI source BDP 111 (step S410), and the called SetImageViewMode () action is an input independent variable.
  • the CEC address of the TV 121 which is a HDMI sink, and a value indicating that the Image View mode is “on” (for example, a string of “1” or “ImageViewModeOn”) may be included as the CECAddress and ImageViewMode state variable values.
  • the BDP 111 Upon receiving the SetImageViewMode () action, the BDP 111 checks the CECAddress and ImageViewMode state variable values, and transmits a CEC message ⁇ Image View On> corresponding thereto to the TV 411 (step S411).
  • control point (CP) Phone 101 calls the SetActiveSource () action to the BDP 111 (step S412), and the called SetActiveSource () action is an input argument to the CEC address of the TV 121.
  • a value indicating "active” eg, a string of "1" or "Active" may be included as the CECAddress and ActiveSource state variable values.
  • the BDP 111 Upon receiving the SetImageViewMode () action, the BDP 111 checks the CECAddress and ActiveSource state variable values, and transmits a corresponding CEC message ⁇ Active Source> to the TV 411 (step S413).
  • the control device 100 may control content streaming from the HDMI source 110 to the HDMI sink 120 through the HDMI connection. Can be.
  • control device 100 may control content streaming from the HDMI source 110 to the HDMI sink 120 through the HDMI connection using the AVTransport service defined in UPnP.
  • control device 100 transmits a UPnP control message to the HDMI source 110 and the HDMI sink to perform a control operation such as play, stop, pause, or the like for content to be streamed.
  • a control operation such as play, stop, pause, or the like for content to be streamed.
  • One or more of 120 may be transmitted.
  • the device that receives the UPnP control message from the control device 100 among the HDMI source 110 and the HDMI sink 120 converts the received UPnP control message into a CEC message and converts the corresponding CEC message into an HDMI. To other connected devices.
  • the phone 101 as a control point CP transmits AVT actions for requesting an operation to be controlled to the BDP 111.
  • Deliver the UPnP control message (step S500).
  • the phone 101 may play back content in the BDP 111 and control the BDP 111 using the UPnP control protocol.
  • AVT actions for controlling the streaming of the HDMI content between the HDMI source 110 and the HDMI sink 120 may be the same as those defined in the UPnP standard, a detailed description thereof will be omitted.
  • the BDP 111 converts the received UPnP control message into a CEC message (step S501), and then transfers the converted CEC message to the TV 121 through an HDMI connection (step S502).
  • the BDP 111 may control the HDMI content streaming to the TV 121 using the CEC protocol.
  • the CEC message converted to correspond to the UPnP control message may be the same as the control message defined in the CEC protocol, a detailed description thereof will be omitted.
  • the phone 101 when AVT is implemented in the TV 121, which is an HDMI sink, the phone 101, which is a control point CP, transmits AVT actions for requesting an operation to be controlled to the TV 121.
  • the UPnP control message is transmitted (step S510).
  • the TV 121 converts the received UPnP control message into a CEC message (step S511), and then transfers the converted CEC message to the BDP 111 through an HDMI connection (step S512).
  • the TV 121 may control the HDMI content streaming from the BDP 111 using the CEC protocol.
  • control device 100 may perform a process of checking whether the content to be streamed through the HDMI protocol can be decoded for the UPnP devices discovered using the UPnP discovery protocol. have.
  • control device 100 may request the discovered devices, for example, the HDMI source 110 and the HDMI sink 120, to transmit information about a content format supported by the device.
  • 34 to 38 are diagrams for describing embodiments of a method of confirming whether content can be decoded by UPnP devices.
  • the control device 100 can support the decoding of the HDMI output device (eg, the HDMI source 110) by using the Browse / Search () action defined in the UPnP ContentDirectory service or the GetProtocolInfo () action defined in the ConnectionManager service. Information about the format can be obtained, and the defined protocols and the ProtocolInfo values associated with them are as shown in FIG. 34.
  • a “ContentFormat” is designated among ProtocolInfo values received from an HDMI source 110 having an HDMI output.
  • the value may include information about a content format that the device can decode.
  • control device 100 may obtain information about supportable decoding formats of discovered devices using the GetRendererItemInfo () action defined in the ConnectionManager service of UPnP.
  • GetRendererItemInfo () action defined in the ConnectionManager service of UPnP.
  • control device 100 which is a control point CP, calls the GetRendererItemInfo () action to request the provided item item metadata of the rendering device, so that the rendering device can stream the item to be streamed. You can check whether it can be played successfully.
  • the GetDecodingCapability () action and related state variables may be newly defined in order to determine whether the control device 100 can decode the content transmitted through the HDMI protocol.
  • the control device 100 may call the GetDecodingCapability () action to obtain information on whether the HDMI output device can decode the content to be streamed.
  • the state variables of the GetDecodingCapability () action may include ContentFormatProfile and DecodingCapability
  • the ContentFormatProfile represents a file format profile of target content to be streamed through the HDMI protocol
  • the DecodingCapability is a file designated by the corresponding device in the ContentFormatProfile. It may indicate whether the content having the format profile can be decoded.
  • the control device 100 calls the GetDecodingCapability () action including the ContentFormatProfile state variable value as an input argument
  • the device that called the GetDecodingCapability () action passes the DecodingCapability state variable value to the output argument of the action.
  • the controller 100 can inform the control apparatus 100 whether it can decode the target content.
  • a GetDecodingINCapability () action and a state variable associated with it may be newly defined.
  • the control device 100 may call the GetDecodingINCapability () action to obtain information on whether the HDMI output device can decode the content to be streamed.
  • the state variable of the GetDecodingINCapability () action may be DecodingINCapability
  • the DecodingINCapability may represent all input file formats that the corresponding device can decode.
  • the control device 100 calls the GetDecodingINCapability () action
  • the device that has called the GetDecodingINCapability () action controls all of the decodeable input file formats by passing the DecodingINCapability state variable value as an output independent variable of the action.
  • the device 100 may be informed.
  • the control device 100 may check the value of the DecodingINCapability state variable to determine whether the corresponding HDMI output device can decode the target content to be streamed through the HDMI protocol.
  • the GetTranformOUTCapability () action and related state variables may be newly defined in order to determine whether the control device 100 can decode the content transmitted through the HDMI protocol.
  • the control device 100 may call the GetTranformOUTCapability () action to obtain information about whether the HDMI output device can decode the content to be streamed.
  • the state variables of the GetTranformOUTCapability () action may include ContentFormatProfile and TransformCapability.
  • the ContentFormatProfile represents a file format profile of target content to be streamed through the HDMI protocol
  • the TransformCapability is a file designated by the corresponding device in the ContentFormatProfile. It may indicate whether the content having the format profile can be converted.
  • the control device 100 calls the GetTranformOUTCapability () action including the ContentFormatProfile state variable value as an input argument
  • the device that called the GetTranformOUTCapability () action passes the value of the TransformCapability state variable as an output independent variable of the action.
  • the controller 100 can inform the control apparatus 100 whether it can convert the target content.
  • the control device 100 receives and decodes the content from another media server MS, which is one of the UPnP devices discovered by the HDMI source 110 by the UPnP discovery protocol.
  • the decoded content may be controlled to be streamed to the HDMI sink 120 through the HDMI connection.
  • FIG. 39 when the content stored in a network attached storage (NAS) 131, which is a media server MS, is to be played on the TV 121, the phone 101, which is a control point CP, is illustrated in FIGS. 34 to 38.
  • the phone 101 which is a control point CP
  • FIGS. 34 to 38 By using the same method as described with reference to the NAS 131 and whether the content can be decoded for each of the BDP (111), which is a media server (MS) connected to the TV 121 through the HDMI.
  • the phone 101 transmits the content stored by the NAS 131 to the BDP 111.
  • the BDP 111 may control to decode the received content and transmit the decoded content to the TV 121 through HDMI so that relay streaming of the content is performed.
  • the phone 101 which is the control point CP is connected to the BDP 111 as described above.
  • Devices may be controlled such that relay streaming is performed.
  • control point CP does not have the corresponding content when the media server MS having the selected content item is not connected to the media renderer MR to be played through HDMI or the corresponding content item cannot be decoded.
  • a device capable of decoding the content can be found to relay and stream the content.
  • the HDMI source 110 as described with reference to Figures 2 to 39 is implemented to include a media server (MS) and a media renderer (MR, Media Renderer) defined in UPnP,
  • the HDMI sink 120 may be implemented to include a media renderer MR.
  • the HDMI source 110 may include a media server MS and a media renderer MR
  • the HDMI sink 120 may include a media renderer MR.
  • the control point CP 100 calls the Browse / Search () action to the media server MS of the HDMI source 110 (step S600), and then GETCECInfo () to the media renderer MR of the HDMI source 110.
  • the GetProtocolInfo () action is called to obtain CEC address information about the HDMI source 110 and information on whether content can be decoded (step S601), and the GETCECInfo () to the media renderer MR of the HDMI sink 120 or
  • the GetProtocolInfo () action is called to obtain CEC address information on the HDMI sink 120 and information on whether content can be decoded (step S602).
  • the control point CP 100 calls the PrepareForConnection () action to the media server MS and the media renderer MR of the HDMI source 110 (step S603), and the media renderer MR of the HDMI sink 120 to the media renderer MR.
  • the PrepareForConnection () action is called (step S604).
  • control point CP 100 transmits a UPnP control message for turning on an HDMI session between the HDMI source 110 and the HDMI sink 120 to the media renderer MR of the HDMI source 110.
  • the SetAVTansportURI () action and the Play () action are sequentially called (step S616, step S607).
  • the HDMI source 110 when the HDMI source 110 relays the content of the media server (MS) 130 and streams the content to the HDMI sink 120 through the HDMI connection, the HDMI source 110 may use the media renderer 110. May contain only.
  • control point CP 100 calls the browse / search () action to the media server MS 130 (step S610), and then the media renderer of the media server MS 130 and the HDMI source 110.
  • GETCECInfo () or GetProtocolInfo () actions are called on the MR and the media renderer MR of the HDMI sink 120 to obtain CEC address information and information on whether content can be decoded (steps S611 and S612).
  • the control point CP 100 calls the PrepareForConnection () action to the media server MS 130 and the media renderer MR of the HDMI source 110 (step S613), and the media renderer MR of the HDMI sink 120 is performed. Call the PrepareForConnection () action (step S614).
  • control point CP 100 transmits a UPnP control message for turning on an HDMI session between the HDMI source 110 and the HDMI sink 120 to the media renderer MR of the HDMI source 110.
  • the SetAVTansportURI () action and the Play () action is called in sequence (step S616, step S617).
  • FIG. 42 is a block diagram illustrating a configuration of a control device according to an embodiment of the present invention and illustrates a configuration of a portable terminal as an example of the control device 100 that may be used as a control point CP.
  • the control device 100 includes a wireless communication unit 710, an A / V input unit 720, a user input unit 730, a sensing unit 740, an output unit 750, and a memory. 760, an interface unit 770, a controller 780, a power supply unit 790, and the like.
  • the components shown in FIG. 42 are not essential, so that the control device 100 with more or less components may be implemented.
  • the wireless communication unit 710 may include one or more modules that enable wireless communication between the control device 100 and the wireless communication system or between the control device 100 and a network in which the control device 100 is located.
  • the wireless communication unit 710 may include one or more broadcast receiving modules 711, one or more mobile communication modules 712, one or more wireless Internet modules 713, one or more short-range communication modules 714, and one or more location information. Module 715 and the like.
  • the control device 100 may access the network through the communication module as described above.
  • the wireless communication unit 710 may transmit or receive the above-described message or device information through multicast or unicast under the control of the controller 780.
  • the collected device information is stored in the memory 760.
  • the broadcast receiving module 711 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal.
  • the broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
  • the broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider.
  • the broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 712.
  • the broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).
  • EPG Electronic Program Guide
  • DMB Digital Multimedia Broadcasting
  • ESG Electronic Service Guide
  • DVB-H Digital Video Broadcast-Handheld
  • the broadcast receiving module 711 may include, for example, Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Media Forward Link Only (MediaFLO), and Digital Video Broadcast (DVB-H).
  • Digital broadcast signals can be received using digital broadcasting systems such as Handheld and Integrated Services Digital Broadcast-Terrestrial (ISDB-T).
  • ISDB-T Handheld and Integrated Services Digital Broadcast-Terrestrial
  • the broadcast receiving module 711 may be configured to be suitable for not only the above-described digital broadcasting system but also other broadcasting systems.
  • the broadcast signal and / or broadcast related information received through the broadcast receiving module 711 may be stored in the memory 760.
  • the mobile communication module 712 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the wireless internet module 713 refers to a module for wireless internet access, and may be built in or external to the control device 100.
  • Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.
  • the short range communication module 714 refers to a module for short range communication.
  • Bluetooth Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • the location information module 715 is a module for obtaining a location of a terminal, and a representative example thereof is a GPS (Global Position System) module.
  • GPS Global Position System
  • the A / V input unit 720 is for inputting an audio signal or a video signal, and may include a camera 721 and a microphone 722.
  • the camera 721 processes image frames such as still images or moving images obtained by the image sensor in a video call mode or a photographing mode.
  • the processed image frame can be displayed on the display portion 751.
  • the image frame processed by the camera 721 may be stored in the memory 760 or transmitted to the outside through the wireless communication unit 710. Two or more cameras 721 may be provided according to a usage environment.
  • the microphone 722 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data.
  • the processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 712 and output in the call mode.
  • the microphone 722 may be implemented with various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
  • the user input unit 730 generates input data for the user to control the operation of the terminal.
  • the user input unit 730 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.
  • the sensing unit 740 detects and controls the current state of the control device 100 such as an open / closed state of the control device 100, a position of the control device 100, presence or absence of a user contact, orientation of the terminal, acceleration / deceleration of the terminal, and the like. Generates a sensing signal for controlling the operation of the device 100. For example, when the control device 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, whether the power supply unit 790 is supplied with power, whether the interface unit 770 is coupled to the external device may be sensed.
  • the sensing unit 740 may include a proximity sensor 741.
  • the output unit 750 is used to generate an output related to sight, hearing, or tactile sense, and includes a display unit 751, an audio output module 752, an alarm unit 753, and a haptic module 754. Can be.
  • the display unit 751 displays (outputs) information processed by the control device 100. For example, when the terminal is in a call mode, the terminal displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the control apparatus 100 is in a video call mode or a photographing mode, the controller 100 displays a photographed and / or received image, UI, or GUI.
  • UI user interface
  • GUI graphic user interface
  • the display unit 751 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). and at least one of a 3D display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display flexible display
  • Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display.
  • a representative example of the transparent display is TOLED (Transparant OLED).
  • the rear structure of the display portion 751 may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 751 of the terminal body.
  • Two or more display units 751 may exist according to the implementation form of the control apparatus 100.
  • a plurality of display units may be spaced apart or integrally disposed on one surface of the control device 100, or may be disposed on different surfaces.
  • the display unit 751 and a sensor for detecting a touch operation form a mutual layer structure (hereinafter, referred to as a touch screen)
  • the display unit 751 may be configured in addition to an output device.
  • the touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display 751 or capacitance generated at a specific portion of the display 751 into an electrical input signal.
  • the touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.
  • the corresponding signal (s) is sent to the touch controller.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 780.
  • the controller 780 may determine which area of the display 751 is touched.
  • the proximity sensor 741 may be disposed in an inner region of the terminal surrounded by the touch screen or near the touch screen.
  • the proximity sensor 741 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays.
  • Proximity sensor 741 has a longer life and higher utilization than a contact sensor.
  • Examples of the proximity sensor 741 include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer.
  • the touch screen may be classified as a proximity sensor.
  • the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch
  • the act of actually touching the pointer on the screen is called “contact touch.”
  • the position where the proximity touch is performed by the pointer on the touch screen refers to a position where the pointer is perpendicular to the touch screen when the pointer is in proximity proximity.
  • the proximity sensor detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state).
  • a proximity touch and a proximity touch pattern for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state.
  • Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.
  • the sound output module 752 may output audio data received from the wireless communication unit 710 or stored in the memory 760 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output module 752 may also output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the control device 100.
  • the sound output module 752 may include a receiver, a speaker, a buzzer, and the like.
  • the alarm unit 753 outputs a signal for notifying occurrence of an event of the control device 100. Examples of events occurring in the terminal include call signal reception, message reception, key signal input, and touch input.
  • the alarm unit 753 may output a signal for notifying occurrence of an event by vibration, in addition to a video signal or an audio signal.
  • the video signal or the audio signal may also be output through the display unit 751 or the audio output module 752, so that they 751 and 152 may be classified as part of the alarm unit 753.
  • the haptic module 754 generates various haptic effects that a user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 754.
  • the intensity and pattern of vibration generated by the haptic module 754 can be controlled. For example, different vibrations may be synthesized and output or may be sequentially output.
  • the haptic module 754 may be configured to provide a pin array that vertically moves with respect to the contact skin surface, a jetting force or suction force of air through the jetting or suction port, grazing to the skin surface, contact of the electrode, electrostatic force, and the like.
  • Various tactile effects can be generated, such as effects by the endothermic and the reproduction of a sense of cold using the elements capable of endotherm or heat generation.
  • the haptic module 754 may not only deliver the haptic effect through direct contact, but may also be implemented to allow the user to feel the haptic effect through a muscle sense such as a finger or an arm.
  • the haptic module 754 may be provided in two or more according to the configuration aspect of the terminal.
  • the memory 760 may store a program for the operation of the controller 780, and may temporarily store input / output data (eg, a phone book, a message, a still image, a video, etc.).
  • the memory 760 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.
  • the memory 760 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk.
  • the control device 100 may operate in association with a web storage that performs a storage function of the memory 760 on the Internet.
  • the interface unit 770 serves as a path to all external devices connected to the control device 100.
  • the interface unit 770 receives data from an external device, receives power, transfers the power to each component inside the control device 100, or transmits data inside the control device 100 to an external device.
  • wired / wireless headset ports, external charger ports, wired / wireless data ports, memory card ports, ports for connecting devices with identification modules, audio input / output (I / O) ports, The video input / output (I / O) port, the earphone port, and the like may be included in the interface unit 770.
  • the identification module is a chip that stores various information for authenticating the use authority of the control device 100, and includes a user identification module (UIM), a subscriber identity module (SIM), and a universal user authentication module (SIM). Universal Subscriber Identity Module (USIM), and the like.
  • a device equipped with an identification module (hereinafter referred to as an 'identification device') may be manufactured in the form of a smart card. Therefore, the identification device can be connected to the terminal through the port.
  • the interface unit may be a passage through which power from the cradle is supplied to the terminal when the terminal is connected to an external cradle, or a passage through which various command signals input from the cradle by a user are transmitted to the terminal.
  • Various command signals or power input from the cradle may be operated as signals for recognizing that the terminal is correctly mounted in the cradle.
  • the controller 180 typically controls the overall operation of the terminal. For example, perform related control and processing for voice calls, data communications, video calls, and the like.
  • the controller 780 may include a multimedia module 781 for playing multimedia.
  • the multimedia module 781 may be implemented in the controller 780 or may be implemented separately from the controller 780.
  • the controller 780 may perform the determination and determination as described with reference to FIGS. 1 to 41, and specifically, the controller 780 controls the wireless communication unit 710. Steps described with reference to FIGS. 1 through 42 may be performed.
  • the wireless communication unit 710 receives CEC address information from at least one of the UPnP devices discovered by the UPnP discovery protocol, and the controller 780 uses the received CEC address information to discover the discovered UPnP devices.
  • the controller 780 uses the received CEC address information to discover the discovered UPnP devices.
  • an HDMI connection between the source device and the sink device may be checked, and content may be controlled to be streamed through the HDMI connection between the source device and the sink device.
  • controller 780 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as text and an image, respectively.
  • the power supply unit 790 receives an external power source and an internal power source under the control of the controller 780 to supply power for operation of each component.
  • the controlled device for example, the HDMI source 110 and the HDMI sink 120, will also be described with reference to FIG. It may have a configuration as shown.
  • control device 100 which is a control point CP may determine an interface for transmitting and receiving content among a plurality of interfaces, and the operation as described with reference to FIGS. 1 to 41.
  • the interface may be determined using the information obtained through.
  • the control device 100 when the content existing in the HDMI source 110 is to be streamed to the HDMI sink 120, the control device 100 will stream the content using an IP-based interface such as WiFi defined by the existing UPnP. Or, may determine whether to stream the content via HDMI.
  • IP-based interface such as WiFi defined by the existing UPnP.
  • the control device 100 is connected between the HDMI source 110 and the HDMI sink 120 to obtain information about one or more interfaces available for content streaming. And select one of the available interfaces from the user and determine the interface to stream the corresponding content.
  • the selected content is displayed on the display screen 800 of the control device 100. It may display a list of interfaces available for streaming.
  • the list of available interfaces is the HDMI source 110 and HDMI confirmed through the information obtained by the control device 100, for example, CEC address information by the method described with reference to Figures 1 to 41 It may be generated based on whether the HDMI is connected between the sinks 120 and whether the HDMI source 110 and the target content of the HDMI sink 120 are decodable.
  • IP-based Both WiFi and non-IP based HDMI may be available as an interface for streaming the content.
  • the user selects any one of the interface list displayed on the screen 800 of the control device 100, and the content in the BDP 111 is transmitted to the TV 121 through the selected interface, thereby transmitting the TV 121. Can be played on.
  • the user checks and selects “HDMI” among the available interfaces displayed on the screen 800 by checking a selection box 802 corresponding to one of the selection boxes 801 and 802, and then selects an OK button 811.
  • the content in the BDP 111 can be streamed to the TV 121 through the HDMI connection.
  • control device 100 may select one of the available interfaces displayed on the screen 800 according to a preset criterion.
  • HDMI may have a higher priority than the IP-based interface defined in the existing UPnP, such as WiFi.
  • control device 100 may determine an interface for transmitting and receiving the content according to a bandwidth saving policy according to the network bandwidth of the IP-based interface.
  • the control device 100 transmits the HDMI to the content streaming. Can be selected as the interface for.
  • control device 100 may determine an interface for transmitting and receiving the content by a hop saving policy according to the number of hops required for streaming the content.
  • the control device 100 may select WiFi as an interface for the content streaming.
  • control device 100 may determine an interface for transmitting and receiving the content according to whether or not the target content of each of the devices discovered by the UPnP discovery protocol is decodable.
  • the TV 121 which is an HDMI sink to reproduce content, does not have an appropriate codec to decode the content
  • the BDP 111 which is an HDMI source, decodes the content. If it has an appropriate codec to do, Phone 101, which is a control point (CP), can select HDMI as the interface for streaming the content.
  • CP control point
  • the phone 101 may turn on the HDMI session between the BDP 111 and the TV 121 using the UPnP control messages as described above, and then control the BDP 111 to play the content. .
  • the BDP 111 cannot transmit the decoded content to the TV 121 through the IP-based interface such as WiFi, the screen 800 of the control device 100 as shown in FIG. 46.
  • the list of available interfaces provided to the user via C) may include only HDMI.
  • the TV 121 which is an HDMI sink to play content
  • the BDP 111 which is an HDMI source
  • the phone 101 which is a control point CP, may select an IP-based interface such as WiFi as an interface for streaming the content.
  • the BDP 111 since the BDP 111 cannot decode the content and transmit the content to the TV 121 through the HDMI, as shown in FIG. 47, the BDP 111 may transmit the content to the user through the screen 800 of the control device 100.
  • the list of available interfaces provided may include only IP based interfaces such as WiFi.
  • the phone 101 which is a control point (CP)
  • CP control point
  • a pop-up window (notifying the user that the content of the BDP 111 selected by the user cannot be played on the TV 121 through the screen 800 of the control device 100) is displayed.
  • pop-up window 821).
  • a media server MS having an appropriate codec for the user to decode the target content is additionally connected to a network, so that the content is connected to the new. It may be relayed through the media server MS to be streamed to the TV 121.
  • both TV1 123 which is an HDMI sink to play content
  • BDP1 113 which is an HDMI source having content to stream
  • the phone 101 which is a control point CP relays the content of the BDP1 113 through the BDP2 114 to the TV 121. Can be determined to play at
  • the phone 101 turns on the HDMI session between the BDP2 114 and the TV1 123 using the UPnP control messages as described above, and then plays the contents of the BDP1 113 in the BDP2 114. Can be controlled.
  • the streaming route determination method may also be available for the control device 100 to perform a function of the media server MS to transmit content present in the control device 100 to the TV 121 for streaming.
  • Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.
  • the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. These may be implemented by the controller 780.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • control method may be stored in a computer-readable recording medium that is produced as a program for execution on a computer
  • examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic Tapes, floppy disks, optical data storage, and the like, and also include those implemented in the form of carrier waves (eg, transmission over the Internet).
  • the computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. And functional programs, codes and code segments for implementing the method can be easily deduced by programmers in the art to which the present invention belongs.

Abstract

본 발명은 UPnP 장치들 사이의 콘텐트 송수신을 제어하는 방법 및 장치에 관한 것으로, 그 제어 방법은 복수의 UPnP 장치들을 탐색하는 단계; 탐색된 UPnP 장치들 중 적어도 하나로부터 UPnP 장치의 CEC 주소 및 HDMI를 통해 연결된 장치의 CEC 주소를 수신하는 단계; 수신된 CEC 주소들을 이용하여 탐색된 UPnP 장치들 중 소스 장치와 싱크 장치 사이의 HDMI 연결을 확인하는 단계; 및 소스 장치와 싱크 장치 사이의 HDMI 연결을 통해 콘텐트가 스트리밍되도록 제어하는 단계를 포함한다.

Description

콘텐트 송수신 제어 방법 및 장치
본 발명은 UPnP(Universal Plug and Play) 장치들 사이의 AV 콘텐트 송수신을 제어하는 방법에 관한 것이다.
범용 플러그 앤 플레이 (universal plug and play, UPnP) 기술과 디지털 리빙 네트워크 얼라이언스(digital living network alliance, DLNA) 기술은 다양한 제조업체의 가전 기기간 서비스와 제어를 가능하게 한다. 특히, UPnP 기술과 DLNA 기술은 시청각(audio-visual, AV) 기기 간 호환 가능한 AV 서비스와 제어를 가능하게 한다. 이 호환 가능한 AV 서비스로는 미디어 스트리밍, 업로딩, 다운로딩 등이 있다.
DLNA는 홈 네트워크 장치로서 디지털 미디어 서버(digital media server, DMS), 디지털 미디어 플레이어(digital media player, DMP), 디지털 미디어 렌더러(digital media renderer, DMR), 디지털 미디어 컨트롤러(digital media controller, DMC) 및 디지털 미디어 프린터(digital media printer, DMPr)를 규정하고, 모바일 휴대 장치로서 모바일 디지털 미디어 서버(mobile digital media server, M-DMS), 모바일 디지털 미디어 플레이어(mobile digital media player, M-DMP), 모바일 디지털 미디어 업로더(mobile digital media uploader, M-DMU), 모바일 디지털 미디어 다운로더(mobile digital media downloader, M-DMD) 및 모바일 디지털 미디어 컨트롤러(mobile digital media controller, M-DMC)를 규정한다.
UPnP는 이러한 장치들을 제어 포인트(control point, CP) 장치와 제어 타겟 장치로 분류한다. 디지털 미디어 컨트롤러(DMC), 디지털 미디어 플레이어(DMP)는 제어 포인트 장치로 분류되고, 디지털 미디어 렌더러(DMR), 디지털 미디어 서버(DMS), DMPr는 제어 타겟 장치로 분류될 수 있다.
본 발명은 UPnP 장치들 사이에서 AV 콘텐트 효율적으로 서비스할 수 있도록 하는 콘텐트 송수신 제어 방법 및 그를 이용한 제어 장치를 제공하기 위한 것이다.
상기와 같은 목적을 달성하기 위한 본 발명의 실시예에 따른 방송 서비스 수콘텐트 송수신 제어 방법은 UPnP(Universal Plug and Play) 장치들 사이의 콘텐트 송수신을 제어하며, 복수의 UPnP 장치들을 탐색하는 단계; 상기 탐색된 UPnP 장치들 중 적어도 하나로부터, 상기 UPnP 장치의 CEC(Consumer Electronics Control) 주소 및 HDMI(High Definition Multimedia Interface)를 통해 상기 UPnP 장치와 연결된 장치의 CEC 주소를 수신하는 단계; 상기 수신된 CEC 주소들을 이용하여, 상기 탐색된 UPnP 장치들 중 소스 장치와 싱크 장치 사이의 HDMI 연결을 확인하는 단계; 및 상기 소스 장치와 싱크 장치 사이의 HDMI 연결을 통해 콘텐트가 스트리밍되도록 제어하는 단계를 포함한다.
또한, 상기와 같은 목적을 달성하기 위한 본 발명의 실시예에 따른 제어 장치는, 탐색된 UPnP 장치들 중 적어도 하나로부터 CEC 주소 정보를 수신하는 통신부; 및 상기 수신된 CEC 주소 정보를 이용하여 상기 탐색된 UPnP 장치들 중 소스 장치와 싱크 장치 사이의 HDMI 연결을 확인하고, 상기 소스 장치와 싱크 장치 사이의 HDMI 연결을 통해 콘텐트가 스트리밍되도록 제어하는 제어부를 포함하고, 상기 CEC 주소 정보는 상기 UPnP 장치의 CEC 주소 및 HDMI를 통해 상기 UPnP 장치와 연결된 장치의 CEC 주소를 포함한다.
본 발명의 일 실시예에 따르면, UPnP 장치들 사이에서 HDMI 인터페이스를 이용한 콘텐트의 송수신이 가능하도록 함으로써, AV 서비스를 효율적으로 제공할 수 있으며, 그와 함께 네트워크 상태에 따른 적응적인 콘텐트 스트리밍이 가능하도록 할 수 있다.
도 1은 UPnP 네트워크의 구성에 대한 일실시예를 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 콘텐트 송수신 시스템의 구성을 간략하게 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 콘텐트 송수신 제어 방법을 나타내는 흐름도이다.
도 4는 UPnP 장치들의 CEC 주소 정보를 수신하는 방법에 대한 제1 실시예를 설명하기 위한 래더 다이어그램이다.
도 5는 CEC 주소 정보를 요청하기 위해 정의되는 액션(action)에 대한 일실시예를 나타내는 도면이다.
도 6 내지 도 13은 제어 장치(CP)에 의해 탐색되는 장치 정보에 대한 실시예들을 나타내는 도면들이다.
도 14는 본 발명의 다른 실시예에 따른 콘텐트 송수신 시스템의 구성을 간략하게 나타내는 블록도이다.
도 15는 도 14에 도시된 2 박스(box) 모델의 경우 제어 장치(CP)에 의해 탐색되는 장치 정보에 대한 일실시예를 나타내는 도면이다.
도 16은 본 발명의 또 다른 실시예에 따른 콘텐트 송수신 시스템의 구성을 간략하게 나타내는 블록도이다.
도 17 내지 도 22는 도 14에 도시된 시스템의 경우 제어 장치(CP)에 의해 탐색되는 장치 정보에 대한 일실시예들을 나타내는 도면들이다.
도 23은 UPnP 장치들의 CEC 주소 정보를 수신하는 방법에 대한 제2 실시예를 설명하기 위한 래더 다이어그램이다.
도 24는 제어 장치(CP)로 수신되는 프로토콜 정보에 대한 일실시예를 나타내는 도면이다.
도 25 및 도 26은 소스 장치와 싱크 장치 사이의 HDMI 연결을 확인하는 방법에 대한 일실시예를 설명하기 위한 도면들이다.
도 27 및 도 28은 소스 장치와 싱크 장치 사이의 HDMI 세션(session)을 온시키는 방법에 대한 제1 실시예를 설명하기 위한 도면들이다.
도 29 내지 도 31은 소스 장치와 싱크 장치 사이의 HDMI 세션을 온시키는 방법에 대한 제2 실시예를 설명하기 위한 도면들이다.
도 32는 HDMI 연결을 통한 콘텐트 스트리밍을 제어하는 방법에 대한 제1 실시예를 설명하기 위한 래더 다이어그램이다.
도 33은 HDMI 연결을 통한 콘텐트 스트리밍을 제어하는 방법에 대한 제2 실시예를 설명하기 위한 래더 다이어그램이다.
도 34 내지 도 38은 UPnP 장치들의 콘텐트 디코딩 가능 여부를 확인하는 방법에 대한 실시예들을 설명하기 위한 도면들이다.
도 39는 콘텐트 스트리밍을 릴레이(relay)하는 방법에 대한 일실시예를 설명하기 위한 블록도이다.
도 40 및 도 41은 소스 장치의 구성에 대한 실시예들을 설명하기 위한 블록도들이다.
도 42는 본 발명의 일실시예에 따른 제어 장치의 구성을 나타내는 블록도이다.
도 43 내지 도 51은 콘텐트를 송수신할 인터페이스를 결정하는 방법에 대한 실시예들을 설명하기 위한 도면들이다.
이하의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.
도 1은 UPnP 네트워크의 구성에 대한 일실시예를 블록도로 도시한 것이다.
UPnP(Universal Plug and Play)는 TCP/IP, HTTP 및 XML과 같은 인터넷 표준 기술을 기반으로 전체 네트워크로까지 확장시켜 여러 가전 제품, 네트워크 프린터, 인터넷 게이트와 같은 네트워크 디바이스가 네트워킹 특히, 홈네트워킹이 가능하도록 하는 기술이다.
상기 UPnP 네트워크는 복수의 UPnP 장치들, 서비스(service) 및 컨트롤 포인트(CP, Control Point)를 기본으로 하여 구성될 수 있다.
상기의 서비스(service)라 함은 네트워크 상의 가장 작은 소규모 제어단위를 의미하는데, 상태 변수를 통하여 서비스 자체를 모델링하게 된다.
상기 컨트롤 포인트(CP)는 다른 장치들을 감지하고 제어하는 기능을 갖춘 제어 장치를 의미하며, 그에 따라 사용자는 상기 컨트롤 포인트(CP)가 제공하는 인터페이스를 통해 각종 디바이스들을 찾아(discovery) 명세 정보(description)를 알아내고, 제어(control)하는 것이 가능할 수 있다.
도 1을 참조하면, 본 발명의 일실시예에 따른 UPnP 네트워크는 홈 네트워크에 미디어 데이터를 제공하는 미디어 서버(Media Server, 20), 홈 네트워크를 통해 미디어 데이터를 재생하는 미디어 렌더러(Media Render, 30) 및 상기 미디어 서버(20)와 미디어 렌더러(30)를 제어하는 컨트롤 포인트(Control Point, 10)를 포함하여 구성될 수 있다.
컨트롤 포인트(10)는 미디어 서버(20)와 미디어 렌더러(30)의 상태를 이벤트(event)를 통해 알수 있다.
구체적으로, AVTransport와 Rendering Control는, 변경된 state variable을 LastChang라는 state variable에 넣고 일정 시간이 지나면 컨트롤 포인트(10)에게 알려주어 현재 디바이스의 상태를 알려주는 역할을 한다.
또한, 미디어 서버(20)는 UPnP 액션(action)이 있을 때마다 콘텐트(content)에 대한 정보를 알릴 수 있으며, 콘텐트의 재생을 위해 미디어 서버(20)와 미디어 렌더러(30) 간에는 스트리밍(streaming) 방식으로 콘텐트를 전송하여 해당 콘텐트가 재생되도록 한다.
상기 콘텐트 스트리밍은 다양한 스트리밍 방식을 이용하여 수행될 수 있으며, UPnP AV 표준에서는 상기 콘텐트 스트리밍을 위해 스트리밍 방식을 별도로 규정하지 않고 Out-of-Band transfer protocol을 이용한다.
예를 들어, 콘텐트 전송을 위해 RTP를 사용하는 경우 RTCP를 이용해 미디어 데이터의 전송 상태를 감시할 수 있으며, 이를 바탕으로 전송 파라미터(parameter)를 조정할 수 있다.
상기 UPnP AV 메커니즘에 대해서 보다 상세히 설명하면, 컨트롤 포인트(10)는 표준화된 SOAP(Simple Object Access Protocol) 기반으로 제공되는 UPnP 액션을 호출함으로써 미디어 서버(20)와 미디어 렌더러(30)를 제어할 수 있다.
또한, 컨트롤 포인트(10)는 UPnP 장치가 제공하는 이벤트 서비스에 가입하여 디바이스의 상태 정보 변화를 보고 받을 수 있다.
미디어 서버(20)는 서버가 관리하는 미디어 데이터를 탐색하는 서비스를 제공하는 ContentDirectory 서비스, 미디어 서버(20)와 미디어 렌더러(30) 사이의 스트리밍을 위한 연결을 관리하는 ConnectionManager 서비스, 미디어에 대한 재생(Play), 중지(Stop)와 같은 컨트롤을 제공하는 AVTransport 서비스를 제공할 수 있다.
한편, 미디어 렌더러(30)는 화면의 밝기, 명도를 제어하는 RenderingControl 서비스, ConnectionManager 서비스 및 AVTransport 서비스(133)를 제공할 수 있다.
그에 따라, 컨트롤 포인트(10)는 탐색된 미디어 서버(20)와 미디어 렌더러(30)에 대해 ContentDirectory 서비스를 이용하여 서버의 미디어 파일 정보를 알아내고, 상기 정보를 바탕으로 ConnectionManger 서비스를 통해 미디어 서버(20)와 미디어 렌더러(30) 간에 콘텐트 송수신을 위한 연결을 맺으며, AVTransport 서비스를 이용하여 해당 콘텐트를 재생(play)시킬 수 있다.
컨트롤 포인트(10)는 미디어 서버(20)의 콘텐트의 변경 또는 현재 콘텐트 스트림의 상태 변화 등에 대한 정보를 각 서비스가 제공하는 이벤트에 가입함으로써 모니터링 할 수 있다.
또한, 상기한 바와 같은 UPnP 네트워크를 구성하는 장치들은 UPnP 미들웨어를 구비하며, 상기 UPnP 미들웨어는 어드레싱(Addressing), 탐색(Discovery), 디스크립션(Description), 컨트롤(Control), 이벤팅(Eventing) 및 프레젠테이션(Presentation) 과정을 포함하는 네트워킹 기능을 지원할 수 있다.
상기 어드레싱 과정은 UPnP 장치들이 UPnP 네트워크에 처음 접속할 때, DHCP(Dynamic Host Configuration Protocol) 서버를 검색하여 서버로부터 IP(Internet Protocol) 주소 및 포트를 할당받거나, 상기 DHCP 서버가 운영되지 않는 경우 자동 IP 지정 기능(Auto IP)에 의해 일정 범위 내에서 IP 주소 및 포트를 자동으로 선택하여 획득하는 과정을 말한다.
이 경우, 서로 다른 UPnP 장치들은 상기 어드레싱 과정을 통해 각각 서로 다른 IP 주소 및 포트를 획득하며, 하나의 SBC(Single Board Computer)를 구성하는 UPnP 장치들은 상기 어드레싱 과정을 통해 각각 동일한 IP 주소를 획득하되 서로 다른 포트를 획득할 수 있다.
상기한 바와 같이 DHCP 서버에 의하여 할당되거나 Auto IP에 의해 선택된 IP 주소 및 포트를 사용하는 UPnP 장치들은 TCP(Transmission Control Protocol)/IP을 통해 네트워크상의 다른 장치들과 통신하며, IP 주소를 이용하여 네트워크상에서 다른 장치들을 검색 및 조회할 수 있다.
상기 탐색 과정은 UPnP 장치(예를 들어, 미디어 서버(20) 또는 미디어 렌더러(30))가 UPnP 네트워크에 처음 접속하여 UPnP 네트워크상에서 동작하는 다른 장치들에게 자신을 알리는 애드버타이징(advertising) 단계와, 제어 장치(예를 들어, 컨트롤 포인트(10))가 UPnP 네트워크에 처음 접속하여 UPnP 네트워크상에서 동작하는 UPnP 장치들을 검색하는 검색(searching) 단계로 구분할 수 있다.
상기 애드버타이징 단계에서는, UPnP 네트워크에 처음 접속하여 어드레싱 과정을 통해 소정의 IP 주소 및 포트를 획득한 UPnP 장치들이 네트워크상에 먼저 접속되어 있는 장치들에게 자신을 알리는 애드버타이징 메시지를 멀티캐스트(Multicast)하여 자신의 접속을 알릴 수 있다.
그 후, 상기 애드버타이징 메시지 수신한 컨트롤 포인트(10)는 해당 UPnP 장치의 IP 주소 및 포트를 등록 제어 대상으로 등록할 수 있다.
한편, 상기 검색 단계에서는, UPnP 네트워크상에 처음 접속된 제어 장치, 즉 컨트롤 포인트(10)가 상기 어드레싱 과정을 통해 소정의 IP 주소 및 포트를 획득하고, 네트워크상에서 동작하는 UPnP 장치들을 확인하기 위해 SSDP(Simple Service Discovery Protocol)을 이용하여 검색 메시지를 멀티캐스트할 수 있다.
그에 따라, 상기 검색 메시지를 수신한 UPnP 장치들은 응답 메시지를 컨트롤 포인트(10)로 유니캐스트(Unicast)하며, 컨트롤 포인트(10)는 상기 응답 메시지를 유니캐스트한 UPnP 장치의 IP 주소 및 포트를 등록할 수 있다.
상기 디스크립션 과정은 컨트롤 포인트(10)가 UPnP 장치에서 제공하는 서비스를 인식하기 위해 애드버타이징 단계에서 등록된 IP 주소를 통해 UPnP 장치로 기기 명세 파일(예를 들어, 서비스 디스크립션 XML 파일 또는 디바이스 디스크립션 XML 파일)을 요청하여 제공받는 과정이다.
또한, 상기 컨트롤 과정은 컨트롤 포인트(10)가 상기 디스크립션 과정을 통해 획득한 기기 명세 파일을 분석하여 UPnP 장치에서 제공하는 서비스를 인식한 후, 해당 장치에서 제공하는 서비스의 실행을 요청하는 제어 명령 메시지를 전송하고 그에 대한 응답 메시지를 수신하여 UPnP 장치를 제어하는 과정을 말한다.
여기서, 상기 제어 명령 메시지 및 제어 응답 메시지는 제어 관련 데이터로서, SOAP(Simple Object Access Protocol)를 이용하여 XML로 표현될 수 있다.
상기 이벤팅 과정은 컨트롤 포인트(10)로부터 전달되는 제어 명령 메시지에 의해 소정의 서비스를 제공한 UPnP 장치의 이벤트 발생 여부, 예를 들어 상태 변화 여부를 확인하는 과정을 말한다.
이 경우, UPnP 장치의 상태 변화를 확인하기 위해 컨트롤 포인트(10)가 서브스크립션을 요청하는 메시지를 해당 장치로 전송하면, 해당 장치는 상태 변화를 알리기 위해 GENA(General Event Notification Architecture)를 이용하여 텍스트 형태의 이벤트 메시지를 컨트롤 포인트(10)로 전송할 수 있다.
한편, 상기 프레젠테이션 과정은 컨트롤 포인트(10)에서 UPnP 장치의 HTML 페이지를 읽어들이는 과정이며, 상기 HTML 페이지는 기기를 제어할 수 있는 사용자 인터페이스를 제공하여 제어되는 기기의 상태를 보여줄 수 있다.
한편, 컨트롤 포인트(10), 미디어 서버(20) 및 미디어 렌더러(30)는 “Ethernet”, “USB”, “802.11”, “HSDPA”, “HomePNA”, “HomePlug”, “MoCA”, “G.hn” 또는 “UPA”등과 같은 IP 기반의 인터페이스를 통해 데이터를 송수신할 수 있으며, 그에 따라 도 1에서는 생략되었으나 상기 IP 기반 인터페이스를 위한 AP(Access Point) 또는 중계기 등이 더 구비될 수 있다.
도 1를 참조하여 상기에서 설명한 UPnP 네트워크의 구성은 본 발명의 일실시예에 불과하므로, 본 발명은 이에 한정되지 아니한다.
본 발명의 일실시예에 따르면, UPnP 장치들, 예를 들어 미디어 서버(20)와 미디어 렌더러(30)는 HDMI(High Definition Multimedia Interface)를 이용하여 서로 연결될 수 있다.
도 2는 본 발명의 일 실시예에 따른 콘텐트 송수신 시스템의 간략한 구성을 블록도로 도시한 것으로, 도시된 시스템은 HDMI를 통해 연결된 소스 장치(source device)와 싱크 장치(sink device)를 포함할 수 있다. 이하의 블록도들에서는, HDMI를 통한 데이터의 송수신은 실선으로 나타내고, IP 기반 인터페이스를 통한 데이터의 송수신은 실선으로 나타내기로 한다.
HDMI(High Definition Multimedia Interface)는 PC를 모니터에 연결하기 위한 표준인 DVI(Digital Video Interactive)에 기반을 둔 디지털 인터페이스로 해상도가 매우 높은 영상과 음향을 송수신 받을 수 있도록 한 규격이다.
이러한 HDMI는 TMDS(Transition Minimized Differential Signaling), DDC(Display Data Channel) 및 CEC(Consumer Electronics Control)와 같은 3개의 독립적인 채널이 하나의 물리적인 케이블로 구성되며, 이를 통해 AV 데이터, 기기 정보 및 제어 명령 등을 송수신할 수 있다.
도 2를 참조하면, 소스 장치인 HDMI 소스(110)는 HDMI 케이블을 통해 AV 데이터를 송신하는 기기이며, 싱크 장치인 HDMI 싱크(120)는 HDMI 케이블을 통해 연결되어 있는 장치들 중 AV 데이터를 수신하는 링크(link)의 최상단에 위치하는 장치를 의미할 수 있다.
한편, HDMI CEC 통신을 수행하기 위해서는 모든 장치들이 유효한 CEC 주소(address), 즉 물리 주소(physical address)와 논리 주소(logical address)를 갖고 있어야 한다.
상기 논리 주소는 주위 장치들을 핑(ping)함으로써 할당되고, 상기 물리 주소는 HDMI HPD(HDMI Hot Plug Detection)를 수행함으로써 할당될 수 잇다.
예를 들어, 루트(root) 장치인 티브이 시스템은 '0.0.0.0'의 물리 주소를 가지고, 나머지 소스 장치는 DDC(Display Data Channel) 통신을 통해 싱크 장치의 EDID(Extended Display Identification Data) 롬(ROM)으로부터 물리 주소를 읽어 획득할 수 있다. 상기 DDC 통신은 소스 장치가 인가하는 +5V 전원 신호가 싱크 장치부터 피드백되어 HPD 라인으로 인가될 때만 이루어질 수 있다.
즉, HDMI 소스(110)가 HDMI 싱크(120)로부터 HPD 신호를 받으면 HDMI 싱크(110)와 HDMI 연결이 되었음을 인식하고, HDMI 싱크(120)의 EDID 정보를 읽어와 그를 이용하여 물리 주소를 할당받을 수 있다.
한편, HDMI 소스(110)는 HDMI CEC 규격에서 정의한 논리 주소 탐색(logical address discovery) 과정을 수행하여 논리 주소를 할당받을 수 있다.
제어 장치(100)는 도 1을 참조하여 설명한 바와 같은 컨트롤 포인트(CP)의 기능을 수행하는 장치로서, HDMI 소스(110)와 HDMI 싱크(120)를 감지하고 제어할 수 있다.
즉, HDMI 소스(110)와 HDMI 싱크(120)는, 제어 장치(100)의 제어를 받아, UPnP에서 정의하는 “Ethernet”, “USB”, “802.11”, “HSDPA”, “HomePNA”, “HomePlug”, “MoCA”, “G.hn” 또는 “UPA”등과 같은 IP 기반의 인터페이스를 통해 콘텐트를 송수신하거나, 또는 HDMI를 통해 콘텐트를 송수신할 수 있다.
여기서, 콘텐트를 가지는 장치는 UPnP 미디어 서버(MS) 또는 DLNA DMS(Digital Media Server)로 정의되고, HDMI 출력을 가지는 HDMI 소스(110)는 UPnP 미디어 렌더러(MR) 또는 DLNA DMR(Digital Media Renderer)로 정의되며 구체적으로는 UPnP "Decoding" 미디어 렌더러(MR) 또는 DLNA "Decoding" DMR로 정의될 수 있으며, HDMI 입력을 가지는 HDMI 싱크(120)는 UPnP 미디어 렌더러(MR) 또는 DLNA DMR로 정의되며 구체적으로는 UPnP "Displaying" 미디어 렌더러(MR) 또는 DLNA "Displaying" DMR로 정의될 수 있다.
도 3은 본 발명의 일 실시예에 따른 콘텐트 송수신 제어 방법을 흐름도로 도시한 것으로, 도시된 제어 방법을 도 2에 도시된 블록도와 결부시켜 설명하기로 한다.
도 3을 참조하면, 제어 장치(100)는 복수의 UPnP 장치들을 탐색하고(S200 단계), 상기 탐색된 UPnP 장치들로부터 CEC 주소 정보를 수신한다(S210 단계).
예를 들어, UPnP/DLNA 네트워크에 접속된 HDMI 소스(110)와 HDMI 싱크(120)는 도 1을 참조하여 설명한 바와 같은 탐색(discovery) 과정에 따라 제어 장치(100)에 의해 자동으로 탐색될 수 있다.
한편, 상기 탐색된 장치들은 IP 주소와 UUID(Universally Unique ID)를 이용하여 서로 연결 또는 구분될 수 있으며, 그에 따라 제어 장치(100)는 IP 주소와 UUID를 이용하여 상기 IP 기반 인터페이스에 따른 네트워크의 맵(map) 및 토폴로지(topology)를 파악할 수 있다.
또한, HDMI를 통해 연결된 HDMI 소스(110)와 HDMI 싱크(120)는 도 2를 참조하여 설명한 바와 같이 자동으로 탐색(discovery)되어 CEC 주소, 즉 물리 주소 및 논리 주소가 할당될 수 있다.
상기 S210 단계에서, 제어 장치(100)는 UPnP 탐색 프로토콜을 통해 탐색된 모든 UPnP 장치들 각각에 대해, CEC 주소 정보의 전송을 요청하는 UPnP 메시지를 각 장치의 IP 주소를 이용해 전송할 수 있다.
그에 따라, 제어 장치(100)는 CEC 주소 정보를 HDMI 소스(110)와 HDMI 싱크(120)로부터 수신할 수 있으며, 상기 CEC 주소 정보는 해당 장치의 CEC 주소 및 HDMI를 통해 해당 장치와 연결된 장치의 CEC 주소를 포함할 수 있다.
그 후, 제어 장치(100)는 상기 수신된 CEC 주소들을 이용하여 소스 장치와 싱크 장치 사이의 HDMI 연결을 확인하고(S220 단계), 상기 소스 장치와 싱크 장치 사이의 HDMI 연결을 통해 콘텐트가 스트리밍되도록 제어한다(S230 단계).
예를 들어, 제어 장치(100)는 상기 S210 단계에서 수신된 CEC 주소 정보, 즉 탐색된 UPnP 장치들 각각에 대한 CEC 주소 및 그와 연결된 장치의 CEC 주소를 이용하여, 상기 탐색된 UPnP 장치들 중 어느 장치들이 HDMI를 통해 서로 연결되어 있는지를 확인할 수 있으며, 그에 따라 HDMI 소스(110)와 HDMI 싱크(120)가 HDMI를 통해 연결되어 있음을 알 수 있다.
상기 S230 단계에서, 제어 장치(100)는 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 연결을 관리하고, 상기 HDMI 연결을 통한 콘텐트 스트리밍을 제어할 수 있으며, 그에 추가하여 상기 콘텐트 스트리밍을 릴레이시켜 다른 장치를 통해 전달되도록 제어할 수도 있다.
한편, 상기에서는 제어 장치(100)가 CEC 주소 정보를 탐색된 장치들에 요청하여 수신하는 것으로 예로 들어 본 발명의 일실시예를 설명하였으나, 본 발명은 이에 한정되지 아니하며, 예를 들어 도 1을 참조하여 설명한 바와 같은 UPnP 탐색 과정에서 각 장치가 자신의 CEC 주소 및 그와 연결된 장치의 CEC 주소를 제어 장치(100)로 전달할 수도 있다.
이하, 도 4 내지 도 13을 참조하여, 상기 S210 단계에서 제어 장치(100)가 탐색된 UPnP 장치들의 CEC 주소 정보를 수신하는 방법에 대한 일실시예를 상세히 설명하기로 한다.
도 4 및 도 5를 참조하면, 제어 장치(100)가 UPnP 탐색 프로토콜에 의해 탐색된 장치들에 CEC 주소 정보를 요청하기 위하여 GetCECInfo() 액션(action) 및 그와 관련된 상태 변수(state variable)이 새롭게 정의될 수 있다.
제어 장치(100)는 상기 GetCECInfo()를 호출하여 상기 탐색된 UPnP 장치들 각각에 대해, 해당 장치가 HDMI 프로토콜을 지원하는지 여부와, CEC 탐색 프로토콜에 의해 획득된 해당 장치의 CEC 주소 및 HDMI를 통해 그와 연결된 장치의 CEC 주소를 나타내는 CEC 토폴로지(topology) 정보를 수신할 수 있다.
구체적으로, 상기 GetCECInfo() 액션의 상태 변수는 CECAddress와 CECTopology로 이루어질 수 있으며, 상기 CECAddress는 탐색된 장치의 CEC 주소를 나타내며, 상기 CECTopology는 HDMI를 통해 해당 장치와 연결된 장치의 CEC 주소를 나타낼 수 있다.
제어 장치(100)가 상기 GetCECInfo() 액션을 호출하면, 탐색된 UPnP 장치들은 상기 액션의 출력 독립변수(output argument)로 상기 CECAddress 및 CECTopology 상태 변수 값들을 보고할 수 있다.
예를 들어, 컨트롤 포인트(CP)인 Phone(101)이 상기 GetCECInfo()를 호출하면(S300 단계, S301 단계), HDMI를 통해 연결된 UPnP 장치들인 BDP(Bluelay Disk Player, 111)와 TV(121)는 각각 출력 독립변수로 상기 CECAddress 및 CECTopology 상태 변수 값들을 넘겨 자신의 CEC 주소 및 그와 연결된 장치의 CEC 주소(즉, CEC 토폴로지 정보)를 Phone(101)에 보고한다(S302 단계, S303 단계).
컨트롤 포인트(CP)인 Phone(101)은 HDMI 소소인 BDP(111)와 HDMI 싱크인 TV(121)의 CEC 주소들과 CEC 토폴로지를 확인할 수 있으며, 그에 따라 BDP(111)와 TV(121)가 HDMI를 통해 서로 연결되었음을 인지할 수 있다.
도 6 내지 도 13은 상기한 바와 같은 탐색 과정들 및 CEC 주소 정보 요청 과정을 통해 제어 장치(100)가 획득하는 장치 탐색 결과 정보에 대한 실시예들을 도시한 것으로, 상기 탐색 결과 정보는 탐색된 UPnP 장치들 각각에 대한 장치 카테고리(category), IP 주소, UUID, CEC 주소 및 CEC 탐색 결과(즉, CEC 토폴로지 정보)를 포함할 수 있다.
도 6을 참조하면, BDP(111)와 TV(121)가 HDMI/CEC 프로토콜을 지원하지 않는 경우, BDP(111)와 TV(121)의 CEC 주소 및 CEC 토폴로지 정보가 상기 GetCECInfo()에 대한 상태 변수로 Phone(101)에 넘겨지지 않는다.
도 7을 참조하면, BDP(111)와 TV(121)가 HDMI/CEC 프로토콜을 지원하나 서로 연결되지 않은 경우, BDP(111)와 TV(121)의 CEC 주소들이 상기 GetCECInfo()에 대한 상태 변수로 Phone(101)에 넘겨지나, CEC 토폴로지 정보는 보고되지 않는다.
도 8을 참조하면, BDP(111)와 TV(121)가 HDMI/CEC 프로토콜을 지원하고 서로 연결된 경우, BDP(111)와 TV(121)의 CEC 주소들과 CEC 토폴로지 정보가 상기 GetCECInfo()에 대한 상태 변수로 Phone(101)에 넘겨진다.
이 경우, BDP(111)의 CEC 토폴로지 정보가 TV(121)의 CEC 주소인 "0.0.0.0/0"을 나타내고, TV(121)의 CEC 토폴로지 정보가 BDP(111)의 CEC 주소인 "2.1.0.0/4)를 나타냄에 따라, 컨트롤 포인트(CP)인 Phone(101)은 BDP(111)와 TV(121)가 HDMI를 통해 서로 연결되어 있음을 인지할 수 있다.
한편, 도 9 및 도 10을 참조하면, HDMI 소스와 HDMI 싱크 중 어느 하나만이 상기 GetCECInfo() 액션에 대한 상태 변수로 상기 CEC 토폴로지 정보를 제어 장치(100)에 넘길 수 있다.
예를 들어, 도 9에 도시된 바와 같이 HDMI 소스인 BDP(111)만이 CEC 토폴로지 정보를 컨트롤 포인트(CP)인 Phone(101)에 보고하거나, 또는 도 10에 도시된 바와 같이 HDMI 싱크인(또는, 루트(root)이거나 미디어 렌더러(MR)인) TV(111)만이 CEC 토폴로지 정보를 Phone(101)에 보고할 수도 있다.
이 경우에도, 컨트롤 포인트(CP)인 Phone(101)은 하나의 CEC 토폴로지 정보만을 가지고 BDP(111)와 TV(121)가 HDMI/CEC 프로토콜을 통해 서로 연결되어 있음을 충분히 알 수 있다.
또한, 도 11 내지 도 13을 참조하면, 각각의 장치들은 CEC 주소 중 논리 주소(logical address)만으로 서로 구분될 수 있으므로, CEC 주소 정보, 즉 CEC 주소 및 CEC 토폴로지는 논리 주소만으로 구성될 수도 있다.
한편, DLNA는 2 박스 모델(2 Box Model)과 3 박스 모델(3 Box Model)을 정의한다.
상기 2 박스 모델은 디지털 미디어 플레이어(DMP)와 디지털 미디어 서버(DMS)를 포함한다. 2 박스 모델에서 디지털 미디어 플레이어(DMP)는 사용자가 디지털 미디어 서버(DMS)에 의해 통보되고(advertised) 배포되는(distributed) 컨텐트를 찾아 재생할 수 있게 한다.
도 14 및 도 15를 참조하면, DMS인 BDP(112)와 DMP인 TV(122)가 HDMI를 통해 서로 연결되어 있는 경우, TV(122)는 상기한 바와 같은 탐색 과정을 통해 BDP(112)의 IP 주소, UUID, CEC 주소 및 CEC 토폴로지 등의 정보를 획득할 수 있다.
한편, TV(122)는 BDP(112)의 CEC 토폴로지 정보가 자신의 CEC 주소인 "0.0.0.0/0"을 포함하고 있음을 확인하여, 자신과 "2.1.0.0/4"의 CEC 주소가 할당된 BDP(112)가 HDMI/CEC 프로토콜을 이용해 연결되어 있음을 인지할 수 있다.
도 16은 본 발명의 또 다른 실시예에 따른 콘텐트 송수신 시스템의 구성을 블록도로 도시한 것으로, 도시된 네트워크는 HDMI를 통해 연결된 복수의 소스 장치들과 싱크 장치들을 포함할 수 있다.
이 경우, 컨트롤 포인트(CP)인 Phone(101)은 상기한 바와 같은 탐색 과정으 통해, 네트워크를 구성하는 복수의 장치들인 BDP1(113), TV1(123), BDP2(114) 및 TV2(124) 각각에 대하여, 도 17에 도시된 바와 같은 IP 주소, UUID, CEC 주소 및 CEC 토폴로지 정보 등을 획득할 수 있다.
한편, 도 18 및 도 19를 참조하면, HDMI 소스와 HDMI 싱크 중 어느 하나, 예를 들어 BDP1(113)와 BDP2(114) 또는 TV1(123)과 TV2(124)만이 CEC 토폴로지 정보를 컨트롤 포인트(CP)인 Phone(101)에 보고할 수도 있다.
또한, 도 20 내지 도 22에 도시된 바와 같이, 복수의 탐색된 장치들 각각에 대한 CEC 주소 및 CEC 토폴로지는 해당 장치에 할당된 논리 주소만으로 구성될 수도 있다.
본 발명의 또 다른 실시예에 따르면, 제어 장치(100)는 UPnP에서 정의되어 있는 기존 액션을 이용하여, 탐색된 UPnP 장치들에 대한 CEC 주소 정보를 요청할 수도 있다.
예를 들어, 제어 장치(100)는 UPnP의 ContentDirectory 서비스와 ConnectionManager 서비스에서 정의된 액션들인 Browse/Search() 또는 GetProtocolInfo()를 이용하여 UPnP 장치들에 대한 CEC 주소 정보를 요청할 수 있다.
도 23은 UPnP 장치들의 CEC 주소 정보를 수신하는 방법에 대한 제2 실시예를 설명하기 위한 래더 다이어그램이다.
도 23을 참조하면, 컨트롤 포인트(CP)인 Phone(101)은 Browse/Search() 또는 GetProtocolInfo() 액션을 호출하여(S310 단계, S311 단계), 해당 액션에 대한 응답으로 프로토콜 명칭(protocol name), 프로토콜, 네트워크 및 부가 정보(AdditionlaInfo)를 BDP(111) 및 TV(121)로부터 수신한다(S312 단계, S313 단계).
구체적으로, 미디어 서버(MS)인 BDP(111)에 대하여, 컨트롤 포인트(CP)인 Phone(101)은 Browse/Search() 액션을 호출하여 CDS 속성(property)으로 res@procotolInfo를 획득하거나, 또는 GetProtocolInfo() 액션을 호출하여 출력 독립변수로 SourceProtocolIno 및 SinkProtocolInfo 상태 변수 값들을 보고받을 수 있다.
미디어 렌더러(MR)인 TV(112)에 대해서는, 컨트롤 포인트(CP)인 Phone(101)가 GetProtocolInfo() 액션을 호출하여 출력 독립변수로 SourceProtocolIno 및 SinkProtocolInfo 상태 변수 값들을 보고받을 수 있다.
한편, 상기한 바와 같은 Browse/Search() 또는 GetProtocolInfo() 액션을 이용해 CEC 주소 정보가 보고되도록 하기 위하여, ProtocolInfo 및 그의 값들에 대한 정의에 HDMI 프로토콜을 추가하는 것이 필요할 수 있다.
도 24를 참조하면, HDMI 프로토콜에 대해 추가된 ProtocolInfo 및 그의 값들은, protocol name이 "HDMI"이고, protocol이 "hdmi"이며, network가 해당 장치의 CEC 주소를 포함하며, contentFormat은 HDMI에서 표준화된 명칭을 포함하고, additionalInfo가 CEC 토폴로지 정보를 포함할 수 있다.
한편, 상기 contentFormat은 미디어 서버(MS)에 대해서만 존재할 수 있으며, 미디어 서버(MS)가 재생하고자하는 콘텐트를 HDMI에서 정의된 비압축 파일 포맷으로 디코딩할 수 있는 경우에 해당 필드가 채워질 수 있다.
도 25 및 도 26은 소스 장치와 싱크 장치 사이의 HDMI 연결을 확인하는 방법에 대한 일실시예를 설명하기 위한 도시한 것으로, 도 3의 S220 단계에서 수행되는 HDMI 연결 확인(validation) 방법에 대한 구체적인 예를 나타낸 것이다.
도 25를 참조하면, BDP1(113)과 TV1(123) 및 BDP2(114)와 TV2(124)는 HDMI를 통해 서로 연결되어, 각각 독립적인 HDMI 네트워크를 구성할 수 있다.
한편, 도 26에 도시된 바와 같이 BDP1(113)과 BDP2(114)가 동일한 CEC 주소를 가지고, TV1(123)와 TV2(124)가 동일한 CEC 주소를 가지는 경우가 발생할 수 있으며, 이 경우 컨트롤 포인트(CP)인 Phone(101)은 실제 서로 연결되지 않은 BDP1(113)과 TV2(124) 및 BDP2(114)와 TV1(123)이 HDMI를 통해 서로 연결된 것으로 인지할 수 있다.
상기와 같은 판단 오류를 방지하기 위해, 컨트롤 포인트(CP)인 Phone(101)은 CEC 주소 정보를 이용해 인지한 HDMI 연결을 다시 확인(valicate)하는 과정을 수행할 수 있다.
일실시예로서, 제어 장치(100)가 CEC 주소 정보를 통해 서로 연결된 것으로 인지한 HDMI 소스와 HDMI 싱크 중 어느 하나로 연결 확인 요청 메시지를 전송하고, 다른 하나로부터 상기 연결 확인 요청 메시지에 대한 응답이 있는 경우, 상기 두 장치가 HDMI를 통해 서로 연결된 것으로 확인할 수 있다.
예를 들어, Phone(101)이 BDP1(113)으로 연결 확인 요청 메시지를 전송하면, 해당 메시지는 HDMI 케이블을 통해 TV1(123)으로 전달되고, Phone(101)이 상기 연겨 확인 요청 메시지에 대한 응답을 상기 TV1(123)으로 부터 수신하여, 상기 BDP1(113)이 HDMI를 통해 TV1(123)과 연결되어 있고 TV2(124)와는 연결되어 있지 않음을 확인할 수 있다.
제어 장치(100)는 상기한 바와 같은 방법을 이용해 UPnP 장치들 사이의 HDMI 연결을 확인한 후, HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 세션(seesion)을 온/오프시킴으로서 HDMI 연결을 관리(manage)할 수 있다.
예를 들어, 컨트롤 포인트(CP)인 제어 장치(100)는 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 세션을 온 또는 오프시키기 위한 UPnP 컨트롤 메시지를 HDMI 소스(110)와 HDMI 싱크(120) 중 중 적어도 하나로 전송하여, 상기 전송된 UPnP 컨트롤 메시지에 대응되는 CEC 메시지가 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 연결을 통해 송수신되도록 제어함으로써, HDMI 연결을 관리할 수 있다.
도 27 및 도 28은 소스 장치와 싱크 장치 사이의 HDMI 세션(session)을 온시키는 방법에 대한 제1 실시예를 설명하기 위한 도면들이다.
도 27을 참조하면, 제어 장치(100)가 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 세션을 온시키기 위한 UPnP 컨트롤 메시지로서 SetHDMIMode() 액션 및 그와 관련된 상태 변수들이 새롭게 정의될 수 있다.
제어 장치(100)는 상기 SetHDMIMode() 액션을 호출하여 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 세션을 온시키도록 요청할 수 있다.
구체적으로, 상기 SetHDMIMode() 액션의 상태 변수는 CECAddress와 HDMIMode로 이루어질 수 있으며, 상기 CECAddress는 HDMI 입력 장치(input device)의 CEC 주소를 나타내며, 상기 HDMIMode는 상기 HDMI 세션의 온/오프 여부를 나타낼 수 있다.
제어 장치(100)가 상기 SetHDMIMode() 액션을 호출하는 경우, 상기 액션의 입력 독립변수(input argument)로 상기 CECAddress 및 HDMIMode 상태 변수 값들을 포함시킬 수 있다.
한편, HDMI 소스(110)와 HDMI 싱크(120) 중 상기 SetHDMIMode() 액션을 호출받은 장치는 해당 UPnP 컨트롤 메시지를 HDMI 세션을 온 또는 오프시키기 위한 CEC 메시지(예를 들어, <Active Source>와 <Image View On>)로 변환하여 HDMI를 통해 다른 장치로 전송할 수 있다.
상기와 같은 SetHDMIMode() 액션 및 그의 상태 변수 값들은 HDMI 소스(110)와 HDMI 싱크(120) 사이의 CEC 메시지 교환을 위해 이용되며, 상기 CEC 메시지 교환에 의해 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 세션이 온 또는 오프될 수 있다.
도 28을 참조하면, 먼저, 컨트롤 포인트(CP)인 Phone(101)가 SetHDMIMode() 액션을 HDMI 소스인 BDP(111)에게 호출하며(S400 단계), 상기 호출되는 SetHDMIMode() 액션은 입력 독립변수로 HDMI 싱크인 TV(121)의 CEC 주소와 HDMI 세션을 온시키기 위한 값(예를 들어, '1')을 상기 CECAddress 및 HDMIMode 상태 변수 값들로 포함할 수 있다.
상기 SetHDMIMode() 액션을 호출받은 BDP(111)는 상기 CECAddress 및 HDMIMode 상태 변수 값들을 확인하여, TV(121)와의 HDMI 세션을 온시키기 위한 CEC 메시지들인 <Image View On>과 <Active Source>를 TV(121)에 순차적으로 전송한다(S401 단계, S402 단계).
도 29 내지 도 31은 소스 장치와 싱크 장치 사이의 HDMI 세션을 온시키는 방법에 대한 제2 실시예를 설명하기 위한 도면들이다.
도 29 및 도 30을 참조하면, 제어 장치(100)가 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 세션을 온시키기 위한 UPnP 컨트롤 메시지로서 SetActiveSource() 액션 및 그와 관련된 상태 변수들과, SetImageViewMode() 액션 및 그와 관련된 상태 변수들이 새롭게 정의될 수 있다.
제어 장치(100)는 상기 SetImageViewMode() 액션과 상기 SetActiveSource() 액션을 순차적으로 호출하여 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 세션을 온시키도록 요청할 수 있다.
구체적으로, 상기 SetActiveSource() 액션의 상태 변수는 CECAddress와 ActiveSource로 이루어질 수 있으며, 상기 CECAddress는 HDMI 입력 장치(input device)의 CEC 주소를 나타낼 수 있다.
또한, 상기 ActiveSource 상태 변수는 소스가 "not active"인 경우 "0" 또는 "Inactive" 문자열(string)의 값을 가지며, "active"인 경우 "1" 또는 "Active" 문자열의 값을 가질 수 있다.
제어 장치(100)가 상기 SetActiveSource() 액션을 호출하는 경우, 상기 액션의 입력 독립변수(input argument)로 상기 CECAddress 및 ActiveSource 상태 변수 값들을 포함시킬 수 있다.
한편, HDMI 소스(110)와 HDMI 싱크(120) 중 상기 SetActiveSource() 액션을 호출받은 장치는 해당 UPnP 컨트롤 메시지를 CEC 메시지인 <Active Source>로 변환하여 HDMI를 통해 다른 장치로 전송할 수 있다.
그리고, 상기 SetImageViewMode() 액션의 상태 변수는 CECAddress와 ImageViewMode로 이루어질 수 있으며, 상기 CECAddress는 HDMI 입력 장치(input device)의 CEC 주소를 나타낼 수 있다.
상기 ImageViewMode 상태 변수는 Image View mode가 "off"인 경우 "0" 또는 "ImageViewModeOff" 문자열(string)의 값을 가지며 해당 값이 디폴트(dafqult)로 지정되고, Image View mode가 "on"인 경우 "1" 또는 "ImageViewModeOn" 문자열의 값을 가질 수 있다.
제어 장치(100)가 상기 SetImageViewMode() 액션을 호출하는 경우, 상기 액션의 입력 독립변수(input argument)로 상기 CECAddress 및 ImageViewMode 상태 변수 값들을 포함시킬 수 있다.
한편, HDMI 소스(110)와 HDMI 싱크(120) 중 상기 SetImageViewMode() 액션을 호출받은 장치는 해당 UPnP 컨트롤 메시지를 CEC 메시지인 <Image View On>으로 변환하여 HDMI를 통해 다른 장치로 전송할 수 있다.
도 31을 참조하면, 먼저, 컨트롤 포인트(CP)인 Phone(101)가 SetImageViewMode() 액션을 HDMI 소스인 BDP(111)에게 호출하며(S410 단계), 상기 호출되는 SetImageViewMode() 액션은 입력 독립변수로 HDMI 싱크인 TV(121)의 CEC 주소와 Image View mode가 "on"임을 나타내는 값(예를 들어, "1" 또는 "ImageViewModeOn" 문자열)을 상기 CECAddress 및 ImageViewMode 상태 변수 값들로 포함할 수 있다.
상기 SetImageViewMode() 액션을 호출받은 BDP(111)는 상기 CECAddress 및 ImageViewMode 상태 변수 값들을 확인하여, 그에 대응되는 CEC 메시지인 <Image View On>을 TV(411)로 전송한다(S411 단계).
그 후, 컨트롤 포인트(CP)인 Phone(101)가 SetActiveSource() 액션을 BDP(111)에게 호출하며(S412 단계), 상기 호출되는 SetActiveSource() 액션은 입력 독립변수로 TV(121)의 CEC 주소와 "active"를 나타내는 값(예를 들어, "1" 또는 "Active" 문자열)을 상기 CECAddress 및 ActiveSource 상태 변수 값들로 포함할 수 있다.
상기 SetImageViewMode() 액션을 호출받은 BDP(111)는 상기 CECAddress 및 ActiveSource 상태 변수 값들을 확인하여, 그에 대응되는 CEC 메시지인 <Active Source>를 TV(411)로 전송한다(S413 단계).
상기한 바와 같이 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 세션이 온된 후, 제어 장치(100)는 HDMI 연결을 통한 HDMI 소스(110)로부터 HDMI 싱크(120)로의 콘텐트 스트리밍을 제어할 수 있다.
본 발명의 일실시예에 따르면, 제어 장치(100)는 UPnP에서 정의된 AVTransport 서비스를 이용하여 HDMI 연결을 통한 HDMI 소스(110)로부터 HDMI 싱크(120)로의 콘텐트 스트리밍을 제어할 수 있다.
예를 들어, 제어 장치(100)는 스트리밍할 콘텐트에 대하여 재생(play), 정지(stop), 일시정지(pause) 등의 제어 동작을 수행하기 위한 UPnP 컨트롤 메시지를 HDMI 소스(110)와 HDMI 싱크(120) 중 적어도 하나로 전송할 수 있다.
한편, HDMI 소스(110)와 HDMI 싱크(120) 중 제어 장치(100)로부터 상기 UPnP 컨트롤 메시지를 수신한 장치는, 상기 수신된 UPnP 컨트롤 메시지를 CEC 메시지로 변환하여 그에 대응되는 CEC 메시지를 HDMI를 통해 연결된 다른 장치로 전송할 수 있다.
도 32를 참조하면, HDMI 소스인 BDP(111)에 AVT가 구현되어 있는 경우, 컨트롤 포인트(CP)인 Phone(101)은 제어하고자 하는 동작을 요청하기 위한 AVT 액션들을 BDP(111)에 전송하여 UPnP 컨트롤 메시지를 전달한다(S500 단계).
그에 따라, Phone(101)은 UPnP 컨트롤 프로토콜을 이용해 BDP(111)에서 콘텐트를 재생(playback)시키고, BDP(111)를 제어할 수 있다.
상기 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 콘텐트 스트리밍을 제어하기 위한 AVT 액션들은 UPnP 표준에서 정의된 것들과 동일할 수 있으므로, 그에 대한 상세한 설명은 생략하기로 한다.
BDP(111)는 상기 수신된 UPnP 컨트롤 메시지를 CEC 메시지로 변환한 후(S501 단계), 상기 변환된 CEC 메시지를 HDMI 연결을 통해 TV(121)로 전달한다(S502 단계).
그에 따라, BDP(111)는 CEC 프로토콜을 이용해 TV(121)로의 HDMI 콘텐트 스트리밍을 제어할 수 있다.
상기 UPnP 컨트롤 메시지에 대응되도록 변환된 CEC 메시지는 CEC 프로토콜에서 정의된 컨트롤 메시지와 동일할 수 있으므로, 그에 대한 상세한 설명은 생략하기로 한다.
도 33을 참조하면, HDMI 싱크인 TV(121)에 AVT가 구현되어 있는 경우, 컨트롤 포인트(CP)인 Phone(101)은 제어하고자 하는 동작을 요청하기 위한 AVT 액션들을 TV(121)에 전송하여 UPnP 컨트롤 메시지를 전달한다(S510 단계).
TV(121)는 상기 수신된 UPnP 컨트롤 메시지를 CEC 메시지로 변환한 후(S511 단계), 상기 변환된 CEC 메시지를 HDMI 연결을 통해 BDP(111)로 전달한다(S512 단계).
그에 따라, TV(121)는 CEC 프로토콜을 이용해 BDP(111)로부터의 HDMI 콘텐트 스트리밍을 제어할 수 있다.
본 발명의 또 다른 실시예에 따르면, 제어 장치(100)는 UPnP 탐색 프로토콜를 이용하여 탐색된 UPnP 장치들에 대해, HDMI 프로토콜을 통해 스트리밍될 콘텐트를 디코딩할 수 있는지 여부를 확인하는 과정을 수행할 수 있다.
그를 위해, 제어 장치(100)는 탐색된 장치들, 예를 들어 HDMI 소스(110)와 HDMI 싱크(120)에 해당 장치가 지원 가능한 콘텐트 포맷에 대한 정보를 전송하도록 요청할 수 있다.
도 34 내지 도 38은 UPnP 장치들의 콘텐트 디코딩 가능 여부를 확인하는 방법에 대한 실시예들을 설명하기 위한 도면들이다.
제어 장치(100)는 UPnP의 ContentDirectory 서비스에서 정의된 Browse/Search() 액션 또는 ConnectionManager 서비스에서 정의된 GetProtocolInfo() 액션을 이용하여 HDMI 출력 장치(예를 들어, HDMI 소스(110))의 지원 가능한 디코딩 포맷에 대한 정보를 획득할 수 있으며, 정의된 프로토콜들 및 그들과 관련된 ProtocolInfo 값들은 도 34에 도시된 바와 같다.
도 34를 참조하면, 제어 장치(100)가 호출하는 상기 Browse/Search() 액션 또는 GetProtocolInfo() 액션에 응답하여 HDMI 출력을 가지는 HDMI 소스(110)로부터 수신되는 ProtocolInfo 값들 중 "contentFormat"에서 지정되는 값이 해당 장치가 디코딩할 수 있는 콘텐트 포맷에 대한 정보를 포함할 수 있다.
도 35를 참조하면, 제어 장치(100)는 UPnP의 ConnectionManager 서비스에서 정의된 GetRendererItemInfo() 액션을 이용하여 탐색된 장치들의 지원 가능한 디코딩 포맷에 대한 정보를 획득할 수도 있다.
이 경우, 컨트롤 포인트(CP)인 제어 장치(100)는 상기 GetRendererItemInfo() 액션을 호출하여 렌더링 장치의 제공되는 인스팩트 아이템 메타데이터(inspect item metadata)를 요청하여, 해당 랜더링 장치가 스트리밍할 아이템을 성공적으로 재생할 수 있는지 여부를 확인할 수 있다.
도 36을 참조하면, 제어 장치(100)가 HDMI 프로토콜을 통해 전송된 콘텐트에 대한 디코딩 가능 여부를 확인하기 위하여 GetDecodingCapability() 액션 및 그와 관련된 상태 변수들이 새롭게 정의될 수 있다.
제어 장치(100)는 상기 GetDecodingCapability() 액션을 호출하여 HDMI 출력 장치가 스트리밍할 콘텐트를 디코딩할 수 있는지 여부에 대한 정보를 획득할 수 있다.
구체적으로, 상기 GetDecodingCapability() 액션의 상태 변수는 ContentFormatProfile과 DecodingCapability로 이루어질 수 있으며, 상기 ContentFormatProfile는 HDMI 프로토콜을 통해 스트리밍하고자 하는 타겟 콘텐트의 파일 포맷 프로파일을 나타내며, 상기 DecodingCapability는 해당 장치가 상기 ContentFormatProfile에서 지정된 파일 포맷 프로파일을 가지는 콘텐트를 디코딩할 수 있는지 여부를 나타낼 수 있다.
제어 장치(100)가 입력 독립변수로 상기 ContentFormatProfile 상태 변수 값을 포함하는 GetDecodingCapability() 액션을 호출하면, 상기 GetDecodingCapability() 액션을 호출받은 장치는 상기 액션의 출력 독립변수로 상기 DecodingCapability 상태 변수 값을 넘김으로써 자신이 타겟 콘텐트를 디코딩할 수 있는지 여부를 제어 장치(100)에 알릴 수 있다.
도 37을 참조하면, 제어 장치(100)가 HDMI 프로토콜을 통해 전송된 콘텐트에 대한 디코딩 가능 여부를 확인하기 위하여 GetDecodingINCapability() 액션 및 그와 관련된 상태 변수가 새롭게 정의될 수 있다.
제어 장치(100)는 상기 GetDecodingINCapability() 액션을 호출하여 HDMI 출력 장치가 스트리밍할 콘텐트를 디코딩할 수 있는지 여부에 대한 정보를 획득할 수 있다.
구체적으로, 상기 GetDecodingINCapability() 액션의 상태 변수는 DecodingINCapability로 이루어질 수 있으며, 상기 DecodingINCapability는 해당 장치가 디코딩할 수 있는 모든 입력 파일 포맷들을 나타낼 수 있다.
제어 장치(100)가 상기 GetDecodingINCapability() 액션을 호출하면, 상기 GetDecodingINCapability() 액션을 호출받은 장치는 상기 액션의 출력 독립변수로 상기 DecodingINCapability 상태 변수 값을 넘김으로써 자신이 디코딩 가능한 모든 입력 파일 포맷들을 제어 장치(100)에 알릴 수 있다.
제어 장치(100)는 상기 DecodingINCapability 상태 변수 값을 확인하여, 해당 HDMI 출력 장치가 HDMI 프로토콜을 통해 스트리밍하고자 하는 타겟 콘텐트를 디코딩할 수 있는지를 확인할 수 있다.
도 38을 참조하면, 제어 장치(100)가 HDMI 프로토콜을 통해 전송된 콘텐트에 대한 디코딩 가능 여부를 확인하기 위하여 GetTranformOUTCapability() 액션 및 그와 관련된 상태 변수들이 새롭게 정의될 수 있다.
제어 장치(100)는 상기 GetTranformOUTCapability() 액션을 호출하여 HDMI 출력 장치가 스트리밍할 콘텐트를 디코딩할 수 있는지 여부에 대한 정보를 획득할 수 있다.
구체적으로, 상기 GetTranformOUTCapability() 액션의 상태 변수는 ContentFormatProfile과 TransformCapability로 이루어질 수 있으며, 상기 ContentFormatProfile는 HDMI 프로토콜을 통해 스트리밍하고자 하는 타겟 콘텐트의 파일 포맷 프로파일을 나타내며, 상기 TransformCapability는 해당 장치가 상기 ContentFormatProfile에서 지정된 파일 포맷 프로파일을 가지는 콘텐트를 변환할 수 있는지 여부를 나타낼 수 있다.
제어 장치(100)가 입력 독립변수로 상기 ContentFormatProfile 상태 변수 값을 포함하는 GetTranformOUTCapability() 액션을 호출하면, 상기 GetTranformOUTCapability() 액션을 호출받은 장치는 상기 액션의 출력 독립변수로 상기 TransformCapability 상태 변수 값을 넘김으로써 자신이 타겟 콘텐트를 변환할 수 있는지 여부를 제어 장치(100)에 알릴 수 있다.
상기한 바와 같이 확인된 HDMI 출력 장치에 대한 콘텐트 디코딩 가능 여부는, 스트리밍하고자 하는 콘텐트의 전송 루트(route)를 결정하거나, 상기 콘텐트의 를 다른 장치를 통해 릴레이 스트리밍(relay streaming)하는 것을 결정하기 위해 이용될 수 있다.
본 발명의 또 다른 실시예에 따르면, 제어 장치(100)는 HDMI 소스(110)가 UPnP 탐색 프로토콜에 의해 탐색된 UPnP 장치들 중 어느 하나인 또 다른 미디어 서버(MS)로부터 콘텐트를 수신하여 디코딩하고, 상기 디코딩된 콘텐트를 HDMI 연결을 통해 HDMI 싱크(120)로 스트리밍하도록 제어할 수 있다.
도 39를 참조하면, 미디어 서버(MS)인 NAS(Network Attached Storage, 131)에 저장된 콘텐트를 TV(121)에서 재생하고자 하는 경우, 컨트롤 포인트(CP)인 Phone(101)은 도 34 내지 도 38을 참조하여 설명한 바와 같은 방법을 이용하여 NAS(131)와 HDMI를 통해 TV(121)와 연결된 미디어 서버(MS)인 BDP(111) 각각에 대해 해당 콘텐트를 디코딩할 수 있는지 여부를 확인할 수 있다.
상기 확인 결과, NAS(131)가 해당 콘텐트를 디코딩할 수 없고, BDP(111)는 해당 콘텐트를 디코딩할 수 있는 경우, Phone(101)은 NAS(131)가 저장된 콘텐트를 BDP(111)로 전송하고, BDP(111)가 상기 수신되는 콘텐트를 디코딩하여 HDMI를 통해 TV(121)로 전송하도록 제어하여, 콘텐트에 대한 릴레이 스트리밍이 수행되도록 할 수 있다.
한편, 도 39에 도시된 바와 같이, NAS(131)가 TV(121)와 HDMI를 통해 연겨되지 않은 경우에도, 컨트롤 포인트(CP)인 Phone(101)은 상기한 바와 같은 BDP(111)를 통해 릴레이 스트리밍이 수행되도록 장치들을 제어할 수 있다.
즉, 컨트롤 포인트(CP)는, 선택된 콘텐트 아이템을 가지는 미디어 서버(MS)가 재생하고자 하는 미디어 렌더러(MR)와 HDMI를 통해 연결되어 있지 않거나 해당 콘텐트 아이템을 디코딩할 수 없는 경우, 해당 콘텐트를 가지지 않으나 상기 미디어 렌더러(MR)와 HDMI를 통해 연결되어 있는 미디어 서버들 중에서 상기 콘텐트를 디코딩할 수 있는 장치를 찾아 그를 통해 콘텐트를 릴레이하여 스트리밍되도록 할 수 있다.
본 발명의 일실시예에 따르면, 도 2 내지 도 39를 참조하여 설명한 바와 같은 HDMI 소스(110)는 UPnP에서 정의된 미디어 서버(MS) 및 미디어 렌더러(MR, Media Renderer)를 포함하도록 구현되고, HDMI 싱크(120)는 미디어 렌더러(MR)를 포함하도록 구현될 수 있다.
도 40을 참조하면, HDMI 소스(110)는 미디어 서버(MS)와 미디어 렌더러(MR)를 포함하고, HDMI 싱크(120)는 미디어 렌더러(MR)를 포함할 수 있다.
컨트롤 포인트(CP, 100)는 HDMI 소스(110)의 미디어 서버(MS)에 Browse/Search() 액션을 호출한 후(S600 단계), HDMI 소스(110)의 미디어 렌더러(MR)에 GETCECInfo() 또는 GetProtocolInfo() 액션을 호출하여 HDMI 소스(110)에 대한 CEC 주소 정보 및 콘텐트 디코딩 가능 여부에 대한 정보를 획득하고(S601 단계), HDMI 싱크(120)의 미디어 렌더러(MR)에 GETCECInfo() 또는 GetProtocolInfo() 액션을 호출하여 HDMI 싱크(120)에 대한 CEC 주소 정보 및 콘텐트 디코딩 가능 여부에 대한 정보를 획득한다(S602 단계).
컨트롤 포인트(CP, 100)는 HDMI 소스(110)의 미디어 서버(MS)와 미디어 렌더러(MR)에 PrepareForConnection() 액션을 호출하고(S603 단계), HDMI 싱크(120)의 미디어 렌더러(MR)에 PrepareForConnection() 액션을 호출한다(S604 단계).
그 후, 컨트롤 포인트(CP, 100)는 HDMI 소스(110)의 미디어 렌더러(MR)에 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 세션을 온시키기 위한 UPnP 컨트롤 메시지를 전송하여 HDMI 모드를 온시킨 후(S605 단계), SetAVTansportURI() 액션과 Play() 액션을 순차적으로 호출한다(S616 단계, S607 단계).
도 41을 참조하면, HDMI 소스(110)가 미디어 서버(MS, 130)가 가지는 콘텐트를 릴레이하여 HDMI 연결을 통해 HDMI 싱크(120)로 스트리밍하는 경우, HDMI 소스(110)는 미디어 렌더러(110)만을 포함할 수도 있다.
이 경우, 컨트롤 포인트(CP, 100)는 미디어 서버(MS, 130)에 Browse/Search() 액션을 호출한 후(S610 단계), 미디어 서버(MS, 130) 및 HDMI 소스(110)의 미디어 렌더러(MR)와 HDMI 싱크(120)의 미디어 렌더러(MR)에 GETCECInfo() 또는 GetProtocolInfo() 액션을 호출하여 CEC 주소 정보 및 콘텐트 디코딩 가능 여부에 대한 정보를 획득한다(S611 단계, S612 단계).
컨트롤 포인트(CP, 100)는 미디어 서버(MS, 130)와 HDMI 소스(110)의 미디어 렌더러(MR)에 PrepareForConnection() 액션을 호출하고(S613 단계), HDMI 싱크(120)의 미디어 렌더러(MR)에 PrepareForConnection() 액션을 호출한다(S614 단계).
그 후, 컨트롤 포인트(CP, 100)는 HDMI 소스(110)의 미디어 렌더러(MR)에 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 세션을 온시키기 위한 UPnP 컨트롤 메시지를 전송하여 HDMI 모드를 온시킨 후(S615 단계), SetAVTansportURI() 액션과 Play() 액션을 순차적으로 호출한다(S616 단계, S617 단계).
도 42는 본 발명의 일실시예에 따른 제어 장치의 구성을 블록도로 도시한 것으로, 컨트롤 포인트(CP)로 이용될 수 있는 제어 장치(100)의 일예로서 휴대용 단말기의 구성을 나타낸 것이다.
도 42를 참조하면, 제어 장치(100)는 무선 통신부(710), A/V(Audio/Video) 입력부(720), 사용자 입력부(730), 센싱부(740), 출력부(750), 메모리(760), 인터페이스부(770), 제어부(780) 및 전원 공급부(790) 등을 포함할 수 있다. 도 42에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 제어 장치(100)가 구현될 수도 있다.
무선 통신부(710)는 제어 장치(100)와 무선 통신 시스템 사이 또는 제어 장치(100)와 제어 장치(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(710)는 하나 이상의 방송 수신 모듈(711), 하나 이상의 이동통신 모듈(712), 하나 이상의 무선 인터넷 모듈(713), 하나 이상의 근거리 통신 모듈(714) 및 하나 이상의 위치정보 모듈(715) 등을 포함할 수 있다.
제어 장치(100)는 상기한 바와 같은 통신 모듈을 통해 네트워크에 접속할 수 있다.
특히, 본 발명의 실시예에서, 무선 통신부(710)는 제어부(780)의 제어를 통해 상술한 메시지 또는 장치 정보를 멀티캐스트 또는 유니캐스트를 통해 전송하거나 수신할 수 있다. 수집된 장치 정보는 메모리(760)에 저장된다.
방송 수신 모듈(711)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다.
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(712)에 의해 수신될 수 있다.
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신 모듈(711)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(711)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.
방송 수신 모듈(711)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(760)에 저장될 수 있다.
이동통신 모듈(712)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(713)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 제어 장치(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈(714)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
위치정보 모듈(715)은 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.
A/V(Audio/Video) 입력부(720)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(721)와 마이크(722) 등이 포함될 수 있다. 카메라(721)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(751)에 표시될 수 있다.
카메라(721)에서 처리된 화상 프레임은 메모리(760)에 저장되거나 무선 통신부(710)를 통하여 외부로 전송될 수 있다. 카메라(721)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.
마이크(722)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(712)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(722)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(730)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(730)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
센싱부(740)는 제어 장치(100)의 개폐 상태, 제어 장치(100)의 위치, 사용자 접촉 유무, 단말기의 방위, 단말기의 가속/감속 등과 같이 제어 장치(100)의 현 상태를 감지하여 제어 장치(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 제어 장치(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(790)의 전원 공급 여부, 인터페이스부(770)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(740)는 근접 센서(741)를 포함할 수 있다.
출력부(750)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(751), 음향 출력 모듈(752), 알람부(753), 및 햅틱 모듈(754) 등이 포함될 수 있다.
디스플레이부(751)는 제어 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 제어 장치(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
디스플레이부(751)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(751)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(751)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.
제어 장치(100)의 구현 형태에 따라 디스플레이부(751)이 2개 이상 존재할 수 있다. 예를 들어, 제어 장치(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(751)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(751)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(751)의 특정 부위에 가해진 압력 또는 디스플레이부(751)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(780)로 전송한다. 이로써, 제어부(780)는 디스플레이부(751)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
상기 터치스크린에 의해 감싸지는 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(741)가 배치될 수 있다. 상기 근접 센서(741)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서(741)는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서(741)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.
상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
음향 출력 모듈(752)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(710)로부터 수신되거나 메모리(760)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(752)은 제어 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(752)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(753)는 제어 장치(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(753)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(751)나 음성 출력 모듈(752)을 통해서도 출력될 수 있어서, 그들(751,152)은 알람부(753)의 일부로 분류될 수도 있다.
햅틱 모듈(haptic module)(754)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(754)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(754)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(754)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(754)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(754)은 단말기의 구성 태양에 따라 2개 이상이 구비될 수 있다.
메모리(760)는 제어부(780)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(760)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(760)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 제어 장치(100)는 인터넷(internet)상에서 상기 메모리(760)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(770)는 제어 장치(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(770)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 제어 장치(100) 내부의 각 구성 요소에 전달하거나, 제어 장치(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(770)에 포함될 수 있다.
식별 모듈은 제어 장치(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identity Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기와 연결될 수 있다.
상기 인터페이스부는 단말기가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 단말기에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(controller, 180)는 통상적으로 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(780)는 멀티 미디어 재생을 위한 멀티미디어 모듈(781)을 구비할 수도 있다. 멀티미디어 모듈(781)은 제어부(780) 내에 구현될 수도 있고, 제어부(780)와 별도로 구현될 수도 있다.
본 발명의 일시시예에 따르면, 제어부(780)는 도 1 내지 도 41을 참조하여 설명한 바와 같은 판단과 결정을 수행할 수 있으며, 구체적으로 제어부(780)는 무선 통신부(710)를 제어하면서 도 1 내지 도 42를 참조하여 설명한 단계들을 수행할 수 있다.
예를 들어, 무선 통신부(710)는 UPnP 탐색 프로토콜에 의해 탐색된 UPnP 장치들 중 적어도 하나로부터 CEC 주소 정보를 수신하며, 제어부(780)는 상기 수신된 CEC 주소 정보를 이용하여 상기 탐색된 UPnP 장치들 중 소스 장치와 싱크 장치 사이의 HDMI 연결을 확인하고, 상기 소스 장치와 싱크 장치 사이의 HDMI 연결을 통해 콘텐트가 스트리밍되도록 제어할 수 있다.
또한, 상기 제어부(780)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
전원 공급부(790)는 제어부(780)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
도 42는 제어 장치(100)의 구성에 대한 일실시예로서, 본 발명은 이에 한정되지 아니하며, 피 제어 장치, 예를 들어 HDMI 소스(110) 및 HDMI 싱크(120)도 도 42르 참조하여 설명한 바와 같은 구성을 가질 수 있다.
본 발명의 또 다른 실시예에 따르면, 컨트롤 포인트(CP)인 제어 장치(100)는 복수의 인터페이스들 중에서 콘텐트를 송수신하기 위한 인터페이스를 결정할 수 있으며, 도 1 내지 도 41을 참조하여 설명한 바와 같은 동작을 통해 획득되는 정보를 이용하여 상기 인터페이스를 결정할 수 있다.
예를 들어, HDMI 소스(110)에 존재하는 콘텐트를 HDMI 싱크(120)로 스트리밍하고자 하는 경우, 제어 장치(100)는 기존 UPnP에서 정의하는 WiFi 등과 같은 IP 기반 인터페이스를 이용해 상기 콘텐트를 스트리밍할 것인지, 또는 HDMI를 통해 상기 콘텐트를 스트리밍할 것인지를 결정할 수 있다.
이하, 도 43 내지 도 51을 참조하여 콘텐트를 송수신할 인터페이스를 결정하는 방법에 대한 실시예들을 상세히 설명하기로 한다.
상기 인터페이스를 결정하는 방법에 대한 제1 실시예로서, 제어 장치(100)는 HDMI 소스(110)와 HDMI 싱크(120) 사이에 연결되어 콘텐트 스트리밍을 위해 이용 가능한 하나 이상의 인터페이스들에 대한 정보를 사용자에게 제공하고, 상기 이용 가능한 인터페이스들 중 어느 하나를 사용자로부터 선택받아 해당 콘텐트를 스트리밍할 인터페이스로 결정할 수 있다.
도 43을 참조하면, 사용자가 HDMI 소스(110)에 존재하는 콘텐트들 중 어느 하나를 선택하여 HDMI 싱크(120)에서 재생하고자 하는 경우, 제어 장치(100)의 디스플레이 화면(800)에 상기 선택된 콘텐트를 스트리밍하기 위해 이용 가능한 인터페이스들의 목록을 표시할 수 있다.
한편, 상기 이용 가능한 인터페이스들의 목록은 도 1 내지 도 41을 참조하여 설명한 바와 같은 방법에 의해 제어 장치(100)가 획득한 정보들, 예를 들어 CEC 주소 정보를 통해 확인한 HDMI 소스(110)와 HDMI 싱크(120) 사이의 HDMI 연결 여부 및 HDMI 소스(110)와 HDMI 싱크(120)의 타겟 콘텐트에 대한 디코딩 가능 여부 등을 기초로 하여 생성될 수 있다.
도 44에 도시된 바와 같이 HDMI 소스인 BDP(111)와 HDMI 싱크인 TV(121)가 HDMI를 통해 연결되고, BDP(111)와 TV(121) 모두 사용자가 선택한 콘텐트를 디코딩 가능한 경우, IP 기반의 WiFi와 non-IP 기반의 HDMI 모두 상기 콘텐트를 스트리밍하기 위한 인터페이스로 이용 가능할 수 있다.
그에 따라, 사용자는 제어 장치(100)의 화면(800)에 표시된 인터페이스 목록 중에서 어느 하나를 선택하여, 상기 선택된 인터페이스를 통해 BDP(111)에 있는 콘텐트가 TV(121)로 전송되어 TV(121)에서 재생되도록 할 수 있다.
예를 들어, 사용자는 화면(800)에 표시된 이용 가능한 인터페이스들 중 "HDMI"를 선택 박스들(801, 802) 중 그에 대응되는 선택 박스(802)를 체크하여 선택한 후 확인 버튼(811)을 선택하여, HDMI 연결을 통해 BDP(111)에 있는 콘텐트가 TV(121)로 스트리밍되도록 할 수 있다.
한편, 사용자가 자동 선택 버튼(813)을 선택하는 경우, 제어 장치(100)가 미리 설정된 기준에 따라 화면(800)에 표시된 이용 가능한 인테페이스들 중 하나를 선택할 수도 있다.
상기 제어 장치(100)의 인터페이스 자동 선택에 있어서, HDMI가 WiFi 등과 같은 기존 UPnP에서 정의된 IP 기반의 인터페이스보다 높은 우선 순위를 가질 수 있다.
상기 인터페이스를 결정하기 위한 일실시예로서, 제어 장치(100)는 IP 기반 인터페이스의 네트워크 대역폭에 따라, 대역폭 절약 정책(badwidth saving policy)에 의해 상기 콘텐트를 송수신하기 위한 인터페이스를 결정할 수도 있다.
예를 들어, HDMI 소스(110)의 콘텐트를 HDMI 싱크(120)로 스트리밍하기 위한 WiFi 네트워크의 대역폭이 기준치 이하로 감소하여 콘텐트 스트리밍에 충분하지 않은 경우, 제어 장치(100)는 HDMI를 상기 콘텐트 스트리밍을 위한 인터페이스로 선택할 수 있다.
다른 실시예로서, 제어 장치(100)는 콘텐트를 스트리밍하기 위해 필요한 홉(hop) 수에 따라, 홉 절약 정책(hop saving policy)에 의해 상기 콘텐트를 송수신하기 위한 인터페이스를 결정할 수도 있다.
예를 들어, WiFi와 같은 IP 기반 인터페이스를 통해 HDMI 소스(110)의 콘텐트를 HDMI 싱크(120)로 스트리밍하기 위해 필요한 홉 수가 HDMI를 통해 콘텐트를 스트리밍하기 위해 필요한 홉 수보다 적은 경우(즉, WiFi 콘텐트 스트리밍의 경우 거쳐가는 장치들의 수가 더 적은 경우), 제어 장치(100)는 WiFi를 상기 콘텐트 스트리밍을 위한 인터페이스로 선택할 수 있다.
또 다른 실시예로서, 제어 장치(100)는 UPnP 탐색 프로토콜에 의해 탐색된 장치들 각각의 타겟 콘텐트에 대한 디코딩 가능 여부에 따라, 상기 콘텐트를 송수신하기 위한 인터페이스를 결정할 수도 있다.
예를 들어, 도 45에 도시된 바와 같이 콘텐트를 재생할 HDMI 싱크인 TV(121)가 해당 콘텐트를 디코딩할 적절한 코덱(codec)을 구비하고 있지 않고, HDMI 소스인 BDP(111)가 해당 콘텐트를 디코딩할 적절한 코덱을 구비하고 있는 경우, 컨트롤 포인트(CP)인 Phone(101)은 상기 콘텐트를 스트리밍하기 위한 인터페이스로 HDMI를 선택할 수 있다.
이 경우, Phone(101)은 상기한 바와 같은 UPnP 컨트롤 메시지들을 이용하여 BDP(111)와 TV(121) 사이의 HDMI 세션을 온시킨 후, BDP(111)에서 상기 콘텐트가 재생되도록 제어할 수 있다.
상기한 바와 같은 경우에 있어서, BDP(111)가 WiFi와 같은 IP 기반 인터페이스를 통해 디코딩된 콘텐트를 TV(121)로 전송할 수 없으므로, 도 46에 도시된 바와 같이 제어 장치(100)의 화면(800)을 통해 사용자에게 제공되는 이용 가능한 인터페이스 목록은 HDMI만을 포함할 수도 있다.
도 47에 도시된 바와 같이 콘텐트를 재생할 HDMI 싱크인 TV(121)가 해당 콘텐트를 디코딩할 적절한 코덱을 구비하고 있고, HDMI 소스인 BDP(111)가 해당 콘텐트를 디코딩할 적절한 코덱을 구비하고 있지 않는 경우, 컨트롤 포인트(CP)인 Phone(101)은 상기 콘텐트를 스트리밍하기 위한 인터페이스로 WiFi와 같은 IP 기반의 인터페이스를 선택할 수 있다.
상기한 바와 같은 경우에 있어서, BDP(111)가 콘텐트를 디코딩하여 HDMI를 통해 TV(121)로 전송할 수 없으므로, 도 47에 도시된 바와 같이 제어 장치(100)의 화면(800)을 통해 사용자에게 제공되는 이용 가능한 인터페이스 목록은 WiFi와 같은 IP 기반의 인터페이스만을 포함할 수도 있다.
도 49에 도시된 바와 같이 HDMI 싱크인 TV(121)와 HDMI 소스인 BDP(111)가 모두 해당 콘텐트를 디코딩할 적절한 코덱을 구비하고 있지 않는 경우, 컨트롤 포인트(CP)인 Phone(101)은 상기 콘텐트를 TV(121)에서 재생할 수 없는 것으로 결정할 수 있다.
이 경우, 도 50에 도시된 바와 같이 제어 장치(100)의 화면(800)을 통해 사용자가 선택한 BDP(111)의 콘텐트를 TV(121)에서 재생할 수 없음을 사용자에게 알리기 위한 메시지를 팝업 창(pop-up window, 821)으로 표시할 수 있다.
한편, BDP(111)의 콘텐트를 TV(121)에서 재생하기 위해서는, 사용자가 상기 타겟 콘텐트를 디코딩할 수 있는 적절한 코덱을 가지는 미디어 서버(MS)를 네트워크에 추가연결하여, 상기 콘텐트가 상기 연결된 새로운 미디어 서버(MS)를 통해 릴레이되어 TV(121)로 스트리밍되도록 할 수 있다.
도 51에 도시된 바와 같이 콘텐트를 재생할 HDMI 싱크인 TV1(123)과 스트리밍할 콘텐트를 가지는 HDMI 소스인 BDP1(113)가 모두 해당 콘텐트를 디코딩할 적절한 코덱을 구비하고 있지 않고, 또 다른 HDMI 소스인 BDP2(114)가 해당 콘텐트를 디코딩할 수 있는 적절한 코덱을 구비하고 있는 경우, 컨트롤 포인트(CP)인 Phone(101)은 상기 BDP1(113)의 콘텐트를 BDP2(114)를 통해 릴레이하여 TV(121)에서 재생하는 것으로 결정할 수 있다.
이 경우, Phone(101)은 상기한 바와 같은 UPnP 컨트롤 메시지들을 이용하여 BDP2(114)와 TV1(123) 사이의 HDMI 세션을 온시킨 후, BDP1(113)의 콘텐트가 BDP2(114)에서 재생되도록 제어할 수 있다.
한편, 상기에서는 도 43 내지 도 51을 참조하여 HDMI 소스(110)에 존재하는 콘텐트를 HDMI 싱크(120)에서 재생하는 경우를 예로 들어 본 발명의 일실시예를 설명하였으나, 상기한 바와 같은 인터페이스 및 스트리밍 루트 결정 방법은 제어 장치(100)가 미디어 서버(MS)의 기능을 수행하여 제어 장치(100)에 존재하는 콘텐트를 TV(121)로 전송하여 스트리밍하는데에도 이용 가능할 수 있다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(780)에 의해 구현될 수 있다.
상술한 본 발명에 따른 제어 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안될 것이다.

Claims (20)

  1. UPnP(Universal Plug and Play) 장치들 사이의 콘텐트 송수신을 제어하는 방법에 있어서,
    복수의 UPnP 장치들을 탐색하는 단계;
    상기 탐색된 UPnP 장치들 중 적어도 하나로부터, 상기 UPnP 장치의 CEC(Consumer Electronics Control) 주소 및 HDMI(High Definition Multimedia Interface)를 통해 상기 UPnP 장치와 연결된 장치의 CEC 주소를 수신하는 단계;
    상기 수신된 CEC 주소들을 이용하여, 상기 탐색된 UPnP 장치들 중 소스 장치와 싱크 장치 사이의 HDMI 연결을 확인하는 단계; 및
    상기 소스 장치와 싱크 장치 사이의 HDMI 연결을 통해 콘텐트가 스트리밍되도록 제어하는 단계를 포함하는 콘텐트 송수신 제어 방법.
  2. 제1항에 있어서, 상기 CEC 주소를 수신하는 단계는
    상기 탐색 단계에서 획득된 IP(Internet Protocol) 주소들을 이용하여, 상기 탐색된 UPnP 장치들 각각에 CEC 주소 정보의 전송을 요청하는 단계를 포함하는 콘텐트 송수신 제어 방법.
  3. 제1항에 있어서,
    상기 탐색된 UPnP 장치들에 대해, 상기 스트리밍될 콘텐트의 디코딩 가능 여부를 확인하는 단계를 더 포함하는 콘텐트 송수신 제어 방법.
  4. 제3항에 있어서, 상기 디코딩 가능 여부를 확인하는 단계는
    상기 탐색된 UPnP 장치들 각각에 지원 가능한 콘텐트 포맷 정보의 전송을 요청하는 단계를 포함하는 콘텐트 송수신 제어 방법.
  5. 제1항에 있어서, 상기 제어 단계는
    상기 소스 장치와 상기 싱크 장치 사이의 HDMI 세션(seesion)을 온 또는 오프시키는 단계를 포함하는 콘텐트 송수신 제어 방법.
  6. 제5항에 있어서, 상기 HDMI 세션을 온 또는 오프시키는 단계는
    상기 HDMI 세션을 온 또는 오프시키기 위한 UPnP 컨트롤 메시지를 상기 소스 장치와 상기 싱크 장치 중 적어도 하나로 전송하는 단계를 포함하고,
    상기 전송된 UPnP 컨트롤 메시지에 대응되는 CEC 메시지가 상기 소스 장치와 싱크 장치 사이의 HDMI 연결을 통해 송수신되는 콘텐트 송수신 제어 방법.
  7. 제1항에 있어서, 상기 제어 단계는
    상기 소스 장치로부터 상기 싱크 장치로의 콘텐트 스트리밍을 제어하는 단계를 포함하는 콘텐트 송수신 제어 방법.
  8. 제7항에 있어서,상기 콘텐트 스트리밍을 제어하는 단계는
    상기 콘텐트에 대하여 재생(play), 정지(stop) 및 일시정지(pause) 중 하나를 수행하기 위한 UPnP 컨트롤 메시지를 상기 소스 장치와 상기 싱크 장치 중 적어도 하나로 전송하는 단계를 포함하고,
    상기 전송된 UPnP 컨트롤 메시지에 대응되는 CEC 메시지가 상기 소스 장치와 싱크 장치 사이의 HDMI 연결을 통해 송수신되는 콘텐트 송수신 제어 방법.
  9. 제1항에 있어서, 상기 제어 단계는
    상기 소스 장치가 상기 탐색된 UPnP 장치들 중 어느 하나의 미디어 서버(MS, Media Sever)로부터 수신한 콘텐트를 디코딩하여, 상기 HDMI 연결을 통해 상기 싱크 장치로 스트리밍하도록 제어하는 단계를 포함하는 콘텐트 송수신 제어 방법.
  10. 제9항에 있어서, 상기 미디어 서버(MS)는
    상기 콘텐트를 디코딩할 수 없거나, 또는 상기 싱크 장치와 HDMI를 통해 연결되지 않은 장치인 콘텐트 송수신 제어 방법.
  11. 제11항에 있어서,
    상기 소스 장치는 미디어 서버(MS) 및 미디어 렌더러(MR, Media Renderer)를 포함하고, 상기 싱크 장치는 미디어 렌더러(MR)을 포함하는 콘텐트 송수신 제어 방법.
  12. 제1항에 있어서,
    상기 콘텐트를 송수신하기 위한 인터페이스를 IP 기반 인터페이스 및 상기 HDMI 중 어느 하나로 결정하는 단계를 더 포함하는 콘텐트 송수신 제어 방법.
  13. 제12항에 있어서, 상기 인터페이스를 결정하는 단계는
    상기 소스 장치와 상기 싱크 장치 사이에 연결 가능한 하나 이상의 인터페이스들에 대한 정보를 제공하는 단계; 및
    상기 연결 가능한 인터페이스들 중 어느 하나를 사용자로부터 선택받는 단계를 포함하는 콘텐트 송수신 제어 방법.
  14. 제12항에 있어서, 상기 인터페이스를 결정하는 단계는
    상기 IP 기반 인터페이스의 네트워크 대역폭에 따라, 상기 콘텐트를 송수신하기 위한 인터페이스를 결정하는 단계를 포함하는 콘텐트 송수신 제어 방법.
  15. 제12항에 있어서, 상기 인터페이스를 결정하는 단계는
    상기 소스 장치와 상기 싱크 장치의 상기 콘텐트에 대한 디코딩 가능 여부에 따라, 상기 콘텐트를 송수신하기 위한 인터페이스를 결정하는 단계를 포함하는 콘텐트 송수신 제어 방법.
  16. UPnP 장치들 사이의 콘텐트 송수신을 제어하는 장치에 있어서,
    탐색된 UPnP 장치들 중 적어도 하나로부터 CEC 주소 정보를 수신하는 통신부; 및
    상기 수신된 CEC 주소 정보를 이용하여 상기 탐색된 UPnP 장치들 중 소스 장치와 싱크 장치 사이의 HDMI 연결을 확인하고, 상기 소스 장치와 싱크 장치 사이의 HDMI 연결을 통해 콘텐트가 스트리밍되도록 제어하는 제어부를 포함하고,
    상기 CEC 주소 정보는 상기 UPnP 장치의 CEC 주소 및 HDMI를 통해 상기 UPnP 장치와 연결된 장치의 CEC 주소를 포함하는 제어 장치.
  17. 제16항에 있어서, 상기 통신부는
    상기 탐색된 UPnP 장치들로부터 지원 가능한 콘텐트 포맷에 대한 정보를 수신하는 제어 장치.
  18. 제16항에 있어서, 상기 통신부는
    상기 소스 장치와 상기 싱크 장치 사이의 HDMI 세션을 온 또는 오프시키기 위한 UPnP 컨트롤 메시지를 상기 소스 장치와 상기 싱크 장치 중 적어도 하나로 전송하며,
    상기 전송된 UPnP 컨트롤 메시지에 대응되는 CEC 메시지가 상기 소스 장치와 싱크 장치 사이의 HDMI 연결을 통해 송수신되는 제어 장치.
  19. 제16항에 있어서, 상기 통신부는
    상기 스트리밍되는 콘텐트에 대해 재생, 정지 및 일시정지 중 어느 하나를 수행하기 위한 UPnP 컨트롤 메시지를 상기 소스 장치와 상기 싱크 장치 중 적어도 하나로 전송하며,
    상기 전송된 UPnP 컨트롤 메시지에 대응되는 CEC 메시지가 상기 소스 장치와 싱크 장치 사이의 HDMI 연결을 통해 송수신되는 제어 장치.
  20. 제16항에 있어서, 상기 제어부는
    상기 소스 장치가 상기 탐색된 UPnP 장치들 중 어느 하나의 미디어 서버(MS)로부터 수신한 콘텐트를 디코딩하여, 상기 HDMI 연결을 통해 상기 싱크 장치로 스트리밍하도록 제어하는 제어 장치.
PCT/KR2012/000398 2011-01-17 2012-01-17 콘텐트 송수신 제어 방법 및 장치 WO2012099378A2 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/979,990 US20130304860A1 (en) 2011-01-17 2012-01-17 Method and apparatus for controlling the transceiving of content

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
US201161433275P 2011-01-17 2011-01-17
US61/433,275 2011-01-17
US201161453545P 2011-03-17 2011-03-17
US61/453,545 2011-03-17
US201161470452P 2011-03-31 2011-03-31
US61/470,452 2011-03-31
US201161525829P 2011-08-21 2011-08-21
US61/525,829 2011-08-21
US201161527085P 2011-08-24 2011-08-24
US61/527,085 2011-08-24
US201161537037P 2011-09-20 2011-09-20
US61/537,037 2011-09-20
US201161560241P 2011-11-15 2011-11-15
US61/560,241 2011-11-15

Publications (2)

Publication Number Publication Date
WO2012099378A2 true WO2012099378A2 (ko) 2012-07-26
WO2012099378A3 WO2012099378A3 (ko) 2012-12-06

Family

ID=46516220

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/000398 WO2012099378A2 (ko) 2011-01-17 2012-01-17 콘텐트 송수신 제어 방법 및 장치

Country Status (2)

Country Link
US (1) US20130304860A1 (ko)
WO (1) WO2012099378A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015034275A1 (ko) * 2013-09-05 2015-03-12 엘지전자(주) 무선 통신 시스템에서 오디오/비디오 스트리밍 수행 방법 및 장치
WO2016089161A1 (ko) * 2014-12-04 2016-06-09 엘지전자(주) Ip 기반의 hdmi 기기 제어 방법

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9208679B2 (en) * 2006-09-05 2015-12-08 Universal Electronics Inc. System and method for configuring the remote control functionality of a portable device
JP5690206B2 (ja) * 2011-05-11 2015-03-25 オリンパス株式会社 無線端末および無線システム
JP2013005265A (ja) * 2011-06-17 2013-01-07 Sony Corp コンテンツ再生装置およびコンテンツ再生制御方法
US20140092004A1 (en) * 2012-09-28 2014-04-03 Ashok K. Mishra Audio information and/or control via an intermediary device
US9973787B2 (en) * 2014-05-01 2018-05-15 Sony Corporation Communication device and communication method
US9900660B2 (en) * 2014-09-23 2018-02-20 Vizio Inc Password protected stream receivers
FR3030960B1 (fr) 2014-12-19 2017-12-29 Texas De France Systeme domotique pour echanger des informations entre au moins un terminal mobile et des appareils electriques domestiques
CN104581365B (zh) * 2014-12-29 2017-10-13 广东欧珀移动通信有限公司 控制多媒体文件推送的方法、从设备、主设备及系统
KR102405694B1 (ko) * 2015-12-23 2022-06-07 삼성전자주식회사 전자 장치의 동작 방법과 중계 장치와 이의 동작 방법
US10455632B2 (en) 2016-11-30 2019-10-22 Microsoft Technology Licensing, Llc Dynamic identification of network connection preferences
US10602557B2 (en) 2016-11-30 2020-03-24 Microsoft Technology Licensing, Llc Discovering and protecting data streams in multi-path communication environments
US20190132398A1 (en) * 2017-11-02 2019-05-02 Microsoft Technology Licensing, Llc Networked User Interface Back Channel Discovery Via Wired Video Connection
KR20230132079A (ko) * 2022-03-08 2023-09-15 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080270562A1 (en) * 2007-04-30 2008-10-30 Samsung Electronics Co., Ltd. Home network device control service and/or internet service method and apparatus thereof
US20090147782A1 (en) * 2007-12-05 2009-06-11 Sony Corporation Electronic device for communication within a network and method for operating an electronic device
US20100223370A1 (en) * 2007-10-05 2010-09-02 Hiroshi Kase Network system, control apparatus, terminal apparatus, and connection state determining method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020065927A1 (en) * 2000-09-05 2002-05-30 Janik Craig M. Webpad and method for using the same
EP1967957B1 (en) * 2005-12-27 2013-07-17 Mitsubishi Electric Corporation Transcoder
US9451331B2 (en) * 2011-01-15 2016-09-20 Lattice Semiconductor Corporation Proxy device operation in command and control network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080270562A1 (en) * 2007-04-30 2008-10-30 Samsung Electronics Co., Ltd. Home network device control service and/or internet service method and apparatus thereof
US20100223370A1 (en) * 2007-10-05 2010-09-02 Hiroshi Kase Network system, control apparatus, terminal apparatus, and connection state determining method
US20090147782A1 (en) * 2007-12-05 2009-06-11 Sony Corporation Electronic device for communication within a network and method for operating an electronic device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015034275A1 (ko) * 2013-09-05 2015-03-12 엘지전자(주) 무선 통신 시스템에서 오디오/비디오 스트리밍 수행 방법 및 장치
WO2016089161A1 (ko) * 2014-12-04 2016-06-09 엘지전자(주) Ip 기반의 hdmi 기기 제어 방법
US10264312B2 (en) 2014-12-04 2019-04-16 Lg Electronics Inc. Method for controlling IP-based HDMI device

Also Published As

Publication number Publication date
US20130304860A1 (en) 2013-11-14
WO2012099378A3 (ko) 2012-12-06

Similar Documents

Publication Publication Date Title
WO2012099378A2 (ko) 콘텐트 송수신 제어 방법 및 장치
WO2013012104A1 (ko) 전자기기 및 전자기기의 동작 방법
WO2013058423A1 (ko) 전자기기 및 전자기기의 동작 방법
WO2016027933A1 (ko) 디지털 디바이스 및 그 제어 방법
WO2014104752A1 (en) Service providing terminal connection method and apparatus
WO2012026651A1 (en) Method for synchronizing contents and display device enabling the method
WO2014092469A1 (en) Content playing apparatus, method for providing ui of content playing apparatus, network server, and method for controlling by network server
WO2016035984A1 (en) Electronic device and method for operating the same
WO2019172671A1 (en) Display device and control method thereof
WO2020076110A1 (en) Electronic device for determining p2p operating channel and method thereof
WO2013109117A1 (ko) 미디어 콘트롤 장치, 미디어 제어 타겟 장치, 및 이들의 동작 방법
WO2016175361A1 (ko) 디스플레이 디바이스 및 그 제어 방법
WO2015194693A1 (ko) 영상 표시 기기 및 그의 동작 방법
WO2012096505A2 (ko) 제어 장치, 제어 타겟 장치, 및 이들의 다중 네트워크 동작 방법
WO2017047868A1 (ko) 이동 단말기 및 그 제어 방법
WO2018062754A1 (en) Digital device and data processing method in the same
WO2019117451A1 (ko) 디스플레이장치, 그 제어방법 및 기록매체
WO2021118130A1 (en) Electronic apparatus and method of controlling the same
WO2021133042A1 (en) Electronic device and method of operating the same
WO2016089161A1 (ko) Ip 기반의 hdmi 기기 제어 방법
WO2013015471A1 (en) Electronic device
WO2011090287A2 (en) Electronic device and operating method of the same
WO2013015473A1 (en) Electronic device and method of operating the same
WO2020149426A1 (ko) 영상표시기기 및 그 제어방법
WO2020204429A1 (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12736821

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 13979990

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12736821

Country of ref document: EP

Kind code of ref document: A2