WO2016200078A1 - 멀티미디어 컨텐츠를 공유하는 방법 및 장치 - Google Patents

멀티미디어 컨텐츠를 공유하는 방법 및 장치 Download PDF

Info

Publication number
WO2016200078A1
WO2016200078A1 PCT/KR2016/005447 KR2016005447W WO2016200078A1 WO 2016200078 A1 WO2016200078 A1 WO 2016200078A1 KR 2016005447 W KR2016005447 W KR 2016005447W WO 2016200078 A1 WO2016200078 A1 WO 2016200078A1
Authority
WO
WIPO (PCT)
Prior art keywords
multimedia content
information
client
server
sharing
Prior art date
Application number
PCT/KR2016/005447
Other languages
English (en)
French (fr)
Inventor
쑤지엔웨이
첸추엔타오
쉔지춘
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201510317608.1A external-priority patent/CN106302362B/zh
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US15/735,416 priority Critical patent/US11089073B2/en
Publication of WO2016200078A1 publication Critical patent/WO2016200078A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications

Definitions

  • the present disclosure generally relates to the technical field of multimedia, and more particularly, to a technology for rapidly sharing multimedia content in a broadcast mode, and more particularly, to a method for transmitting and sharing multimedia content and an apparatus for transmitting and sharing multimedia content. will be.
  • Another sharing mode includes a partial sharing mode for sharing a part of multimedia content.
  • a partial sharing mode for sharing a part of multimedia content.
  • the user is only interested in some of the multimedia content and wants to share the content in a particular way.
  • the existing broadcast TV has a unidirectional with only downlink without an uplink pathway. Therefore, the user may not perform real-time sharing while watching or listening to multimedia content in the existing broadcast network.
  • IP Internet Protocol
  • the user on the client side first obtains parameters about the current broadcast, such as the current broadcast progression, the broadcast channel, and the receiving authority from the server. The user then requests the server for a data stream corresponding to the obtained parameter.
  • the server for a data stream corresponding to the obtained parameter.
  • the server sends a continuous data stream to a multicast address or broadcast address.
  • the client side joins a multicast group or broadcast group corresponding to the multimedia content in order to receive the broadcasted multimedia content.
  • both technologies based on custom broadband and IP multicast / broadcast are based on IP technology. Both technologies have a downlink for broadcast, and the client side can send the request information to the server via the uplink. Therefore, while the user is watching or listening to the multimedia content, it is possible to share the multimedia content with other users.
  • content real-time sharing technology For technology based on demand broadband, content real-time sharing technology already exists. Specifically, while viewing or listening to specific multimedia content, the user may record time information of the content of interest and upload information related to the content to the server. At this time, the server intercepts the original multimedia contents, generates new multimedia contents from the original multimedia contents according to the information on the multimedia contents of interest uploaded by the user, and accesses the new multimedia contents. Create a locator and provide the URL to other users. Other users can share new multimedia content using URLs. This real-time sharing method has been used to broadcast multimedia content until now.
  • the user wants to share a portion of the multimedia content, the user needs to notify the server of the parameter of the multimedia content, such as the start time and the end time of the portion of the multimedia content to be shared.
  • the server generates a URL that points to the new multimedia content to generate the multimedia content to be shared as new multimedia content, and then notifies the user to share the new multimedia content.
  • the amount of stored content on the server increases. That is, since the URL is generated corresponding to the content to be shared and the time required for processing a process and searching for the content in the server becomes long, high capacity and performance of the server are required.
  • many multimedia contents are repeated because the original multimedia contents and the newly generated multimedia contents are related in whole or in part.
  • multimedia content obtained by the client is included in the media stream.
  • multimedia content watched or listened to by a user is included in a media stream.
  • users can intercept multimedia content according to the point of time they wish to share among the multimedia content, but multimedia may depend on other components or space in the segment, such as partially intercepting such as video clips, audio and subtitles of movie clips. You cannot intercept content.
  • integrated bundling causes inconvenience to the user because the user is interested in some of the multimedia content instead of the entire multimedia content.
  • One embodiment of the present disclosure relates to a method of sharing in real time while watching or listening to multimedia content.
  • another embodiment of the present disclosure is directed to a method of sharing a portion of multimedia content.
  • the second client that receives the multimedia content provided by the server to the first client from the server includes information about at least one multimedia content selected for sharing among the multimedia content received by the first client. Is received from the first client, the request information of the multimedia content generated based on the shared information is transmitted to a server storing the multimedia content, and the multimedia content retrieved from the server is received based on the request information. And a processor for generating a communication interface and request information of the multimedia content, wherein the multimedia content may be provided together with characteristic information representing the content of the multimedia content.
  • users may share multimedia content in real time, and may selectively share only content of interest.
  • content related to the shared multimedia content may be provided.
  • FIG. 1 is a diagram illustrating a system architecture utilizing one embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating a multimedia content sharing interaction procedure according to an embodiment of the present disclosure.
  • FIG. 3 is a flowchart illustrating a method for transmitting multimedia content in a server according to an embodiment of the present disclosure.
  • FIG. 4 is a flowchart illustrating an operation of extracting feature information from each MPU according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram for describing mapping a relationship between feature information and an MPU according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram for describing an operation of broadcasting MPUs and feature information of MPUs to a client according to an embodiment of the present disclosure.
  • FIG. 7A illustrates a broadcast mode of an MPU in a conventional MMT protocol.
  • FIG. 7B is a diagram for explaining broadcast of MPU and characteristic information of an MPU after modification of an existing MMT protocol according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram for describing an MPU corresponding to specification information when the specification information includes time information, according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram for describing an MPU corresponding to specification information when the specification information includes spatial coordinates according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram for describing an MPU corresponding to specification information when the specification information includes component information, according to an embodiment of the present disclosure.
  • FIG. 11 is a flowchart illustrating a method of sharing multimedia content by a first client according to an embodiment of the present disclosure.
  • FIG. 12 is a flowchart illustrating a method of acquiring multimedia content in a second client according to an embodiment of the present disclosure.
  • FIG. 13 is a diagram for describing a structure of a server according to one embodiment of the present disclosure.
  • FIG. 14 is a diagram for explaining a structure of a first client sharing multimedia content with a second client according to one embodiment of the present disclosure.
  • FIG. 15 illustrates a structure of a second client that acquires multimedia content according to an embodiment of the present disclosure.
  • FIG. 16 is a diagram for describing structures of a first client and a second client according to another exemplary embodiment of the present disclosure.
  • FIG. 17 is a detailed diagram for explaining a structure of a first client and a second client according to an embodiment of the present disclosure.
  • FIG. 18 is a diagram for describing a method of receiving, by a server, multimedia content provided to a first client by a server according to an embodiment of the present disclosure.
  • the second client receiving the multimedia content provided by the server to the first client from the server may include information regarding at least one multimedia content selected for sharing among the multimedia content received by the first client.
  • Receiving sharing information from the first client transmitting request information of the multimedia content generated based on the sharing information to a server storing the multimedia content, and searching the server based on the request information.
  • a processor configured to receive the multimedia content, generate a communication interface, and request information of the multimedia content, wherein the multimedia content may be provided with characteristic information representing the content of the multimedia content.
  • the first client which receives multimedia content from a server and shares it with a second client, selects at least one multimedia content for sharing with the second client of the multimedia content received from the server and And a processor for generating a communication interface and sharing information of the multimedia content, the sharing interface comprising information about the selected multimedia content, the communication information, the multimedia content being content of the multimedia content. It may be provided with the characteristic information representing the.
  • a method of receiving, by a second client, multimedia content provided to a first client by a server from the server may include at least one multimedia content selected for sharing among the multimedia content received by the first client.
  • a recording medium having recorded thereon a program for execution on a computer records a method for editing text as a program for executing on a computer.
  • MPEG Moving Picture Experts Group
  • MPT Moving Picture Experts Group
  • ISO / IEC 23008-1 ISO protocol No. 1
  • MPU media processing unit
  • CI composition information
  • the CI entity (hereinafter referred to as CI) is an extension of HTML 5, and the terminal displays multimedia content based on the browser.
  • CI multimedia contents
  • MMT protocol different multimedia contents are each transmitted by different streams, typeset, rendered, and controlled by CI.
  • all CI transmissions are transmitted using a signaling message mode.
  • each signaling message may include many other table items.
  • the CI may be packed in a specific signaling message table entry at the server side.
  • the table item is sent to the client side with the signaling message.
  • NTP Network Time Protocol
  • the design of the MMT protocol is only for IP broadcast and does not take into account how to share multimedia content in real time while broadcasting.
  • FIG. 1 is a diagram illustrating a system architecture utilizing one embodiment of the present disclosure.
  • system architecture 100 may include a server 104, a share-transport client 110, and a share-target client 120.
  • Share-transfer client 110 may include various terminals, such as mobile phone 111, computer 112, and tablet device 113.
  • the terminal may communicate with an external device, transmit and receive information, and provide information to a user.
  • the terminal may be a tablet device, a smartphone, a notebook computer, a camera, but is not limited thereto.
  • share-target client 120 may include various terminals, such as mobile phone 121, computer 122, and tablet device 123.
  • Server 104 may communicate with various terminals of share-transport client 110 and various terminals of share-target client 120 for data exchange.
  • various terminals of the share-transport client 110 may communicate with various terminals of the share-target client 120 for data exchange.
  • FIG. 2 is a diagram illustrating a multimedia content sharing interaction process according to an embodiment of the present disclosure.
  • FIG. 2 One embodiment described in FIG. 2 is for explaining that one share-transport client 110, one share-target client 120, and one server 104 perform interaction.
  • the share-transport client 110 of FIG. 1 may correspond to the first client of FIG. 2, and the share-target client 120 of FIG. 1 may correspond to the second client of FIG. 2.
  • the server 104 may divide multimedia content into media processing units (MPUs), and extract feature information of each MPU.
  • MPUs media processing units
  • Server 104 is used to store multimedia content.
  • the server 104 may obtain multimedia content from an external device and process the multimedia content.
  • the server 104 may divide, combine, and delete multimedia content, and extract feature information of the multimedia content.
  • the operation of the server 104 to process the multimedia content is not limited thereto.
  • the feature information of the MPU may represent the contents of the MPU, and may represent part of the features of the MPU.
  • the MPU is a video of a natural landscape
  • “natural landscape” may be one of the features of the MPU.
  • the server 104 may divide the multimedia content into MPU units, and broadcast the multimedia content to the first client along with the feature information.
  • the first client may select multimedia content to be shared with the second client and generate sharing information.
  • the first client may select a part of the multimedia content received from the server 104 as the multimedia content to be shared with the second client.
  • the first client may generate sharing information corresponding to the multimedia content to be shared so that the second client may acquire the multimedia content selected by the first client.
  • the sharing information means information about a part to be shared in the multimedia content.
  • the sharing information may include a start time and end time of the multimedia content that the first client wants to share with the second client, a type of the multimedia content that is to be shared, and the like, but is not limited thereto.
  • the sharing information may include information of a time period.
  • the sharing information may include information corresponding to the space region.
  • the first client may transmit sharing information to the second client.
  • the first client may transmit sharing information to the specific second client.
  • the first client may not specify a second client that receives the sharing information.
  • the first client may send a shared message to the sharing platform, and the second client with access to the sharing platform may determine whether to receive the sharing information.
  • the second client may generate request information.
  • the second client may generate the request information corresponding to the sharing information after receiving the sharing information about the multimedia content from the first client.
  • whether the second client can acquire the multimedia content selected for sharing in the first client may be determined based on a user input of the second client.
  • the request information may be some information of shared information received by the second client from the first client.
  • the request information may include location information of the multimedia content.
  • the location may not only mean a spatial location, but may be defined as another type of location including section information (temporal location) and spatial location that specify a part of the multimedia content.
  • the second client may transmit request information regarding the multimedia content to the server 104.
  • server 104 may send the requested multimedia content to the second client.
  • the server 104 may find the multimedia content selected by the first client to share with the second client based on the request information, and transmit the multimedia content to the second client.
  • the server 104 since the first client does not transmit the shared information to the server 104 after generating the shared information, the server 104 does not generate new multimedia content and a URL indicating the new content based on the shared information. Therefore, even if the multimedia content is shared between clients, the server 104 does not consume additional storage space.
  • the multimedia content can be shared without limiting the storage space of the first client.
  • the server 104 may push the multimedia content related to the multimedia content selected for sharing by the first client to the first client and the second client.
  • server 104 may retrieve other multimedia content related to the shared multimedia content.
  • server 104 when server 104 receives request information from a second client, feature information of the multimedia content selected for sharing may be notified to server 104.
  • the server 104 may search for multimedia content related to the multimedia content based on the feature information.
  • the server 104 may transmit related multimedia content to the first client and the second client.
  • the request information transmitted from the second client to the server 104 may include an address of the first client. Accordingly, when the server 104 finds the address information of the first client in the request information, the server 104 may push the related multimedia content to the first client by referring to the address of the first client.
  • server 104 may obtain address information of the second client.
  • server 104 may push relevant multimedia content to a second client.
  • FIG. 3 is a flowchart illustrating a method for transmitting multimedia content in a server according to an embodiment of the present disclosure.
  • the server 104 may divide the multimedia content into a plurality of MPUs.
  • the MPU defines a constant packing format for the delivery of multimedia content and may pack time-dependent media content and non-time-dependent media content.
  • the MPU has an independent ISO Based Media File Format (ISOBMFF) structure, can consume multimedia content independently, and can hide specific details of the encoder and decoder in the transmission function.
  • the MPU may also include a plurality of image frames, some of the audio data and / or some of the subtitle information.
  • the server 104 may extract feature information from each MPU.
  • one MPU may correspond to one or more feature information.
  • the feature information corresponding to each MPU may be different from each other, partially overlapped, and the feature information corresponding to one MPU may be a subset of feature information corresponding to another MPU.
  • the server 104 may broadcast the MPU and characteristic information of the MPU to the first client.
  • the manner in which the MPU and the characteristic information of the MPU are broadcasted to the first client may vary depending on the communication protocol followed by the broadcasting operation.
  • MPUs of the multimedia content and feature information corresponding to the MPUs may be broadcast to the first client.
  • the multimedia content is divided into six MPUs (MPU1-MPU6)
  • the feature information corresponding to each of the MPUs may be features 1 to 6, respectively.
  • MPUs and feature information corresponding to MPUs may be transmitted in the following order.
  • features 1 through 3 and features 4 through 6 may be analyzed, respectively, and duplicate feature information may be removed.
  • feature A including all feature information from feature 1 to feature 3 and feature B including all feature information from feature 4 to feature 6 may be generated and transmitted according to the following order.
  • MPUs and feature information corresponding to the MPUs may be broadcast to the first client from step 310 to step 330.
  • FIG. 4 is a flowchart illustrating an operation of extracting feature information from each MPU according to an embodiment of the present disclosure.
  • the server 104 may classify the MPUs into a plurality of categories according to the type of multimedia content.
  • the server 104 may extract feature information based on each category of the classified MPUs.
  • the type of multimedia content may include an image, a sound, or a video.
  • MPUs may be classified based on the multimedia content included in the MPU being an image.
  • MPUs may be classified according to TV station caption included in the images of the MPUs. Therefore, the multimedia content of other TV stations can be classified into different categories, and information about the TV station where MPUs are broadcast can be extracted as feature information.
  • the MPUs may be classified based on the fact that the multimedia content included in the MPU is sound.
  • MPUs can be classified according to the names of others included in the audio of the MPUs. Accordingly, multimedia content corresponding to other people may be classified into other categories, and names of people included in MPUs may be extracted as feature information.
  • the MPUs may be classified based on the multimedia content included in the MPU being video.
  • the server 104 may indirectly determine a category according to subtitle information of the MPU and extract feature information corresponding to the category, in order to classify MPUs in other multimedia contents into different categories. That is, MPUs containing different kinds of contents may be classified into different categories.
  • the server 104 may generate a relationship table between the feature information and the MPUs.
  • the MPU and the feature information may have a many-to-many correspondence.
  • one MPU may have a plurality of feature information, and a plurality of MPUs may have the same feature information.
  • FIG. 5 is a diagram for describing mapping of a relationship between feature information and MPUs according to an embodiment of the present disclosure.
  • MPUs 510 of FIG. 5 include MPU1, MPU2 and MPU3.
  • Feature information 520 includes feature A, feature B, feature C, and feature D.
  • MPU1 has feature B and feature D
  • MPU2 has feature A, feature B and feature C
  • MPU3 has feature C and feature D.
  • a unique feature value may be assigned to each feature information (eg, 530 of FIG. 5).
  • feature A corresponds to feature value 101 one-to-one
  • feature B corresponds to feature value 102 one-to-one
  • feature C corresponds to feature value 203 one-to-one
  • feature D Correspond to the feature value 406 one-to-one.
  • one unique feature value is assigned to each feature information.
  • step 330 is a diagram for describing a flowchart of an embodiment of step 330.
  • the server 104 may send the MPUs to the first client sequentially in time intervals.
  • the server 104 may transmit a signaling message according to a period, in which the signaling message may include a feature table and characteristic information of the MPU transmitted in the period and a relationship table between the MPUs.
  • time interval for transmitting the MPU” and the “period for transmitting the signaling message” may be the same or different.
  • the server 104 may send a 'feature A, MPU1;
  • the MPU and feature information can be broadcast in a signal-data format such as feature B, MPU2 '.
  • feature A may be feature information corresponding to MPU1
  • feature B may be feature information corresponding to MPU2.
  • the server 104 sends the first client a 'feature C, MPU1, MPU2; MPU and feature information can be broadcast in signal-data formats such as feature D, MPU3, MPU4 '.
  • feature C may be feature information corresponding to MPU1 and MPU2
  • feature D may be feature information corresponding to MPU3 and MPU4.
  • step 620 may be implemented as follows.
  • the first MPU may be determined to be sent in a period for a signaling message.
  • the first MPU is an MPU transmitted in a period for a signaling message.
  • the feature information of the first MPU will be retrieved based on the relationship table between the feature information and the MPU. For example, feature information of respective MPUs transmitted in a period for a signaling message may be retrieved according to the relationship table described in FIG. 5.
  • the feature information and feature information of the first MPU and the relationship table between the first MPU are added to the signaling message.
  • the feature information and the relationship table are broadcast while the signaling message is broadcast to the client.
  • the MMT protocol may be used to transmit MPU and characteristic information of the MPU.
  • FIG. 7A illustrates a broadcast mode of an MPU in a conventional MMT protocol.
  • the MPUs may be sent in the mode shown in FIG. 7A and the CI may be sent in the signaling message mode.
  • the transmission is performed in CI-MPU sequence.
  • the MPU 72 includes video data V 1 and audio data A 1 .
  • the current MMT protocol does not support the transmission of feature information of the MPU.
  • the content of the CI is always the same in each transmission.
  • the format of the CI may be modified by adding a sub-item for the feature information corresponding to the MPU to the CI.
  • the following information may be added to the CI.
  • feature 1 to feature N represent feature information corresponding to MPUs.
  • FIG. 7B is a diagram for describing a broadcast mode of an MPU and characteristic information of an MPU after changing an existing MMT protocol.
  • the changed CI includes the characteristic information of the MPU in the packet transmission period.
  • the CI 71 ′ in the period includes the characteristic information A and the characteristic information B of the MPU in the period 711.
  • the method for transmitting the multimedia content by the server 104 may further include the following steps.
  • the server 104 may receive request information of multimedia content selected for sharing in the first client from the second client.
  • the request information includes specification information of the MPUs in which the requested multimedia content is divided.
  • the specification information is used to describe the information of the MPUs included in the requested portion of the multimedia content.
  • the specification information may be described as location information of MPUs in the requested multimedia content.
  • the word "position" has a broader meaning than the spatial position.
  • the specification information can accurately describe the MPUs included in the requested multimedia content.
  • the specification information may include additional information related to time, spatial coordinates, components, and multimedia.
  • the components of the multimedia content may include video information, audio information, or subtitle information
  • the additional information related to the multimedia content may include text describing the multimedia content or information about an application for executing the multimedia content.
  • FIG. 8 is a diagram for describing an MPU 800 corresponding to specification information when the specification information includes time information, according to an embodiment of the present disclosure.
  • multimedia content may be divided into an MPU 810, an MPU 820, an MPU 830, and an MPU 840 in order.
  • the request information may include specification information for describing time information of the MPU 820 and the MPU 830.
  • the specification information may include a start time 802 of the MPU 820 and an end time 803 of the MPU 830.
  • start time 802 of the MPU 820 and the end time 803 of the MPU 830 may be described as “ sequence _ number: start _ time - end _ time ”Can be added to the CI by adding the specification syntax.
  • the specification information may include the start time 802 of the MPU 820 and the duration 804 of the MPU 820 and the MPU 830.
  • broadcast request information is transmitted under the MMT protocol framework, the following specification syntax may be added to the CI.
  • sequence_number start_time-duaration .
  • the specification information may further include the duration 804 of the MPU 820 and the MPU 830 and the end time 803 of the MPU 830.
  • the following specification syntax may be added to the CI.
  • FIG. 9 is a diagram for describing an MPU 900 corresponding to specification information when the specification information includes spatial coordinates according to an embodiment of the present disclosure.
  • the multimedia content may be divided from the MPU 901 to the MPU 909 according to spatial coordinates from left to right, from top to bottom.
  • the specification information is in the upper left corner of the dotted box 910. It may include a start coordinate value 911 of the MPU 905 located at and an end coordinate value 912 of the MPU 909 located at the lower right corner of the dotted line box 910.
  • information for describing the start coordinate value of the MPU 905 and the end coordinate value of the MPU 909 may be added to the CI.
  • it can be added as follows.
  • x1 and y1 are the x and y coordinate values of the start point of the MPU 905, respectively, and x2 and y2 are the x and y coordinate values of the end point of the MPU 909, respectively.
  • FIG. 10 is a diagram for describing an MPU 1000 corresponding to specification information when the specification information includes component information.
  • the multimedia content may be divided into a first track 1010, a second track 1020, and a third track 1030 according to other components.
  • the first trajectory 1010 includes an MPU 1011, an MPU 1012, and an MPU 1013;
  • the second trajectory 1020 includes an MPU 1021, an MPU 1022, and an MPU 1023;
  • the third trajectory 1030 may include an MPU 1031, an MPU 1032, and an MPU 1033.
  • the specification information may include the MPU 1031, the MPU 1032, and the MPU 1033. Component information may be included.
  • information for describing the components of the MPU 1031, the MPU 1032, and the MPU 1033 may be added to the CI.
  • it can be added as follows.
  • the additional information may be added to the specification information.
  • information for describing additional information may be added to the CI.
  • it can be added as follows.
  • time, spatial coordinates, components, and additional information associated with the multimedia content when the requested content needs to be described, time, spatial coordinates, components, and additional information associated with the multimedia content are required.
  • the content with may be included in the specification information to accurately describe the requested content.
  • the broadcast request information may include characteristic information of the MPU in the requested multimedia content.
  • the method of one embodiment includes the following:
  • the server 104 may search for multimedia content related to the requested multimedia content based on the feature information included in the request information.
  • the server 104 may push related multimedia content to the second client.
  • the request information includes characteristic information of MPUs in which the requested multimedia content is divided. Accordingly, the server 104 may search for other multimedia content in which different MPUs having the same characteristic information are combined based on the request information. In addition, the retrieved multimedia content may be pushed to the second client that has sent the request information.
  • multimedia content combined with the MPUs having the same characteristic information as some of the plurality of divided MPUs as the requested multimedia content may be determined as related multimedia content and pushed to the second client.
  • the MPU of the requested multimedia content includes four characteristic information of A, B, C and D.
  • the server 104 may determine the multimedia content including three pieces of feature information as related multimedia content.
  • the request information may include the address of the first client.
  • the method of the embodiment may include the following steps.
  • the server 104 may push related multimedia content to the first client.
  • the address of the first client may include information about an IP address of the first client and information on a port for performing a sharing operation in the first client, for example, on-demand monitoring port information. .
  • the related multimedia content retrieved in step 360 by the server 104 may be pushed to the first client.
  • FIG. 11 is a flowchart illustrating a method of sharing multimedia content by a first client according to an embodiment of the present disclosure.
  • the first client may receive multimedia content in the form of an MPU.
  • the first client may receive feature information corresponding to the MPU together with the MPU.
  • the first client may receive the multimedia content from the server 104.
  • the first client may select multimedia content shared with the second client from among the received multimedia content.
  • the first client may receive a signal from one of a remote controller, a touch screen, a microphone, a camera, and an ultrasonic gesture sensor from a user to select multimedia content shared with the second client.
  • the MPU of the multimedia content shared with the second client may be selected according to one of time, spatial coordinates, components, and additional information related to the multimedia content.
  • the additional information may include text describing the multimedia content or information about an application for executing the multimedia content.
  • the first client may generate sharing information according to the selected multimedia content.
  • the sharing information may include specification information and feature information of MPUs in the multimedia content selected for sharing.
  • the first client may transmit sharing information to the second client.
  • the first client may transmit the shared information to the second client, and may not specify a destination where the shared information is transmitted.
  • the first client may send shared information to a shared platform such as microblog, WeChat's circle of friends.
  • step 1110 may include receiving MPUs sequentially according to a predetermined time interval; And receiving a signaling message according to a predetermined period.
  • the signaling message may include characteristic information and characteristic information of the MPU transmitted in a period for the signaling message and a relationship table between the MPUs.
  • step 1130 may include generating specification information according to the selected MPU; Retrieving feature information of the MPUs in the multimedia content selected for sharing based on the feature information and the relationship table between the MPUs; And including specification information and feature information in shared information.
  • step 1130 may further include adding the address of the first client to the sharing information.
  • transport address attributes may be added to the CI.
  • FIG. 12 is a flowchart illustrating a method of acquiring multimedia content in a second client according to an embodiment of the present disclosure.
  • the second client may obtain sharing information from the first client.
  • the sharing information may include specification information and feature information of MPUs in which multimedia content is divided.
  • the second client may generate request information corresponding to the sharing information.
  • the request information may include specification information.
  • the second client may transmit request information of the multimedia content to the server 104 in which the multimedia content is stored.
  • the second client may receive multimedia content from the server 104 based on the request information.
  • step 1220 may further include the second client adding the address of the first client to the request information.
  • the second client may further include the feature information in the request information.
  • the second client may further include receiving multimedia content related to the multimedia content selected to be shared by the first client from the server 104.
  • the related multimedia content is the multimedia content recommended from the server 104 based on the feature information.
  • FIG. 13 is a diagram for describing a structure of a server according to one embodiment of the present disclosure.
  • the server 104 may include a partition module 1310, an extraction module 1320, and a broadcast module 1330.
  • the dividing module 1310 may divide the multimedia content into a plurality of MPUs.
  • the extraction module 1320 may extract feature information from each MPU.
  • the broadcast module 1330 may broadcast the MPUs and feature information of the MPUs to the client.
  • the extraction module 1320 may include a clustering unit 1321, an extraction unit 1322, and a relationship table generator 1323.
  • the clustering unit 1321 may classify the MPUs into a plurality of categories based on the attributes of the multimedia contents of the MPUs.
  • the extractor 1322 may extract feature information from each classified category.
  • the relationship table generator 1323 may generate a relationship table between the feature information and the MPUs.
  • the property of the multimedia content may include an image property, a sound property, or a content property.
  • the broadcast module 1330 may include a first transmitter 1331 and a second transmitter 1332.
  • the first transmitter 1331 may sequentially transmit the MPUs to the first client according to a time interval.
  • the second transmitter 1332 may transmit a signaling message according to a period.
  • the signaling message may include characteristic information and characteristic information of the MPU transmitted in the period to which the signaling message belongs and a relationship table between the MPUs.
  • the second transmitter 1332 further determines the first MPU transmitted in a period for transmitting the signaling message; Retrieve feature information of the first MPU based on the feature information and the relationship mapping between the MPUs; Feature information of the first MPU and a relationship table between the first MPU and the feature information may be added to the signaling message.
  • the server 104 may further include a receiving module 1340 and a transmitting module 1350.
  • the reception module 1340 may receive broadcast request information from the client.
  • the broadcast request information may include specification information of MPUs in the multimedia content.
  • the transmission module 1350 may transmit the requested multimedia content to the client that transmitted the broadcast request information.
  • the specification information may include time, spatial coordinates, components, or additional information related to the multimedia content.
  • the additional information may include text describing the multimedia content or information about an application for executing the multimedia content.
  • the broadcast request information may further include feature information of MPUs in which the requested multimedia content is divided.
  • the server 104 may further include a search module 1360.
  • the search module 1360 may search for related multimedia content related to the requested multimedia content based on the feature information.
  • the transmission module 1350 may further push the related multimedia content to the client that transmitted the broadcast request information.
  • the broadcast request information may further include an address of the first client to share the multimedia content with the second client.
  • the transmission module 1350 may further push related multimedia content to the first client based on the address of the first client included in the broadcast request information.
  • FIG. 14 is a diagram for explaining a structure of a first client sharing multimedia content with a second client according to one embodiment of the present disclosure.
  • the first client 1400 may include a reception module 1410, a selection module 1420, a generation module 1430, and a transmission module 1440.
  • the reception module 1410 may receive multimedia content from the server 104.
  • the reception module 1410 may receive multimedia content in the form of an MPU, and may receive feature information corresponding to each MPU.
  • the selection module 1420 may select the at least one MPUs from the multimedia content as the multimedia content sharing with the second client.
  • the generation module 1430 may generate sharing information for the multimedia content selected for sharing with the second client.
  • the sharing information includes specification information and feature information of MPUs in which multimedia content is divided.
  • the transmission module 1440 may transmit shared information.
  • the receiving module 1410 may receive MPUs sequentially from the server 104 in time intervals and receive a signaling message in cycles.
  • the signaling message includes the characteristic information and characteristic information of the MPU transmitted in the period for the signaling message and the relationship table between the MPUs.
  • the generation module 1430 generates specification information about the multimedia content to be shared; Search for feature information of MPUs in the multimedia content to be shared based on the feature information and the relationship table between the MPUs; Specification information and feature information can be added to shared information.
  • the generation module 1430 may add the address of the first client to the sharing information.
  • the selection module 1420 may select an MPU according to time, spatial coordinates, components, or additional information related to a multimedia document.
  • the additional information may include text describing the multimedia content or information about an application for executing the multimedia content.
  • the transmission module 1440 may include a first transmitter 1442 and a second transmitter 1442.
  • the first transmitter 1442 may transmit the shared information to the second client, and the second transmitter 1442 may transmit the shared information to the shared platform.
  • FIG. 15 illustrates a structure of a second client that acquires multimedia content according to an embodiment of the present disclosure.
  • the second client 1500 may include an acquisition module 1510, a generation module 1520, a transmission module 1530, and a reception module 1540.
  • the obtaining module 1510 may obtain sharing information from the first client.
  • the sharing information includes specification information and feature information of the MPU in shared multimedia content.
  • the generation module 1520 may generate request information according to the sharing information.
  • the request information may include specification information.
  • the transmission module 1530 may transmit the request information to the server 104.
  • the receiving module 1540 may receive the multimedia content from the server 104.
  • the generation module 1520 may add the address of the first client to the request information.
  • the receiving module 1540 may receive related multimedia content, where the related multimedia content may be multimedia content associated with the shared multimedia content and recommended by the server 104 based on the feature information.
  • FIG. 16 is a diagram for describing structures of a first client and a second client according to another exemplary embodiment of the present disclosure.
  • the first client and the second client may include a communication interface 1610 and a processor 1620.
  • the communication interface 1610 of the first client selects at least one multimedia content for sharing with the second client among the multimedia contents received from the server 104, and provides sharing information including information regarding the selected multimedia content. Can send to 2 clients.
  • the processor 1620 of the first client may generate sharing information of the multimedia content.
  • the communication interface 1610 of the second client receives sharing information from the first client, the sharing information including information about at least one multimedia content selected for sharing among the multimedia contents received by the first client, and based on the sharing information.
  • the request information of the generated multimedia content may be transmitted to the server 104 in which the multimedia content is stored, and the multimedia content retrieved from the server 104 may be received based on the request information.
  • the communication interface 1610 of the second client may receive from the first client a relationship table in which the relationship between the MPU generated by the server 104 and the feature information is defined.
  • the communication interface 1610 of the second client may receive the multimedia content determined to be related to the multimedia content by the server 104, wherein the related multimedia content includes a plurality of features when the feature information is plural. It may mean a multimedia content having the same characteristic information as some of the information.
  • the processor 1620 of the second client may generate request information of the multimedia content for transmission to the server 104.
  • the sharing information may include address information of the first client, and the processor 1620 of the second client may generate request information including address information of the first client.
  • FIG. 17 is a detailed diagram for explaining a structure of a first client and a second client according to an embodiment of the present disclosure.
  • the first client and the second client 1700 may include an A / V input unit 1730, a memory 1740, a sensing unit 1750, and an output unit ( 1760).
  • processor 1710 corresponds to the processor 1620 of FIG. 16, a detailed description thereof will be omitted.
  • the communication interface 1720 may include a short range communication unit 1721, a mobile communication unit 1722, and a broadcast receiving unit 1723.
  • the short-range wireless communication unit 1721 includes a Bluetooth communication unit, a BLE (Bluetooth Low Energy) communication unit, a near field communication unit, a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared ray ( IrDA (Infrared Data Association) communication unit, WFD (Wi-Fi Direct) communication unit, UWB (ultra wideband) communication unit, Ant + communication unit and the like, but may not be limited thereto.
  • a Bluetooth communication unit a BLE (Bluetooth Low Energy) communication unit, a near field communication unit, a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared ray ( IrDA (Infrared Data Association) communication unit, WFD (Wi-Fi Direct) communication unit, UWB (ultra wideband) communication unit, Ant + communication unit and the like, but may not be limited thereto.
  • the mobile communication unit 1722 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the broadcast receiving unit 1723 receives a broadcast signal and / or broadcast related information from the outside through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the A / V input unit 1730 is for inputting an audio signal or a video signal, and may include a camera, a microphone, and the like.
  • the memory 1740 may store a program for processing and controlling the processor 1710, and may store data input to the first client and the second client 1700 or output from the first client and the second client 1700. You can also save.
  • the sensing unit 1750 may detect a state of the first client and the second client 1700 or a state of the surroundings and transmit the detected information to the processor 1710.
  • the sensing unit 1750 may include a geomagnetic sensor, an acceleration sensor, an temperature / humidity sensor, an infrared sensor, a gyroscope sensor, a position sensor (eg, a GPS), an air pressure sensor, a proximity sensor, and an RGB sensor. It may include at least one of the (illuminance sensor), but is not limited thereto.
  • the output unit 1760 may output an audio signal or a video signal, and may include a display unit 1701 and a sound output unit 1762.
  • FIG. 18 is a diagram for describing a method of receiving, by a server, multimedia content provided to a first client by a server according to an embodiment of the present disclosure.
  • the second client may receive sharing information about at least one multimedia content selected for sharing among multimedia contents received by the first client from the first client.
  • the first client may select some multimedia content for sharing while receiving the multimedia content in a streaming manner.
  • the first client may select to share some of the multimedia content being broadcast from the server with the second client.
  • the multimedia content is divided into MPUs by the server 104, and feature information is generated based on the classification of the MPUs according to the type of the multimedia content, and the type of the multimedia content may include an image, text, sound, or video. Can be.
  • the second client may receive from the first client a relationship table in which the relationship between the MPU generated by the server 104 and the feature information is defined.
  • the request information includes the feature information
  • the second client may receive the multimedia content determined to be related to the multimedia content by the server 104, wherein the related multimedia content may be plural when the feature information is plural. It may refer to multimedia content having the same feature information as some of the feature information.
  • the sharing information may include section information specifying a part of the multimedia content or information regarding a location where the multimedia content is stored.
  • the request information may include specification information of the multimedia content, and the specification information may include additional information related to a component or multimedia content defined as a type of content constituting the multimedia content.
  • the component may include video information, audio information, or subtitle information
  • the additional information related to the multimedia content may include information about an application for executing text or multimedia content describing the multimedia content.
  • the feature information may be included in the CI in the signaling message and broadcasted.
  • the second client may generate request information of the multimedia content based on the sharing information.
  • the sharing information may include address information of the first client
  • the generating of the request information may include generating request information including address information of the first client.
  • the second client may transmit request information to the server 104 in which the multimedia content is stored.
  • the second client may receive the multimedia content, retrieved from the server 104, based on the request information.
  • the above-described embodiment may be created by a program that may be executed by a computer, and may be generated by the computer. It may be implemented in a general-purpose digital computer for operating the program using a readable medium.
  • the structure of the data used in the above-described embodiment can be recorded on the computer-readable medium through various means.
  • the above-described embodiments may be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by the computer. For example, methods implemented with a software module or algorithm may be stored on a computer readable recording medium as code or program instructions that the computer can read and execute.
  • Computer readable media can be any recording media that can be accessed by a computer, and can include volatile and nonvolatile media, removable and non-removable media.
  • Computer-readable media may include, but are not limited to, magnetic storage media such as ROM, floppy disks, hard disks, and the like, and optical storage media such as CD-ROMs, DVDs, etc. Do not.
  • the computer readable medium may include computer storage media and communication media.
  • a plurality of computer-readable recording media may be distributed in networked computer systems, and data stored in the distributed recording media, for example, program instructions and code, may be executed by at least one computer. have.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 멀티미디어 컨텐츠의 전송 및 공유 방법과 멀티미디어 컨텐츠를 전송 및 공유하는 장치를 개시한다. 제 2 클라이언트가 서버에 의해 제 1 클라이언트에 제공된 멀티미디어 컨텐츠를 상기 서버로부터 수신하는 방법은, 상기 제 1 클라이언트가 수신하는 상기 멀티미디어 컨텐츠 중 공유를 위해 선택된 적어도 하나의 멀티미디어 컨텐츠에 관한 공유 정보를 상기 제 1 클라이언트로부터 수신하는 단계; 상기 공유 정보에 기초하여, 상기 멀티미디어 컨텐츠의 요청 정보를 생성하는 단계; 상기 멀티미디어 컨텐츠가 저장된 서버에 상기 요청 정보를 송신하는 단계; 및 상기 요청 정보에 기초하여 상기 서버에서 검색된, 상기 멀티미디어 컨텐츠를 수신하는 단계;를 포함할 수 있다.

Description

멀티미디어 컨텐츠를 공유하는 방법 및 장치
본 개시는 일반적으로 멀티미디어의 기술적 분야에 관한 것으로, 구체적으로 브로드캐스트 모드에서 멀티미디어 컨텐츠의 빠른 공유 기술에 관한 것이고, 더 구체적으로 멀티미디어 컨텐츠의 전송 및 공유 방법과 멀티미디어 컨텐츠를 전송 및 공유하는 장치에 관한 것이다.
멀티미디어 컨텐츠를 공유하기 위한 두 가지 모드가 존재하는데, 그 중 하나는 멀티미디어 컨텐츠 전체를 공유하는 것이다. 전체 공유 모드가 가능하려면, 멀티미디어 컨텐츠가 불연속적이고, 멀티미디어 컨텐츠의 크기가 제한적이여야 한다. 한편, 다른 공유 모드로는 멀티미디어 컨텐츠의 일부를 공유하는 부분 공유 모드가 있다. 이때 브로드캐스트 모드에서 사용자간 멀티미디어 컨텐츠를 공유할 때에는 모두 부분 공유 모드이다. 다시 말해서, 사용자는 멀티미디어 컨텐츠의 일부에만 관심이 있고, 특정 방법을 통해 컨텐츠를 공유하는 것을 원한다.
그러나, 기존의 브로드캐스트 TV는 상향 링크(upstream pathway) 없이 하향 링크만을 가진 단방향성을 갖는다. 그러므로 사용자는 기존의 브로드캐스트 네트워크에서 멀티미디어 컨텐츠를 시청하거나 청취하는 중에는 실시간 공유를 수행하지 못한다.
종래 기술로는 IP(Internet Protocol) 기술에 기초한 브로드캐스트 기술이 있다. IP 기술에 기초한 브로드캐스트 구현은 두 가지 종류로 분류되는데, 그 중 하나는 주문형 광대역(on-demand broadband)에 기초한 기술이고, 다른 하나는 IP 멀티캐스트/브로드캐스트에 기초한 기술이다.
주문형 광대역에 기초한 기술의 경우, 먼저 클라이언트 측의 사용자는 서버로부터 현재 브로드캐스트 진행 정도, 브로드캐스트 채널 및 수신 권한과 같은 현재 브로드캐스트에 관한 파라미터를 획득한다. 그 후 사용자는 획득된 파라미터와 대응하는 데이터 스트림을 서버에 요청한다. 따라서, 브로드캐스트 과정 전반에 걸쳐 브로드캐스트되는 데이터 스트림이 존재하지 않더라도, 사용자 관점에서는 데이터 스트림이 브로드캐스트되는 효과를 달성할 수 있다.
한편, IP 멀티캐스트/브로드캐스트에 기초한 기술의 경우, 서버는 연속적인 데이터 스트림을 멀티캐스트 주소 또는 브로드캐스트 주소로 전송한다. 이때 클라이언트 측은 브로드캐스트되는 멀티미디어 컨텐츠를 수신하기 위해, 멀티미디어 컨텐츠와 대응되는 멀티캐스트 그룹 또는 브로드캐스트 그룹에 가입한다.
즉, 주문형 광대역 및 IP 멀티캐스트/브로드캐스트에 기초한 두 가지 기술 모두 IP 기술을 기초로 한다. 두 가지 기술들은 브로드캐스트를 위한 하향 링크를 가지고, 클라이언트 측은 상향 링크를 통해 서버에게 요청 정보를 전송할 수 있다. 그러므로, 사용자가 멀티미디어 컨텐츠를 시청하거나 청취하는 중에도, 해당 멀티미디어 컨텐츠를 다른 사용자들과 공유하는 것이 가능하다.
주문형 광대역에 기초한 기술의 경우, 컨텐츠 실시간 공유 기술은 이미 존재한다. 구체적으로, 사용자는 특정 멀티미디어 컨텐츠를 시청하거나 청취하는 중에, 관심 있는 컨텐츠의 시간 정보를 기록하고, 컨텐츠와 관련된 정보를 서버에 업로드할 수 있다. 이때 서버는 원본 멀티미디어 컨텐츠를 인터셉트하고 (intercepts), 사용자에 의해 업로드된 관심 있는 멀티미디어 컨텐츠에 관한 정보에 따라 원본 멀티미디어 컨텐츠로부터 새로운 멀티미디어 컨텐츠를 생성하고, 새로운 멀티미디어 컨텐츠에 접근할 수 있는 URL(Uniform Resource Locator)을 생성하고, 다른 사용자들에게 URL을 제공한다. 다른 사용자들은 URL을 이용하여 새로운 멀티미디어 컨텐츠를 공유할 수 있다. 이러한 실시간 공유 방법은 지금까지 멀티미디어 컨텐츠를 브로드캐스팅하기 위해 사용되어 왔다.
이러한 공유 모드에서, 만약 사용자가 멀티미디어 컨텐츠의 일부를 공유하는 것을 원한다면, 사용자는 멀티미디어 컨텐츠 중에서 공유하고자 하는 부분의 시작 시간 및 종료 시간과 같은, 멀티미디어 컨텐츠의 파라미터를 서버에 통지할 필요가 있다. 서버는 공유하려는 멀티미디어 컨텐츠를 새로운 멀티미디어 컨텐츠로 생성하기 위해, 새로운 멀티미디어 컨텐츠를 가리키는 URL을 생성하고 나서, 새로운 멀티미디어 컨텐츠를 공유하기 위해 사용자에게 통지한다. 이러한 과정이 진행되면서, 서버에 있는 저장된 컨텐츠의 양은 증가된다. 즉, 공유하고자 하는 컨텐츠에 대응하여 URL이 생성되고, 서버에서 한 과정을 처리하고 컨텐츠를 검색하는 데 걸리는 시간이 길어지기 때문에, 서버의 높은 용량과 성능이 요구된다. 그러나 실제 컨텐츠의 관점에서, 원본 멀티미디어 컨텐츠와 새로 생성되는 멀티미디어 컨텐츠들은 전체 또는 일부가 서로 관련 있기 때문에, 많은 멀티미디어 컨텐츠들이 반복된다.
한편 공유기(sharer)에서, 서버 처리 시간 및 네트워크 상호작용 시간의 증가로 인해 실시간으로 컨텐츠를 공유하는 데 어려움이 있다.
또한, 기존의 요구형(on-demand)에 기초하는 공유 모드에서는, 클라이언트에 의해 획득된 멀티미디어 컨텐츠가 미디어 스트림에 포함된다. 예를 들면, 사용자(공유기 및 수신기를 포함하는)가 시청하거나 청취한 멀티미디어 컨텐츠는 미디어 스트림에 포함된다. 따라서, 사용자들은 멀티미디어 컨텐츠 중에서 공유하고자 하는 시점에 따라 멀티미디어 컨텐츠를 인터셉트할 수 있지만, 영화 클립의 비디오, 오디오 및 자막과 같은 것을 부분적으로 인터셉트하는 것과 같이, 세그먼트에서 다른 구성요소들 또는 공간에 따라 멀티미디어 컨텐츠를 인터셉트할 수 없다. 그러나 대부분 경우에, 사용자는 전체 멀티미디어 컨텐츠 대신, 멀티미디어 컨텐츠의 일부에 관심이 있기 때문에, 통합 번들(integrative bundling)은 사용자에게 불편함을 야기한다.
또한, 사용자에 의해 구체화된 컨텐츠만 공유될 수 있고, 컨텐츠에 관한 연관 기능 및 추천 기능이 부족할 수 있다.
본 개시의 일 실시예는 멀티미디어 컨텐츠를 시청하거나 청취하는 중에 실시간으로 공유하는 방법에 관한 것이다. 또한, 본 개시의 다른 실시예는 멀티미디어 컨텐츠의 일부를 공유하는 방법에 관한 것이다.
서버에 의해 제 1 클라이언트에 제공된 멀티미디어 컨텐츠를 상기 서버로부터 수신하는 제 2 클라이언트는, 상기 제 1 클라이언트가 수신하는 상기 멀티미디어 컨텐츠 중 공유를 위해 선택된 적어도 하나의 멀티미디어 컨텐츠에 관한 정보를 포함하는, 공유 정보를 상기 제 1 클라이언트로부터 수신하고, 상기 공유 정보에 기초하여 생성된 상기 멀티미디어 컨텐츠의 요청 정보를 상기 멀티미디어 컨텐츠가 저장된 서버에 송신하고, 상기 요청 정보에 기초하여 상기 서버에서 검색된, 상기 멀티미디어 컨텐츠를 수신하는, 통신 인터페이스 및 상기 멀티미디어 컨텐츠의 요청 정보를 생성하는, 프로세서를 포함하고, 상기 멀티미디어 컨텐츠는 상기 멀티미디어 컨텐츠의 내용을 대표하는 특징 정보와 함께 제공될 수 있다.
본 개시에 따르면, 사용자들은 멀티미디어 컨텐츠를 실시간으로 공유할 수 있고, 관심있는 컨텐츠만 선택적으로 공유할 수 있다. 또한, 공유된 멀티미디어 컨텐츠와 관련된 컨텐츠를 제공받을 수 있다.
도 1은 본 개시의 일 실시예를 이용하는 시스템 아키텍처를 도시한 도면이다.
도 2는 본 개시의 일 실시예에 따른, 멀티미디어 컨텐츠 공유 상호작용 절차를 도시한 도면이다.
도 3은 본 개시의 일 실시예에 따라, 서버에서 멀티미디어 컨텐츠를 전송하기 위한 방법을 설명하기 위한 흐름도이다.
도 4는 본 개시의 일 실시예에 따라, 특징 정보가 각 MPU에서 추출되는 단계를 설명하기 위한 흐름도이다.
도 5는 본 개시의 일 실시예에 따라, 특징 정보와 MPU간 관계를 매핑하는 것을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시예에 따라, MPU들 및 MPU들의 특징 정보를 클라이언트에 브로드캐스트하는 단계를 설명하기 위한 도면이다.
도 7a는 기존의 MMT 프로토콜에서 MPU의 브로드캐스트 모드를 설명하기 위한 도면이다.
도 7b는 본 개시의 일 실시예에 따라, 기존의 MMT 프로토콜의 수정 후, MPU 및 MPU의 특징 정보를 브로드캐스트 하는 것을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시예에 따라, 명세 정보가 시간 정보를 포함할 때 명세 정보에 대응하는 MPU를 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시예에 따라, 명세 정보가 공간 좌표를 포함할 때 명세 정보에 대응하는 MPU를 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시예에 따라, 명세 정보가 구성 요소들 정보를 포함할 때 명세 정보에 대응하는 MPU를 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시예에 따라, 제 1 클라이언트가 멀티미디어 컨텐츠를 공유하는 방법을 설명하기 위한 흐름도이다.
도 12는 본 개시의 일 실시예에 따라, 제 2 클라이언트에서 멀티미디어 컨텐츠를 획득하는 방법을 설명하기 위한 흐름도이다.
도 13은 본 개시의 일 실시예에 따라, 서버의 구조를 설명하기 위한 도면이다.
도 14는 본 개시의 일 실시예에 따라, 제 2 클라이언트와 멀티미디어 컨텐츠를 공유하는 제 1 클라이언트의 구조를 설명하기 위한 도면이다.
도 15는 본 개시의 일 실시예에 따라, 멀티미디어 컨텐츠를 획득하는 제 2 클라이언트의 구조를 설명하기 위한 도면이다.
도 16은 본 개시의 다른 실시예에 따른 제 1 클라이언트 및 제 2 클라이언트의 구조를 설명하기 위한 도면이다.
도 17은 본 개시의 일 실시예에 따른 제 1 클라이언트 및 제 2 클라이언트의 구조를 설명하기 위한 상세 도면이다.
도 18은 본 개시의 일 실시예에 따라, 제 2 클라이언트가 서버에 의해 제 1 클라이언트에 제공된 멀티미디어 컨텐츠를 수신하는 방법을 설명하기 위한 도면이다.
일 실시예에 따라, 서버에 의해 제 1 클라이언트에 제공된 멀티미디어 컨텐츠를 상기 서버로부터 수신하는 제 2 클라이언트는, 상기 제 1 클라이언트가 수신하는 상기 멀티미디어 컨텐츠 중 공유를 위해 선택된 적어도 하나의 멀티미디어 컨텐츠에 관한 정보를 포함하는, 공유 정보를 상기 제 1 클라이언트로부터 수신하고, 상기 공유 정보에 기초하여 생성된 상기 멀티미디어 컨텐츠의 요청 정보를 상기 멀티미디어 컨텐츠가 저장된 서버에 송신하고, 상기 요청 정보에 기초하여 상기 서버에서 검색된, 상기 멀티미디어 컨텐츠를 수신하는, 통신 인터페이스 및 상기 멀티미디어 컨텐츠의 요청 정보를 생성하는, 프로세서를 포함하고, 상기 멀티미디어 컨텐츠는 상기 멀티미디어 컨텐츠의 내용을 대표하는 특징 정보와 함께 제공될 수 있다.
일 실시예에 따라, 서버로부터 멀티미디어 컨텐츠를 수신하여 제 2 클라이언트와 공유하는, 제 1 클라이언트는, 상기 서버로부터 수신된 상기 멀티미디어 컨텐츠 중 상기 제 2 클라이언트와 공유를 위해 적어도 하나의 멀티미디어 컨텐츠를 선택하고, 상기 선택된 멀티미디어 컨텐츠에 관한 정보를 포함하는, 공유 정보를 상기 제 2 클라이언트에 전송하는, 통신 인터페이스 및 상기 멀티미디어 컨텐츠의 공유 정보를 생성하는, 프로세서를 포함하고, 상기 멀티미디어 컨텐츠는 상기 멀티미디어 컨텐츠의 내용을 대표하는 특징 정보와 함께 제공될 수 있다.
일 실시예에 따라, 제 2 클라이언트가 서버에 의해 제 1 클라이언트에 제공된 멀티미디어 컨텐츠를 상기 서버로부터 수신하는 방법은, 상기 제 1 클라이언트가 수신하는 상기 멀티미디어 컨텐츠 중 공유를 위해 선택된 적어도 하나의 멀티미디어 컨텐츠에 관한 공유 정보를 상기 제 1 클라이언트로부터 수신하는 단계; 상기 공유 정보에 기초하여, 상기 멀티미디어 컨텐츠의 요청 정보를 생성하는 단계; 상기 멀티미디어 컨텐츠가 저장된 서버에 상기 요청 정보를 송신하는 단계; 및 상기 요청 정보에 기초하여 상기 서버에서 검색된, 상기 멀티미디어 컨텐츠를 수신하는 단계;를 포함하고, 상기 멀티미디어 컨텐츠는 상기 멀티미디어 컨텐츠의 내용을 대표하는 특징 정보와 함께 제공될 수 있다.
일 실시예에 따른 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체는 텍스트를 편집하는 방법을 컴퓨터에서 실행시키기 위한 프로그램으로 기록한다.
이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시예에 의해 발명을 상세히 설명하기로 한다. 하기 실시예는 발명을 구체화하기 위한 것일 뿐 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시예로부터 발명이 속하는 기술분야의 전문가가 용이하게 유추할 수 있는 것은 발명의 권리범위에 속하는 것으로 해석된다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
종래 멀티미디어 컨텐츠 공유 기술의 한계를 해결하기 위해, 새로운 멀티미디어 전송 모드를 제공하고, IP에 기초하여 멀티미디어 브로드캐스트를 가능하게 하는, MPEG(Moving Picture Experts Group) MMT(media transport) 프로토콜(ISO protocol No. ISO/IEC 23008-1)이 제안되었다. MMT 프로토콜에서 모든 멀티미디어 컨텐츠들은 전송을 위해, MPU(media processing unit, MPU)의 형태로 분할되고 패킹(packing)된다. 단말 프리젠테이션(terminal presentation)은 구성 정보(composition information, CI) 엔티티(ISO protocol No. ISO/IEC 23008-11)에 의해 제어된다.
CI 엔티티(이하에서는 CI로 언급된다)는 HTML 5의 확장이고, 단말은 브라우저에 기초하여 멀티미디어 컨텐츠를 표시한다. MMT 프로토콜에서, 다른 멀티미디어 컨텐츠들은 각각 다른 스트림들에 의해 전송되고, 조판되고(typeset), 렌더링되고(rendered), CI에 의해 제어된다. 한편, 모든 CI 전송은 시그널링 메시지(signaling message) 모드를 이용하여 전송된다. 이때 각 시그널링 메시지들은 많은 다른 테이블 항목들을 포함할 수 있다. CI는 서버 측에 있는 특정 시그널링 메시지 테이블 항목에 패킹될 수 있다. 시그널링 메시지의 일부분으로서, 테이블 항목은 시그널링 메시지와 함께 클라이언트 측에 전송된다. 클라이언트 측은 시그널링 메시지를 분석함으로써, CI 및 NTP(Network Time Protocol)와 같은 다른 정보를 획득하고, 후속 절차를 진행한다.
그러나, MMT 프로토콜의 설계는 단지 IP 브로드캐스트에 관한 것으로, 브로드캐스팅하는 동안 실시간으로 멀티미디어 컨텐츠를 공유하는 방법을 고려하지 않는다.
도 1은 본 개시의 일 실시예를 이용하는 시스템 아키텍처를 도시한 도면이다.
도 1을 참조하면, 시스템 아키텍처(100)는 서버(104), 공유-전송 클라이언트(110) 및 공유-타겟 클라이언트(120)를 포함할 수 있다.
공유-전송 클라이언트(110)는 휴대 전화(111), 컴퓨터(112) 및 타블렛 디바이스(113)와 같은 다양한 단말기를 포함할 수 있다.
이때 단말기는 외부 디바이스와 통신을 수행하여, 정보를 송수신하고, 사용자에게 정보를 제공할 수 있는 디바이스이며, 태블릿 디바이스, 스마트폰, 노트북, 카메라 일 수 있으나, 이에 제한되지 않는다.
유사하게, 공유-타겟 클라이언트(120)는 휴대 전화(121), 컴퓨터(122) 및 타블렛 디바이스(123)와 같은 다양한 단말기를 포함할 수 있다.
서버(104)는 데이터 교환을 위해, 공유-전송 클라이언트(110)의 다양한 단말기들 및 공유-타겟 클라이언트(120)의 다양한 단말기들과 통신할 수 있다.
한편, 공유-전송 클라이언트(110)의 다양한 단말기들은 데이터 교환을 위해, 공유-타겟 클라이언트(120)의 다양한 단말기들과 통신할 수 있다.
도 2는 본 개시의 일 실시예에 따른, 멀티미디어 컨텐츠 공유 상호작용 과정을 도시한 도면이다.
도 2에 기재된 일 실시예는 하나의 공유-전송 클라이언트(110), 하나의 공유-타겟 클라이언트(120) 및 하나의 서버(104)가 상호작용을 수행하는 것을 설명하기 위한 것이다.
이하 설명에서, 도 1의 공유-전송 클라이언트(110)는 도 2의 제 1 클라이언트와 대응되고, 도 1의 공유-타겟 클라이언트(120)는 도 2의 제 2 클라이언트와 대응될 수 있다.
도 2를 참조하면, 단계 201에서, 서버(104)는 멀티미디어 컨텐츠를 미디어 처리 단위(media processing unit, MPU)로 분할하고, 각 MPU의 특징 정보를 추출할 수 있다.
서버(104)는 멀티미디어 컨텐츠를 저장하기 위해 사용된다. 또한, 서버(104)는 외부 디바이스로부터 멀티미디어 컨텐츠를 획득하고, 멀티미디어 컨텐츠를 가공할 수 있다. 예를 들어, 서버(104)는 멀티미디어 컨텐츠를 분할, 결합 및 삭제할 수 있고, 멀티미디어 컨텐츠의 특징 정보를 추출할 수 있다. 그러나, 서버(104)가 멀티미디어 컨텐츠를 가공하는 동작은 이에 제한되지 않는다.
한편, MPU의 특징 정보는 MPU의 내용을 대표할 수 있고, MPU의 특징의 일부를 나타낼 수 있다. 예를 들어, 만약 MPU가 자연 풍경의 비디오일 때, “자연 풍경”은 MPU의 특징 중 하나일 수 있다.
단계 202에서, 서버(104)는 멀티미디어 컨텐츠를 MPU 단위 형태로 분할하고, 특징 정보와 함께 제 1 클라이언트에 브로드캐스트할 수 있다.
단계 203에서, 제 1 클라이언트는 제 2 클라이언트와 공유하고자 하는 멀티미디어 컨텐츠를 선택하고, 공유 정보를 생성할 수 있다.
구체적으로 서버(104)로부터 멀티미디어 컨텐츠를 수신한 후, 제 1 클라이언트는 제 2 클라이언트와 공유하고자 하는 멀티미디어 컨텐츠로서 서버(104)로부터 수신된 멀티미디어 컨텐츠의 일부를 선택할 수 있다. 또한, 제 2 클라이언트가 제 1 클라이언트에 의해 선택된 멀티미디어 컨텐츠를 획득할 수 있도록, 제 1 클라이언트는 공유하고자 하는 멀티미디어 컨텐츠에 대응하는 공유 정보를 생성할 수 있다.
공유 정보는 멀티미디어 컨텐츠 내에서 공유하고자 하는 부분에 관한 정보를 의미한다. 예를 들어, 공유 정보는 제 1 클라이언트가 제 2 클라이언트와 공유하고자 하는 멀티미디어 컨텐츠의 시작 시점 및 종료 시점, 공유하고자 하는 멀티미디어 컨텐츠의 종류 등을 포함할 수 있으나, 이에 제한되지 않는다.
예를 들어, 제 1 클라이언트가 서버(104)로부터 획득한 멀티미디어 컨텐츠 중에서 일정 시간 동안의 멀티미디어 컨텐츠를 공유하기 원한다면, 공유 정보는 시간 주기의 정보를 포함할 수 있다. 또한, 제 1 클라이언트가 서버(104)로부터 획득한 멀티미디어 컨텐츠 중에서 일정 공간 영역(space region)을 공유하기 원한다면, 공유 정보는 공간 영역에 대응하는 정보를 포함할 수 있다.
단계 204에서, 제 1 클라이언트는 제 2 클라이언트에 공유 정보를 송신할 수 있다.
이때 제 1 클라이언트는 특정 제 2 클라이언트에 공유 정보를 전송할 수 있다.
또한, 제 1 클라이언트는 공유 정보를 수신하는 제 2 클라이언트를 특정하지 않을 수 있다. 일부 실시예에서, 제 1 클라이언트는 공유 플랫폼에 공유 메시지를 전송할 수 있고, 공유 플랫폼에 접근이 가능한 제 2 클라이언트는 공유 정보를 수신할지 여부를 결정할 수 있다.
단계 205에서, 제 2 클라이언트는 요청 정보를 생성할 수 있다. 공유 정보에 대응하는 멀티미디어 컨텐츠를 획득하기 위해서, 제 2 클라이언트는 제 1 클라이언트로부터 멀티미디어 컨텐츠에 관한 공유 정보를 수신한 후, 공유 정보에 대응하는 요청 정보를 생성할 수 있다.
이때 제 2 클라이언트가 제 1 클라이언트에서 공유하기 위해 선택된 멀티미디어 컨텐츠를 획득할 수 있는지 여부는 제 2 클라이언트의 사용자 입력에 기초하여 결정될 수 있다.
한편, 요청 정보는 제 2 클라이언트가 제 1 클라이언트로부터 수신한 공유 정보 중 일부 정보일 수 있다. 구체적으로, 요청 정보는 멀티미디어 컨텐츠의 위치 정보를 포함할 수 있다. 이때, 위치는 공간적 위치만 의미하는 것이 아니라, 멀티미디어 컨텐츠의 일부를 특정하는 구간 정보(시간적 위치) 및 공간적 위치를 포함한 다른 종류의 위치로 정의될 수 있다.
단계 206에서, 제 2 클라이언트는 서버(104)에 멀티미디어 컨텐츠에 관한 요청 정보를 전송할 수 있다.
그 후, 단계 207에서, 서버(104)는 요청된 멀티미디어 컨텐츠를 제 2 클라이언트에 전송할 수 있다.
제 2 클라이언트로부터 요청 정보를 수신한 후, 서버(104)는 요청 정보에 기초하여 제 1 클라이언트가 제 2 클라이언트와 공유하기 위해 선택한 멀티미디어 컨텐츠를 찾고, 해당 멀티미디어 컨텐츠를 제 2 클라이언트에 전송할 수 있다.
이때, 제 1 클라이언트는 공유 정보를 생성한 후, 서버(104)에 공유 정보를 전송하지 않기 때문에, 서버(104)는 공유 정보에 기초하여 새로운 멀티미디어 컨텐츠 및 새로운 컨텐츠를 가리키는 URL를 생성하지 않는다. 따라서, 클라이언트간 멀티미디어 컨텐츠를 공유하더라도, 서버(104)에서 저장 공간을 추가적으로 소모하지 않는다.
또한, 제 1 클라이언트가 제 2 클라이언트로 공유하고자 하는 멀티미디어 컨텐츠를 직접 전송하지 않기 때문에, 제 1 클라이언트의 고유한 저장 공간의 제한 없이 멀티미디어 컨텐츠의 공유가 가능하다.
한편 개시된 일 실시예에 따르면, 서버(104)는 제 1 클라이언트에 의해 공유하기 위해 선택된 멀티미디어 컨텐츠와 관련된 멀티미디어 컨텐츠를 제 1 클라이언트 및 제 2 클라이언트에 푸시할 수 있다.
특히, 단계 208에서, 서버(104)는 공유하는 멀티미디어 컨텐츠와 관련된 다른 멀티미디어 컨텐츠를 검색할 수 있다.
제 1 클라이언트에서 공유 정보를 제 2 클라이언트에 전송할 때, 공유 정보에는 특징 정보가 포함될 수 있다.
따라서, 서버(104)가 제 2 클라이언트로부터 요청 정보를 수신할 때, 공유하기 위해 선택된 멀티미디어 컨텐츠의 특징 정보는 서버(104)에 통지될 수 있다. 서버(104)는 특징 정보에 기초하여 멀티미디어 컨텐츠와 관련된 멀티미디어 컨텐츠를 검색할 수 있다.
단계 209에서, 서버(104)는 관련 멀티미디어 컨텐츠를 제 1 클라이언트와 제 2 클라이언트에 전송할 수 있다. 제 2 클라이언트에서 서버(104)로 전송되는 요청 정보는 제 1 클라이언트의 주소를 포함할 수 있다. 따라서, 서버(104)가 요청 정보에서 제 1 클라이언트의 주소 정보를 발견하면, 서버(104)는 제 1 클라이언트의 주소를 참조하여 관련 멀티미디어 컨텐츠를 제 1 클라이언트에 푸시할 수 있다.
또한, 요청 정보가 제 2 클라이언트에서 서버(104)로 전송되기 때문에, 서버(104)는 제 2 클라이언트의 주소 정보를 획득할 수 있다. 따라서, 서버(104)는 관련 멀티미디어 컨텐츠를 제 2 클라이언트에 푸시할 수 있다.
도 3은 본 개시의 일 실시예에 따라, 서버에서 멀티미디어 컨텐츠를 전송하기 위한 방법을 설명하기 위한 흐름도이다.
단계 310에서, 서버(104)는 멀티미디어 컨텐츠를 복수의 MPU로 분할할 수 있다. MPU는 멀티미디어 컨텐츠의 전송을 위한 일정한 패킹 형식을 정의하고, 시간 지정(time-dependent) 미디어 컨텐츠 및 시간 미지정(non-time-dependent) 미디어 컨텐츠를 패킹할 수 있다. MPU는 독립적인 ISO 기본 미디어 파일 형식(ISO Based Media File Format, ISOBMFF) 구조를 갖고, 멀티미디어 컨텐츠를 독립적으로 소비할 수 있고, 전송 기능에서 부호화기 및 복호화기의 구체적인 세부 사항을 숨길 수 있다. 또한 MPU는 복수의 이미지 프레임들, 오디오 데이터의 일부 및/또는 부제(subtitle) 정보 등의 일부를 포함할 수 있다.
단계 320에서, 서버(104)는 각 MPU들로부터 특징 정보를 추출할 수 있다.
이때 하나의 MPU는 하나 또는 그 이상의 특징 정보와 대응될 수 있다. 각 MPU들과 대응되는 특징 정보는 서로 다를 수 있고, 부분적으로 중첩될 수 있고, 한 MPU에 대응되는 특징 정보는 다른 MPU에 대응되는 특징 정보의 부분 집합일 수 있다.
단계 330에서, 서버(104)는 제 1 클라이언트에 MPU 및 MPU의 특징 정보를 브로드캐스트할 수 있다.
MPU 및 MPU의 특징 정보가 제 클라이언트에 브로드캐스트되는 방법은, 브로드캐스팅 동작에 의해 따르게 되는 통신 프로토콜에 따라 달라질 수 있다.
또한, 멀티미디어 컨텐츠의 MPU들과 MPU들에 대응되는 특징 정보와 함께 제 1 클라이언트에 브로드캐스트될 수 있다. 예를 들어, 멀티미디어 컨텐츠가 6개의 MPU들(MPU1-MPU6)로 분할된다면, 각 MPU들에 대응되는 특징 정보는 각각 특징 1 내지 특징 6이 될 수 있다.
한편, MPU들과 MPU들에 대응되는 특징 정보는 다음 순서에 따라 전송될 수 있다.
특징 1, 특징 2, 특징 3; MPU1 MPU2, MPU3; 특징 4, 특징 5, 특징 6; MPU4, MPU5, MPU6.
한편, 특징 1 부터 특징 3과 특징 4 부터 특징 6은 각각 분석되고, 중복되는 특징 정보는 제거될 수 있다. 또한, 특징 1부터 특징 3까지 모든 특징 정보를 포함하는 특징 A와 특징 4 부터 특징 6까지 모든 특징 정보를 포함하는 특징 B는 생성될 수 있고, 다음 순서에 따라 전송될 수 있다.
특징 A, MPU1 MPU2, MPU3; 특징 B, MPU4 MPU5, MPU6;
특징 A; MPU1 MPU2, MPU3; 특징 B; MPU4 MPU5, MPU6.
따라서, MPU들 및 MPU들에 대응되는 특징 정보는 단계 310부터 단계 330을 통해 제 1 클라이언트로 브로드캐스트될 수 있다.
도 4는 본 개시의 일 실시예에 따라, 특징 정보가 각 MPU에서 추출되는 단계를 설명하기 위한 흐름도이다.
단계 410에서, 서버(104)는 MPU들을 멀티미디어 컨텐츠의 타입에 따라 복수의 카테고리들로 분류할 수 있다.
또한 단계 420에서, 서버(104)는 분류된 MPU들의 각 카테고리에 기초하여 특징 정보를 추출할 수 있다.
여기서, 멀티미디어 컨텐츠의 타입은 이미지, 소리 또는 비디오를 포함할 수 있다.
예를 들어, MPU들은 MPU에 포함된 멀티미디어 컨텐츠가 이미지인 것에 기초하여 분류될 수 있다.
또한, MPU들은 MPU들의 이미지에 포함된 TV 방송국 캡션(station caption)에 따라 분류될 수 있다. 따라서 다른 TV 방송국들의 멀티미디어 컨텐츠는 다른 카테고리들로 분류될 수 있고, MPU들이 브로드캐스트되는 TV 방송국에 관한 정보가 특징 정보로서 추출될 수 있다.
또한, MPU들은 MPU에 포함된 멀티미디어 컨텐츠가 소리인 것에 기초하여 분류될 수 있다.
예를 들어, MPU들은 MPU들의 오디오에 포함된 다른 사람들의 이름에 따라 분류될 수 있다. 따라서 다른 사람들에 대응하는 멀티미디어 컨텐츠는 다른 카테고리들로 분류될 수 있고, MPU들에 포함된 사람들의 이름은 특징 정보로서 추출될 수 있다.
또한, MPU들은 MPU에 포함된 멀티미디어 컨텐츠가 비디오인 것에 기초하여 분류될 수 있다.
예를 들어, 서버(104)는 다른 멀티미디어 컨텐츠에 있는 MPU들을 다른 카테고리로 분류하기 위해, MPU의 부제 정보에 따라 간접적으로 카테고리를 결정할 수 있고, 카테고리에 대응되는 특징 정보를 추출할 수 있다. 즉, 다른 종류의 컨텐츠들을 포함하는 MPU들은 다른 카테고리들로 분류될 수 있다.
다음, 단계 430에서, 서버(104)는 특징 정보와 MPU들간 관계 테이블을 생성할 수 있다.
이때, MPU와 특징 정보가 다대다 대응 관계를 가질 수 있다. 다시 말해서, 한 MPU는 복수의 특징 정보를 가질 수 있고, 복수의 MPU들은 동일한 특징 정보를 가질 수 있다.
도 5는 본 개시의 일 실시예에 따라, 특징 정보와 MPU 들간 관계를 매핑하는 것을 설명하기 위한 도면이다.
도 5의 MPU들(510)은 MPU1, MPU2 및 MPU3을 포함한다. 특징 정보(520)는 특징 A, 특징 B, 특징 C 및 특징 D를 포함한다. MPU들(510)에서, MPU1은 특징 B 및 특징 D를 갖고, MPU2는 특징 A, 특징 B 및 특징 C를 갖고, MPU3는 특징 C 및 특징 D를 갖는다. MPU들(510)과 특징 정보(520)간 관계를 매핑한 후, MPU들에 대응되는 특징 정보 및 특정 특징 정보의 MPU들은 관계 매핑에 따라 획득될 수 있다.
이때 특징 정보를 표현하기 위해, 고유한 특징 값이 각 특징 정보에 할당될 수 있다(예를 들어, 도 5의 530). 도 5를 참조하면, 특징 A는 특징 값(101)과 일대일로 대응되고, 특징 B는 특징 값(102)과 일대일로 대응되고, 특징 C는 특징 값(203)과 일대일로 대응되고, 특징 D는 특징 값(406)과 일대일로 대응된다. 특징 정보를 수치(numerical values) 형태로 제 1 클라이언트에 브로드캐스트하기 위해, 하나의 고유한 특징 값은 각 특징 정보에 할당된다.
도 6은 단계 330의 일 실시예의 흐름도를 설명하기 위한 도면이다.
단계 610에서, 서버(104)는 시간 간격에 따라 순차대로 MPU들을 제 1 클라이언트에게 송신할 수 있다.
단계 620에서, 서버(104)는 주기에 따라 시그널링 메시지를 송신할 수 있고, 이때 시그널링 메시지는 주기 내에서 전송되는 MPU의 특징 정보 및 특징 정보와 MPU간 관계 테이블을 포함할 수 있다.
이때, “MPU를 송신하는 시간 간격”과 “시그널링 메시지를 송신하는 주기”는 같거나 다를 수 있다.
예를 들어, “MPU를 송신하는 시간 간격”과 “시그널링 메시지를 송신하는 주기”가 같은 경우, 서버(104)는 제 1 클라이언트에 '특징 A, MPU1; 특징 B, MPU2'와 같은 신호-데이터 형식으로 MPU 및 특징 정보를 브로드캐스트할 수 있다. 이때 특징 A는 MPU1에 대응되는 특징 정보이고, 특징 B는 MPU2에 대응되는 특징 정보일 수 있다.
또한, “MPU를 송신하는 시간 간격”과 “시그널링 메시지를 송신하는 주기”가 다른 경우, 서버(104)는 제 1 클라이언트에 '특징 C, MPU1, MPU2; 특징 D, MPU3, MPU4'와 같은 신호-데이터 형식으로 MPU 및 특징 정보를 브로드캐스트할 수 있다. 이때 특징 C는 MPU1, MPU2에 대응되는 특징 정보이고, 특징 D는 MPU3, MPU4에 대응되는 특징 정보일 수 있다.
또한, 단계 620는 다음과 같이 구현될 수 있다.
먼저, 제 1 MPU는 시그널링 메시지를 위한 주기에서 전송되도록 결정될 수 있다. 여기서, 제 1 MPU는 시그널링 메시지를 위한 주기에서 전송되는 MPU이다.
다음, 제 1 MPU의 특징 정보는 특징 정보와 MPU간 관계 테이블에 기초하여 검색될 것이다. 예를 들어, 시그널링 메시지를 위한 주기에서 전송된 각 MPU들의 특징 정보는, 도 5에서 설명된 관계 테이블에 따라 각각 검색될 수 있다.
마지막으로, 제 1 MPU의 특징 정보와 특징 정보 및 제 1 MPU간 관계 테이블은 시그널링 메시지에 추가된다. 특징 정보와 관계 테이블이 시그널링 메시지에 추가된 후, 시그널링 메시지가 클라이언트에 브로드캐스팅 되는 동안, 특징 정보와 관계 테이블은 브로드캐스트된다.
한편, MMT 프로토콜은 MPU 및 MPU의 특징 정보를 전송하기 위해 이용될 수 있다.
도 7a는 기존의 MMT 프로토콜에서 MPU의 브로드캐스트 모드를 설명하기 위한 도면이다.
MMT 프로토콜에서, MPU들은 도 7A에 도시된 모드에서 전송될 수 있고, CI는 시그널링 메시지 모드에서 전송될 수 있다. 각 패킷 전송 주기에서(도 7A의 701, 702, 703은 각각 하나의 패킷 전송 주기이다), 전송은 CI-MPU 서열로 수행된다. 예를 들어, 패킷 전송 주기(701)를 따를 때, CI(71)은 대응되는 MPU(72) 이전에 전송된다. 여기서, MPU(72)는 비디오 데이터(V1) 및 오디오 데이터(A1)를 포함한다.
그러나, 현재 MMT 프로토콜은 MPU의 특징 정보의 전송을 지원하지 않는다. 즉, 다시 말해서 각 전송에서 CI의 컨텐츠는 항상 동일하다. MMT 프로토콜의 프레임워크에서 MPU에 대응되는 특징 정보의 전송을 이루기 위하여, CI의 형식은 MPU와 대응되는 특징 정보를 위한 서브 항목을 CI에 추가하는 것에 의해 수정될 수 있다.
예를 들어, 다음 정보는 CI에 추가될 수 있다.
feature: reference
<reference>
<feature1/>
<feature2/>
<featureN/>
<reference/>
여기서, 특징 1 부터 특징 N은 MPU들에 대응되는 특징 정보를 나타낸다.
도 7b는 기존의 MMT 프로토콜의 변경 후, MPU 및 MPU의 특징 정보의 브로드캐스트 모드를 설명하기 위한 도면이다.
변경된 CI는 패킷 전송 주기에 MPU의 특징 정보를 포함한다.
예를 들어 패킷 전송 주기(711)을 따를 때, 주기에 있는 CI(71')는, 주기(711)에 있는 MPU의 특징 정보 A 및 특징 정보 B를 포함한다.
도 3을 참조하면, 서버(104)가 멀티미디어 컨텐츠를 전송하는 방법은 다음 단계들을 더 포함할 수 있다.
단계 340에서, 서버(104)는 제 2 클라이언트로부터, 제 1 클라이언트에서 공유하기 위해 선택된 멀티미디어 컨텐츠의 요청 정보를 수신할 수 있다. 이때 요청 정보는 요청된 멀티미디어 컨텐츠가 분할된 MPU들의 명세 정보를 포함한다. 여기서, 명세 정보는 멀티미디어 컨텐츠의 요청된 부분에 포함된 MPU들의 정보를 기술하기 위해 이용된다.
또한, 명세 정보는 요청된 멀티미디어 컨텐츠에서 MPU들의 위치 정보로 기술될 수 있다. 여기서, 단어 ”위치”는 공간적 위치보다 넓은 의미를 갖는다. 또한, 명세 정보는 요청된 멀티미디어 컨텐츠에 포함된 MPU들을 정확하게 기술할 수 있다. 예를 들어, 명세 정보는 시간, 공간 좌표, 구성 요소들 및 멀티미디어와 관련된 추가적인 정보를 포함할 수 있다.
이때 멀티미디어 컨텐츠의 구성 요소는 비디오 정보, 오디오 정보 또는 자막 정보를 포함할 수 있고, 멀티미디어 컨텐츠와 관련된 추가 정보는 멀티미디어 컨텐츠를 설명하는 텍스트 또는 멀티미디어 컨텐츠를 실행시키기 위한 어플리케이션에 관한 정보를 포함할 수 있다.
도 8은 본 개시의 일 실시예에 따라, 명세 정보가 시간 정보를 포함할 때 명세 정보에 대응하는 MPU(800)를 설명하기 위한 도면이다.
도 8을 참조하면, 멀티미디어 컨텐츠는 순서대로 MPU(810), MPU(820), MPU(830) 및 MPU(840)로 분할될 수 있다. 이때 요청된 멀티미디어 컨텐츠가 MPU(820) 및 MPU(830)인 것으로 가정하면, 요청 정보는 MPU(820) 및 MPU(830)의 시간 정보를 기술하기 위한 명세 정보를 포함할 수 있다.
예를 들어, 명세 정보는 MPU(820)의 시작 시간(802)과 MPU(830)의 종료 시간(803)을 포함할 수 있다.
특히, 브로드캐스트 요청 정보가 MMT 프로토콜 프레임워크 하에서 전송될 때, MPU(820)의 시작 시간(802)과 MPU(830)의 종료 시간(803)을 기술하기 위한 정보는, “ sequence _ number: start _ time - end _ time” 명세 구문을 추가하여, CI에 추가될 수 있다.
또한, 명세 정보는 MPU(820)의 시작 시점(802)과 MPU(820) 및 MPU(830)의 지속기간(804)을 포함할 수 있다. 브로드캐스트 요청 정보가 MMT 프로토콜 프레임워크 하에서 전송될 때, 다음의 명세 구문은 CI에 추가될 수 있다.
sequence_number: start_time-duaration.
또한, 명세 정보는 더 나아가 MPU(820) 및 MPU(830)의 지속기간(804)과 MPU(830)의 종료 시간(803)을 포함할 수 있다. 브로드캐스트 요청 정보가 MMT 프로토콜 프레임워크 하에서 전송될 때, 다음의 명세 구문은 CI에 추가될 수 있다.
sequence_number: duaration-end_time
도 9는 본 개시의 일 실시예에 따라, 명세 정보가 공간 좌표를 포함할 때 명세 정보에 대응하는 MPU(900)를 설명하기 위한 도면이다.
도 9를 참조하면, 멀티미디어 컨텐츠는, 좌측에서 우측으로, 상단에서 하단으로, 공간 좌표에 따라 MPU(901) 부터 MPU(909)까지 분할될 수 있다. 이때, 요청된 멀티미디어 컨텐츠가 점선 박스(910)에 있는 MPU(905), MPU(906), MPU(908) 및 MPU(909)인 것으로 가정하면, 명세 정보는 점선 박스(910)의 상단 왼쪽 모서리에 위치한 MPU(905)의 시작 좌표 값(911)과 점선 박스(910)의 하단 오른쪽 모서리에 위치한 MPU(909)의 종료 좌표 값(912)을 포함할 수 있다.
특히, 브로드캐스트 요청 정보가 MMT 프로토콜 프레임워크 하에서 전송될 때, MPU(905)의 시작 좌표 값 및 MPU(909)의 종료 좌표 값을 기술하기 위한 정보는 CI에 추가될 수 있다. 예를 들어, 다음과 같이 추가될 수 있다.
solid_axes: start_point-end_point
또는
solid_axes: (x1, y1)-(x2, y2).
이때, x1, y1은 각각 MPU(905)의 시작점의 x 좌표 값 및 y 좌표 값이고, x2, y2는 각각 MPU(909)의 종료점의 x 좌표 값 및 y 좌표 값이다.
도 10은 명세 정보가 구성 요소들 정보를 포함할 때, 명세 정보에 대응하는 MPU(1000)를 설명하기 위한 도면이다.
도 10을 참조하면, 멀티미디어 컨텐츠는 다른 구성 요소들에 따라, 제 1 궤도(1010), 제 2 궤도(1020) 및 제 3 궤도(1030)으로 분할될 수 있다. 이때, 제 1 궤도(1010)는 MPU(1011), MPU(1012) 및 MPU(1013) 를 포함하고; 제 2 궤도(1020)는 MPU(1021), MPU(1022) 및 MPU(1023)를 포함하고; 제 3 궤도(1030)는 MPU(1031), MPU(1032) 및 MPU(1033)를 포함할 수 있다. 이때 요청된 멀티미디어 컨텐츠가 점선 박스(1040)에 있는 MPU(1031), MPU(1032) 및 MPU(1033) 인 것으로 가정하면, 명세 정보는 MPU(1031), MPU(1032) 및 MPU(1033)의 구성 요소들 정보를 포함할 수 있다.
특히, 브로드캐스트 요청 정보가 MMT 프로토콜 프레임워크 하에서 전송된 때, MPU(1031), MPU(1032) 및 MPU(1033)의 구성 요소들을 기술하기 위한 정보는 CI에 추가될 수 있다. 예를 들어, 아래와 같이 추가될 수 있다.
media_element: track.
유사하게, 요청된 컨텐츠가 특정 멀티미디어 컨텐츠와 대응되는 추가 정보(추가 문서 및/또는 추가 어플리케이션)일 때, 추가 정보는 명세 정보에 추가될 수 있다.
특히, 브로드캐스트 요청 정보가 MMT 프로토콜 프레임워크 하에서 전송된 때, 추가 정보를 기술하기 위한 정보는 CI에 추가될 수 있다. 예를 들어, 아래와 같이 추가될 수 있다.
attachment_info: file.
또한, 멀티미디어 컨텐츠와 관련된 시간, 공간 좌표, 구성 요소들 및 추가 정보 중 적어도 하나에 의해, 요청된 컨텐츠가 기술되어야 할 필요가 있을 때, 멀티미디어 컨텐츠와 관련된 시간, 공간 좌표, 구성 요소들 및 추가 정보가 있는 컨텐츠는, 요청된 컨텐츠를 정확하게 기술하기 위해 명세 정보에 포함될 수 있다.
또한, 브로드캐스트 요청 정보는 요청된 멀티미디어 컨텐츠에 있는 MPU의 특징 정보를 포함할 수 있다. 이때, 일 실시예의 방법은 다음을 포함한다:
단계 350에서, 서버(104)는 요청 정보에 포함된 특징 정보에 기초하여, 요청된 멀티미디어 컨텐츠와 관련된 멀티미디어 컨텐츠를 검색할 수 있다.
또한 단계 370에서, 서버(104)는 제 2 클라이언트에 관련 멀티미디어 컨텐츠를 푸시할 수 있다.
요청 정보에는 요청된 멀티미디어 컨텐츠가 분할된 MPU들의 특징 정보가 포함되어 있다. 따라서, 서버(104)는 요청 정보에 기초하여, 동일한 특징 정보를 갖는 다른 MPU들이 조합된 다른 멀티미디어 컨텐츠를 검색할 수 있다. 또한, 검색된 멀티미디어 컨텐츠를 요청 정보를 송신한 제 2 클라이언트에 푸시할 수 있다.
또한, 요청된 멀티미디어 컨텐츠가 분할된 복수의 MPU 중 일부와 동일한 특징 정보를 갖는 MPU들로 결합된 멀티미디어 컨텐츠를 관련 멀티미디어 컨텐츠로 결정하고, 제 2 클라이언트에 푸시할 수 있다.
예를 들어, 요청된 멀티미디어 컨텐츠의 MPU는 A, B, C 및 D의 네 가지 특징 정보를 포함한다. 이때 서버(104)는 특징 정보의 세 가지를 포함하는 멀티미디어 컨텐츠를 관련 멀티미디어 컨텐츠로 판단할 수 있다.
또한, 요청 정보는 제 1 클라이언트의 주소를 포함할 수 있다. 이때, 일 실시예의 방법은 다음의 단계들을 포함할 수 있다.
단계 380에서, 서버(104)는 제 1 클라이언트에 관련 멀티미디어 컨텐츠를 푸시할 수 있다.
이때, 제 1 클라이언트의 주소는 제 1 클라이언트의 IP 주소 및 제 1 클라이언트에서 공유 동작을 수행하는 포트의 정보, 예를 들어, 요구형 모니터링 포트 정보(on-demand monitoring port information)를 포함할 수 있다.
제 1 클라이언트의 주소가 요청 정보에 포함되어 있으므로, 서버(104)가 단계 360에서 검색한 관련 멀티미디어 컨텐츠는 제 1 클라이언트에 푸시될 수 있다.
도 11은 본 개시의 일 실시예에 따라, 제 1 클라이언트가 멀티미디어 컨텐츠를 공유하는 방법을 설명하기 위한 흐름도이다.
단계 1110에서, 제 1 클라이언트는 멀티미디어 컨텐츠를 MPU 형태로 수신할 수 있다. 이때 제 1 클라이언트는 MPU와 함께 MPU에 대응되는 특징 정보를 수신할 수 있다.
또한, 제 1 클라이언트는 멀티미디어 컨텐츠를 서버(104)로부터 수신할 수 있다.
단계 1120에서, 제 1 클라이언트는 수신된 멀티미디어 컨텐츠 중에서 제 2 클라이언트와 공유되는 멀티미디어 컨텐츠를 선택할 수 있다.
이때, 제 1 클라이언트는 사용자로부터 리모콘(remote), 터치 스크린, 마이크로폰, 카메라 및 초음파 제스처 센서 중 하나를 통해 신호를 입력 받아, 제 2 클라이언트와 공유하는 멀티미디어 컨텐츠를 선택할 수 있다.
또한, 제 2 클라이언트와 공유하는 멀티미디어 컨텐츠의 MPU는 멀티미디어 컨텐츠와 관련된 시간, 공간 좌표, 구성 요소들 및 추가 정보 중 하나에 따라 선택될 수 있다. 이때, 추가 정보는 멀티미디어 컨텐츠를 설명하는 텍스트 또는 멀티미디어 컨텐츠를 실행시키기 위한 어플리케이션에 관한 정보를 포함할 수 있다.
단계 1130에서, 제 1 클라이언트는 선택된 멀티미디어 컨텐츠에 따라 공유 정보를 생성할 수 있다. 이때 공유 정보는 공유하기 위해 선택된 멀티미디어 컨텐츠에 있는 MPU들의 명세 정보 및 특징 정보를 포함할 수 있다.
단계 1140에서, 제 1 클라이언트는 공유 정보를 제 2 클라이언트에 송신할 수 있다.
이때, 제 1 클라이언트는 공유 정보를 제 2 클라이언트에 송신할 수 있고, 공유 정보가 전송되는 목적지를 구체화하지 않을 수 있다. 예를 들어, 제 1 클라이언트는 microblog, WeChat'scircle of friends와 같은 공유 플랫폼에 공유 정보를 전송할 수 있다.
다른 예들에서, 단계 1110는, 기 결정된 시간 간격에 따라 순차적으로 MPU들을 수신하는 단계; 및 기 결정된 주기에 따라 시그널링 메시지를 수신하는 단계를 포함할 수 있다. 시그널링 메시지는 시그널링 메시지를 위한 주기에서 전송되는 MPU의 특징 정보 및 특징 정보와 MPU간 관계 테이블을 포함할 수 있다.
다른 예들에서, 단계 1130은, 선택된 MPU에 따라 명세 정보를 생성하는 단계; 특징 정보와 MPU들간 관계 테이블에 기초하여, 공유하기 위해 선택된 멀티미디어 컨텐츠에서 MPU들의 특징 정보를 검색하는 단계; 및 명세 정보와 특징 정보를 공유 정보에 포함하는 단계를 포함할 수 있다.
다른 예들에서, 단계 1130은 제 1 클라이언트의 주소를 공유 정보에 추가하는 단계를 더 포함할 수 있다.
예를 들어, 공유 정보가 MMT 프로토콜 프레임워크 하에서 전송된 때, 전송 주소 속성들은 CI에 추가될 수 있다. 예를 들어, “ share _ src = IP:port”가 추가될 수 있고, 이때 IP는 제 1 클라이언트의 IP주소를 의미하고, 포트는 제 1 클라이언트 에서 공유 정보를 전송하는 포트의 정보를 의미한다.
도 12는 본 개시의 일 실시예에 따라, 제 2 클라이언트에서 멀티미디어 컨텐츠를 획득하는 방법을 설명하기 위한 흐름도이다.
단계 1210에서, 제 2 클라이언트는 제 1 클라이언트로부터 공유 정보를 획득할 수 있다. 이때 공유 정보는 멀티미디어 컨텐츠가 분할된 MPU들의 명세 정보와 특징 정보를 포함할 수 있다.
단계 1220에서, 제 2 클라이언트는 공유 정보에 대응되는 요청 정보를 생성할 수 있다. 이때 요청 정보는 명세 정보를 포함할 수 있다.
단계 1230에서, 제 2 클라이언트는 멀티미디어 컨텐츠가 저장된 서버(104)에 멀티미디어 컨텐츠의 요청 정보를 송신할 수 있다.
단계 1240에서, 제 2 클라이언트는 요청 정보에 기초하여 서버(104)에서 멀티미디어 컨텐츠를 수신할 수 있다.
이때, 단계 1220는 제 2 클라이언트가 요청 정보에 제 1 클라이언트의 주소를 추가하는 단계를 더 포함할 수 있다.
또한, 제 2 클라이언트는 요청 정보에 특징 정보를 더 포함할 수 있다. 이때, 제 2 클라이언트는 제 1 클라이언트에 의해 공유하고자 선택된 멀티미디어 컨텐츠와 관련된 멀티미디어 컨텐츠를 서버(104)로부터 수신하는 단계를 더 포함할 수 있다. 이때 관련 멀티미디어 컨텐츠는 특징 정보에 기초하여 서버(104)로부터 추천된 멀티미디어 컨텐츠이다.
도 13은 본 개시의 일 실시예에 따라, 서버의 구조를 설명하기 위한 도면이다.
도 13을 참조하면, 서버(104)는 분할 모듈(1310), 추출 모듈(1320) 및 브로드캐스트 모듈(1330)을 포함할 수 있다.
분할 모듈(1310)은 복수의 MPU들로 멀티미디어 컨텐츠를 분할할 수 있다. 추출 모듈(1320)은 각 MPU들로부터 특징 정보를 추출할 수 있다. 브로드캐스트 모듈(1330)은 MPU들과 MPU들의 특징 정보를 클라이언트에 브로드캐스팅할 수 있다.
이때, 추출 모듈(1320)은 클러스터링부(clustering unit)(1321), 추출부(1322) 및 관계 테이블 생성부(1323)를 포함할 수 있다.
이때, 클러스터링부(1321)는 MPU들을 MPU들의 멀티미디어 컨텐츠의 속성에 기초하여 복수의 카테고리들로 분류할 수 있다. 추출부(1322)는 각 분류된 카테고리로부터 특징 정보를 추출할 수 있다. 관계 테이블 생성부(1323)는 특징 정보와 MPU들간 관계 테이블을 생성할 수 있다.
이때, 멀티미디어 컨텐츠의 속성은 이미지 속성, 소리 속성 또는 컨텐츠 속성을 포함할 수 있다.
한편, 브로드캐스트 모듈(1330)은 제 1 송신부(1331) 및 제 2 송신부(1332)를 포함할 수 있다.
이때, 제 1 송신부(1331)는 시간 간격에 따라 순차대로 MPU들을 제 1 클라이언트에게 송신할 수 있다. 제 2 전송부(1332)는 주기에 따라 시그널링 메시지를 송신할 수 있다. 예를 들어, 시그널링 메시지는, 시그널링 메시지가 속하는 주기에서 전송된 MPU의 특징 정보 및 특징 정보와 MPU들간 관계 테이블을 포함할 수 있다.
또한, 제 2 전송부(1332)는 더 나아가 시그널링 메시지를 전송하기 위한 주기에서 전송된 제 1 MPU를 결정하고; 특징 정보와 MPU들간 관계 매핑에 기초하여 제 1 MPU의 특징 정보를 검색하고; 제 1 MPU의 특징 정보 및 제 1 MPU와 특징 정보간 관계 테이블을 시그널링 메시지에 추가할 수 있다.
한편, 서버(104)는 수신 모듈(1340) 및 송신 모듈(1350)을 더 포함할 수 있다.
이때, 수신 모듈(1340)은 클라이언트로부터 브로드캐스트 요청 정보를 수신할 수 있다. 브로드캐스트 요청 정보는 멀티미디어 컨텐츠에 있는 MPU들의 명세 정보를 포함할 수 있다. 명세 정보에 기초하여, 송신 모듈(1350)은 브로드캐스트 요청 정보를 전송한 클라이언트에 요청된 멀티미디어 컨텐츠를 전송할 수 있다.
이때, 명세 정보는 멀티미디어 컨텐츠와 관련된 시간, 공간 좌표, 구성 요소들 또는 추가 정보를 포함할 수 있다.
이때, 추가 정보는 멀티미디어 컨텐츠를 설명하는 텍스트 또는 멀티미디어 컨텐츠를 실행시키기 위한 어플리케이션에 관한 정보를 포함할 수 있다.
또한, 브로드캐스트 요청 정보는 요청된 멀티미디어 컨텐츠가 분할된 MPU들의 특징 정보를 더 포함할 수 있다.
한편, 서버(104)는 검색 모듈(1360)을 더 포함할 수 있다. 검색 모듈(1360)은 특징 정보에 기초하여, 요청된 멀티미디어 컨텐츠와 관련된 관련 멀티미디어 컨텐츠를 검색할 수 있다.
또한, 송신 모듈(1350)은 더 나아가 브로드캐스트 요청 정보를 전송한 클라이언트에 관련 멀티미디어 컨텐츠를 푸시할 수 있다.
또한, 브로드캐스트 요청 정보는 제 2 클라이언트와 멀티미디어 컨텐츠를 공유하고자 하는 제 1 클라이언트의 주소를 더 포함할 수 있다.
또한, 송신 모듈(1350)은 더 나아가 브로드캐스트 요청 정보에 포함된 제 1 클라이언트의 주소에 기초하여 제 1 클라이언트에 관련 멀티미디어 컨텐츠를 푸시할 수 있다.
도 14는 본 개시의 일 실시예에 따라, 제 2 클라이언트와 멀티미디어 컨텐츠를 공유하는 제 1 클라이언트의 구조를 설명하기 위한 도면이다.
도 14를 참조하면, 제 1 클라이언트(1400)는 수신 모듈(1410), 선택 모듈(1420), 생성 모듈(1430) 및 송신 모듈(1440)을 포함할 수 있다.
이때, 수신 모듈(1410)은 서버(104)로부터 멀티미디어 컨텐츠를 수신할 수 있다. 수신 모듈(1410)은 멀티미디어 컨텐츠를 MPU 형태로 수신할 수 있고, 각 MPU에 대응되는 특징 정보를 수신할 수 있다. 선택 모듈(1420)은 멀티미디어 컨텐츠로부터 적어도 하나의 MPU들을 제 2 클라이언트와 공유하는 멀티미디어 컨텐츠로서 선택할 수 있다. 생성 모듈(1430)은 제 2 클라이언트와 공유하기 위해 선택된 멀티미디어 컨텐츠를 위한 공유 정보를 생성할 수 있다. 공유 정보는 멀티미디어 컨텐츠가 분할된 MPU들의 명세 정보 및 특징 정보를 포함한다. 송신 모듈(1440)은 공유 정보를 전송할 수 있다.
일부 예들에서, 수신 모듈(1410)은 서버(104)로부터 시간 간격에 따라 순차대로 MPU들을 수신하고, 주기에 따라 시그널링 메시지를 수신할 수 있다. 이때 시그널링 메시지는 시그널링 메시지를 위한 주기에서 전송된 MPU의 특징 정보 및 특징 정보와 MPU들간 관계 테이블을 포함한다.
한편, 생성 모듈(1430)은 공유되어야 할 멀티미디어 컨텐츠에 관한 명세 정보를 생성하고; 특징 정보와 MPU들간 관계 테이블에 기초하여 공유되어야 할 멀티미디어 컨텐츠에서 MPU들의 특징 정보를 검색하고; 명세 정보와 특징 정보를 공유 정보에 추가할 수 있다.
또한, 생성 모듈(1430)은 제 1 클라이언트의 주소를 공유 정보에 추가할 수 있다.
한편, 선택 모듈(1420)은 시간, 공간 좌표, 구성 요소들 또는 멀티미디어 문서와 관련된 추가 정보에 따라 MPU를 선택할 수 있다. 이때, 추가 정보는 멀티미디어 컨텐츠를 설명하는 텍스트 또는 멀티미디어 컨텐츠를 실행시키기 위한 어플리케이션에 관한 정보를 포함할 수 있다.
또한, 송신 모듈(1440)은 제 1 송신부(1441) 및 제 2 송신부(1442)를 포함할 수 있다.
이때, 제 1 송신부(1441)는 제 2 클라이언트에 공유 정보를 전송할 수 있고, 제 2 송신부(1442)는 공유 플랫폼에 공유 정보를 전송할 수 있다.
도 15는 본 개시의 일 실시예에 따라, 멀티미디어 컨텐츠를 획득하는 제 2 클라이언트의 구조를 설명하기 위한 도면이다.
도 15를 참조하면, 제 2 클라이언트(1500)는 획득 모듈(1510), 생성 모듈(1520), 송신 모듈(1530) 및 수신 모듈(1540)을 포함할 수 있다.
이때, 획득 모듈(1510)은 제 1 클라이언트로부터 공유 정보를 획득할 수 있다. 공유 정보는 공유하는 멀티미디어 컨텐츠에서 MPU의 명세 정보 및 특징 정보를 포함한다. 생성 모듈(1520)은 공유 정보에 따라 요청 정보를 생성할 수 있다. 이때 요청 정보는 명세 정보를 포함할 수 있다. 송신 모듈(1530)은 요청 정보를 서버(104)에 전송할 수 있다. 수신 모듈(1540)은 서버(104)로부터 멀티미디어 컨텐츠를 수신할 수 있다.
한편, 생성 모듈(1520)은 제 1 클라이언트의 주소를 요청 정보에 추가할 수 있다.
또한, 수신 모듈(1540)은 관련 멀티미디어 컨텐츠를 수신할 수 있는데, 이때 관련 멀티미디어 컨텐츠는 공유하는 멀티미디어 컨텐츠와 관련되고, 특징 정보에 기초하여 서버(104)에 의해 추천된, 멀티미디어 컨텐츠일 수 있다.
도 16은 본 개시의 다른 실시예에 따른 제 1 클라이언트 및 제 2 클라이언트의 구조를 설명하기 위한 도면이다.
도 16을 참조하면, 제 1 클라이언트 및 제 2 클라이언트는 통신 인터페이스(1610) 및 프로세서(1620)를 포함할 수 있다.
제 1 클라이언트의 통신 인터페이스 (1610)는 서버(104)로부터 수신된 멀티미디어 컨텐츠 중 제 2 클라이언트와 공유를 위해 적어도 하나의 멀티미디어 컨텐츠를 선택하고, 선택된 멀티미디어 컨텐츠에 관한 정보를 포함하는, 공유 정보를 제 2 클라이언트에 전송할 수 있다.
제 1 클라이언트의 프로세서(1620)는 서버(104)로부터 멀티미디어 컨텐츠를 수신한 후, 멀티미디어 컨텐츠의 공유 정보를 생성할 수 있다.
제 2 클라이언트의 통신 인터페이스(1610)는 제 1 클라이언트가 수신하는 멀티미디어 컨텐츠 중 공유를 위해 선택된 적어도 하나의 멀티미디어 컨텐츠에 관한 정보를 포함하는, 공유 정보를 제 1 클라이언트로부터 수신하고, 공유 정보에 기초하여 생성된 멀티미디어 컨텐츠의 요청 정보를 멀티미디어 컨텐츠가 저장된 서버(104)에 송신하고, 요청 정보에 기초하여 서버(104)에서 검색된, 멀티미디어 컨텐츠를 수신할 수 있다. 또한, 제 2 클라이언트의 통신 인터페이스(1610)는, 서버(104)에 의해 생성된 MPU와 특징 정보의 관계가 정의된 관계 테이블을 제 1 클라이언트로부터 수신할 수 있다.
또한, 제 2 클라이언트의 통신 인터페이스(1610)는, 서버(104)에 의해 멀티미디어 컨텐츠와 관련된 것으로 판단된 멀티미디어 컨텐츠를 수신할 수 있는데, 이때 관련 멀티미디어 컨텐츠는, 특징 정보가 복수인 경우, 복수의 특징 정보 중 일부와 동일한 특징 정보를 갖는 멀티미디어 컨텐츠를 의미하는 것일 수 있다.
제 2 클라이언트의 프로세서(1620)는 통신 인터페이스(1610)가 공유 정보를 수신하면, 서버(104)에 전송하기 위한 멀티미디어 컨텐츠의 요청 정보를 생성할 수 있다.
이때, 공유 정보는 제 1 클라이언트의 주소 정보를 포함할 수 있고, 제 2 클라이언트의 프로세서(1620)는 제 1 클라이언트의 주소 정보를 포함하는 요청 정보를 생성할 수 있다.
도 17은 본 개시의 일 실시예에 따른 제 1 클라이언트 및 제 2 클라이언트의 구조를 설명하기 위한 상세 도면이다.
도 17을 참조하면, 제 1 클라이언트 및 제 2 클라이언트(1700)는 프로세서(1710) 및 통신 인터페이스(1720) 이외에 A/V 입력부(1730), 메모리(1740), 센싱부(1750) 및 출력부(1760)를 포함할 수 있다.
프로세서(1710)는 도 16의 프로세서(1620)와 대응되므로, 구체적인 설명은 생략하기로 한다.
통신 인터페이스(1720)는, 근거리 통신부(1721), 이동 통신부(1722), 방송 수신부(1723)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)( 1721)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(1722)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1723)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다.
A/V(Audio/Video) 입력부(1730)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라와 마이크로폰 등이 포함될 수 있다.
메모리(1740)는, 프로세서(1710)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 제 1 클라이언트 및 제 2 클라이언트(1700)로 입력되거나 제 1 클라이언트 및 제 2 클라이언트(1700)로부터 출력되는 데이터를 저장할 수도 있다.
센싱부(1750)는, 제 1 클라이언트 및 제 2 클라이언트(1700)의 상태 또는 주변의 상태를 감지하고, 감지된 정보를 프로세서(1710)로 전달할 수 있다. 센싱부(1750)는, 지자기 센서(Magnetic sensor), 가속도 센서(Acceleration sensor), 온/습도 센서, 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 기압 센서, 근접 센서, 및 RGB 센서(illuminance sensor) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.
출력부(1760)는, 오디오 신호 또는 비디오 신호를 출력할 수 있으며, 디스플레이부(1761) 및 음향 출력부(1762)를 포함할 수 있다.
도 18은 본 개시의 일 실시예에 따라, 제 2 클라이언트가 서버에 의해 제 1 클라이언트에 제공된 멀티미디어 컨텐츠를 수신하는 방법을 설명하기 위한 도면이다.
단계 1810에서, 제 2 클라이언트는 제 1 클라이언트가 수신하는 멀티미디어 컨텐츠 중 공유를 위해 선택된 적어도 하나의 멀티미디어 컨텐츠에 관한 공유 정보를 제 1 클라이언트로부터 수신할 수 있다. 이때, 제 1 클라이언트는 멀티미디어 컨텐츠를 스트리밍 방식으로 수신하는 중에 공유를 위해 일부 멀티미디어 컨텐츠를 선택할 수 있다. 또한, 제 1 클라이언트는 서버로부터 브로드캐스트 중인 멀티미디어 컨텐츠 중 일부를 제 2 클라이언트와 공유하기 위해 선택할 수 있다.
한편, 멀티미디어 컨텐츠는 서버(104)에 의해 MPU로 분할되고, 멀티미디어 컨텐츠의 타입에 따라 MPU를 분류한 것에 기초하여 특징 정보가 생성되고, 멀티미디어 컨텐츠의 타입은 이미지, 텍스트, 소리 또는 비디오를 포함할 수 있다.
또한, 제 2 클라이언트는 서버(104)에 의해 생성된 MPU와 특징 정보의 관계가 정의된 관계 테이블을 제 1 클라이언트로부터 수신할 수 있다.
또한, 요청 정보는 특징 정보를 포함하고, 제 2 클라이언트는 서버(104)에 의해 멀티미디어 컨텐츠와 관련된 것으로 판단된 멀티미디어 컨텐츠를 수신할 수 있고, 이때 관련 멀티미디어 컨텐츠는, 특징 정보가 복수인 경우, 복수의 특징 정보 중 일부와 동일한 특징 정보를 갖는 멀티미디어 컨텐츠를 의미할 수 있다.
또한, 공유 정보는 멀티미디어 컨텐츠의 일부를 특정하는 구간 정보 또는 멀티미디어 컨텐츠가 저장된 위치에 관한 정보를 포함할 수 있다.
또한, 요청 정보는 멀티미디어 컨텐츠의 명세 정보를 포함하고, 명세 정보는, 시간, 공간 좌표, 멀티미디어 컨텐츠를 구성하는 컨텐츠의 타입으로 정의되는 구성 요소 또는 멀티미디어 컨텐츠와 관련된 추가 정보를 포함할 수 있다. 이때, 구성 요소는, 비디오 정보, 오디오 정보 또는 자막 정보를 포함하고, 멀티미디어 컨텐츠와 관련된 추가 정보는, 멀티미디어 컨텐츠를 설명하는 텍스트 또는 멀티미디어 컨텐츠를 실행시키기 위한 어플리케이션에 관한 정보를 포함할 수 있다.
또한, 멀티미디어 컨텐츠가 MMT 프로토콜에 따라 브로드캐스트되는 경우, 특징 정보는 시그널링 메시지 내의 CI에 포함되어 브로드캐스트될 수 있다.
단계 1820에서, 제 2 클라이언트는 공유 정보에 기초하여, 멀티미디어 컨텐츠의 요청 정보를 생성할 수 있다.
이때, 공유 정보는 제 1 클라이언트의 주소 정보를 포함할 수 있고, 요청 정보를 생성하는 단계는, 제 1 클라이언트의 주소 정보를 포함하는 요청 정보를 생성하는 단계일 수 있다.
단계 1830에서, 제 2 클라이언트는 멀티미디어 컨텐츠가 저장된 서버(104)에 요청 정보를 송신할 수 있다.
단계 1840에서, 제 2 클라이언트는 요청 정보에 기초하여 서버(104)에서 검색된, 멀티미디어 컨텐츠를 수신할 수 있다.한편, 상술한 실시예는, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터에 의해 판독 가능한 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시예에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 또한, 상술한 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로 구현될 수 있다. 예를 들어, 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 컴퓨터가 읽고 실행할 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다.
컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 기록 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 포함할 수 있다. 컴퓨터 판독 가능 매체는 마그네틱 저장매체, 예를 들면, 롬, 플로피 디스크, 하드 디스크 등을 포함하고,) 광학적 판독 매체, 예를 들면, 시디롬, DVD 등과 같은 저장 매체를 포함할 수 있으나, 이에 제한되지 않는다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다.
또한, 컴퓨터가 읽을 수 있는 복수의 기록 매체가 네트워크로 연결된 컴퓨터 시스템들에 분산되어 있을 수 있으며, 분산된 기록 매체들에 저장된 데이터, 예를 들면 프로그램 명령어 및 코드가 적어도 하나의 컴퓨터에 의해 실행될 수 있다.
본 개시에서 설명된 특정 실행들은 일 실시예 일 뿐이며, 어떠한 방법으로도 본 개시의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 및 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다.
전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.

Claims (15)

  1. 서버에 의해 제 1 클라이언트에 제공된 멀티미디어 컨텐츠를 상기 서버로부터 수신하는 제 2 클라이언트에 있어서,
    상기 제 1 클라이언트가 수신하는 상기 멀티미디어 컨텐츠 중 공유를 위해 선택된 적어도 하나의 멀티미디어 컨텐츠에 관한 정보를 포함하는, 공유 정보를 상기 제 1 클라이언트로부터 수신하고,
    상기 공유 정보에 기초하여 생성된 상기 멀티미디어 컨텐츠의 요청 정보를 상기 멀티미디어 컨텐츠가 저장된 서버에 송신하고,
    상기 요청 정보에 기초하여 상기 서버에서 검색된, 상기 멀티미디어 컨텐츠를 수신하는, 통신 인터페이스; 및
    상기 멀티미디어 컨텐츠의 요청 정보를 생성하는, 프로세서;
    를 포함하고,
    상기 멀티미디어 컨텐츠는 상기 멀티미디어 컨텐츠의 내용을 대표하는 특징 정보와 함께 제공되는 것인, 장치.
  2. 제 1 항에 있어서,
    상기 멀티미디어 컨텐츠는 상기 서버에 의해 미디어 처리 단위(Media Processing Unit, MPU)로 분할되고,
    상기 멀티미디어 컨텐츠의 타입에 따라 상기 MPU를 분류한 것에 기초하여 상기 특징 정보가 생성되고,
    상기 멀티미디어 컨텐츠의 타입은 이미지, 텍스트, 소리 또는 비디오를 포함하는, 장치.
  3. 제 2 항에 있어서,
    상기 통신 인터페이스는, 상기 서버에 의해 생성된 상기 MPU와 상기 특징 정보의 관계가 정의된 관계 테이블을 상기 제 1 클라이언트로부터 수신하는, 장치.
  4. 제 1 항에 있어서,
    상기 요청 정보는 상기 특징 정보를 포함하고,
    상기 통신 인터페이스는, 상기 서버에 의해 상기 멀티미디어 컨텐츠와 관련된 것으로 판단된 멀티미디어 컨텐츠를 수신하고,
    상기 관련 멀티미디어 컨텐츠는, 상기 특징 정보가 복수인 경우, 상기 복수의 특징 정보 중 일부와 동일한 특징 정보를 갖는 멀티미디어 컨텐츠를 의미하는 것인, 장치.
  5. 제 1 항에 있어서,
    상기 공유 정보는 상기 멀티미디어 컨텐츠의 일부를 특정하는 구간 정보 또는 상기 멀티미디어 컨텐츠가 저장된 위치에 관한 정보를 포함하는, 장치.
  6. 제 1 항에 있어서,
    상기 멀티미디어 컨텐츠가 MMT(MPEG media transport) 프로토콜에 따라 브로드캐스트되는 경우, 상기 특징 정보는 시그널링 메시지(signaling message) 내의 구성 정보 (Composition Information, CI)에 포함되어 브로드캐스트되는 것인, 장치.
  7. 제 1 항에 있어서,
    상기 공유 정보는, 상기 제 1 클라이언트의 주소 정보를 포함하고,
    상기 프로세서는 상기 제 1 클라이언트의 주소 정보를 포함하는 요청 정보를 생성하는, 장치.
  8. 서버로부터 멀티미디어 컨텐츠를 수신하여 제 2 클라이언트와 공유하는, 제 1 클라이언트에 있어서,
    상기 서버로부터 수신된 상기 멀티미디어 컨텐츠 중 상기 제 2 클라이언트와 공유를 위해 적어도 하나의 멀티미디어 컨텐츠를 선택하고,
    상기 선택된 멀티미디어 컨텐츠에 관한 정보를 포함하는, 공유 정보를 상기 제 2 클라이언트에 전송하는, 통신 인터페이스; 및
    상기 멀티미디어 컨텐츠의 공유 정보를 생성하는, 프로세서;
    를 포함하고,
    상기 멀티미디어 컨텐츠는 상기 멀티미디어 컨텐츠의 내용을 대표하는 특징 정보와 함께 제공되는 것인, 장치.
  9. 제 2 클라이언트가 서버에 의해 제 1 클라이언트에 제공된 멀티미디어 컨텐츠를 상기 서버로부터 수신하는 방법에 있어서,
    상기 제 1 클라이언트가 수신하는 상기 멀티미디어 컨텐츠 중 공유를 위해 선택된 적어도 하나의 멀티미디어 컨텐츠에 관한 공유 정보를 상기 제 1 클라이언트로부터 수신하는 단계;
    상기 공유 정보에 기초하여, 상기 멀티미디어 컨텐츠의 요청 정보를 생성하는 단계;
    상기 멀티미디어 컨텐츠가 저장된 서버에 상기 요청 정보를 송신하는 단계; 및
    상기 요청 정보에 기초하여 상기 서버에서 검색된, 상기 멀티미디어 컨텐츠를 수신하는 단계;
    를 포함하고,
    상기 멀티미디어 컨텐츠는 상기 멀티미디어 컨텐츠의 내용을 대표하는 특징 정보와 함께 제공되는 것인, 방법.
  10. 제 9 항에 있어서,
    상기 멀티미디어 컨텐츠는 상기 서버에 의해 미디어 처리 단위(Media Processing Unit, MPU)로 분할되고,
    상기 멀티미디어 컨텐츠의 타입에 따라 상기 MPU를 분류한 것에 기초하여 상기 특징 정보가 생성되고,
    상기 멀티미디어 컨텐츠의 타입은 이미지, 텍스트, 소리 또는 비디오를 포함하는, 방법.
  11. 제 10 항에 있어서,
    상기 서버에 의해 생성된 상기 MPU와 상기 특징 정보의 관계가 정의된 관계 테이블을 상기 제 1 클라이언트로부터 수신하는 단계;
    를 더 포함하는, 방법.
  12. 제 9 항에 있어서,
    상기 요청 정보는 상기 특징 정보를 포함하고,
    상기 서버에 의해 상기 멀티미디어 컨텐츠와 관련된 것으로 판단된 멀티미디어 컨텐츠를 수신하는 단계;
    를 더 포함하고,
    상기 관련 멀티미디어 컨텐츠는, 상기 특징 정보가 복수인 경우, 상기 복수의 특징 정보 중 일부와 동일한 특징 정보를 갖는 멀티미디어 컨텐츠를 의미하는 것인, 방법.
  13. 제 9 항에 있어서,
    상기 공유 정보는 상기 멀티미디어 컨텐츠의 일부를 특정하는 구간 정보 또는 상기 멀티미디어 컨텐츠가 저장된 위치에 관한 정보를 포함하는, 방법.
  14. 제 9 항에 있어서,
    상기 멀티미디어 컨텐츠가 MMT 프로토콜에 따라 브로드캐스트되는 경우, 상기 특징 정보는 시그널링 메시지 내의 CI에 포함되어 브로드캐스트되는 것인, 방법.
  15. 제 9 항에 있어서,
    상기 공유 정보는, 상기 제 1 클라이언트의 주소 정보를 포함하고,
    상기 요청 정보를 생성하는 단계는, 상기 제 1 클라이언트의 주소 정보를 포함하는 요청 정보를 생성하는 단계인, 방법.
PCT/KR2016/005447 2015-06-11 2016-05-23 멀티미디어 컨텐츠를 공유하는 방법 및 장치 WO2016200078A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/735,416 US11089073B2 (en) 2015-06-11 2016-05-23 Method and device for sharing multimedia content

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201510317608.1A CN106302362B (zh) 2015-06-11 2015-06-11 多媒体内容发送方法、分享方法、接收方法及对应装置
CN201510317608.1 2015-06-11
KR1020160060215A KR102549535B1 (ko) 2015-06-11 2016-05-17 멀티미디어 컨텐츠를 공유하는 방법 및 장치
KR10-2016-0060215 2016-05-17

Publications (1)

Publication Number Publication Date
WO2016200078A1 true WO2016200078A1 (ko) 2016-12-15

Family

ID=57503635

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/005447 WO2016200078A1 (ko) 2015-06-11 2016-05-23 멀티미디어 컨텐츠를 공유하는 방법 및 장치

Country Status (1)

Country Link
WO (1) WO2016200078A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107483596A (zh) * 2017-08-24 2017-12-15 维沃移动通信有限公司 一种多媒体文件分享方法、相关设备及系统
CN109587514A (zh) * 2017-09-28 2019-04-05 中国移动通信有限公司研究院 一种视频播放方法、介质和相关装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226521A (ja) * 2009-03-24 2010-10-07 Sharp Corp コンテンツ再生システム、コンテンツ再生方法、プログラム、および、記録媒体
KR20100115058A (ko) * 2009-04-17 2010-10-27 에스케이텔레콤 주식회사 홈네트워크 기반의 디바이스간 콘텐츠공유시스템 및 방법
KR20110032674A (ko) * 2009-09-23 2011-03-30 삼성전자주식회사 멀티미디어 방송 시스템에서 클라이언트 간의 정보 제공 방법 및 장치
WO2012134150A2 (ko) * 2011-03-29 2012-10-04 (주)티아이스퀘어 커뮤니케이션 서비스 수행 도중 멀티미디어 콘텐츠 공유 서비스 제공 방법 및 시스템
KR20140010813A (ko) * 2012-07-17 2014-01-27 삼성전자주식회사 방송 시스템에서 멀티미디어 데이터의 전송 특징 정보 전달 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226521A (ja) * 2009-03-24 2010-10-07 Sharp Corp コンテンツ再生システム、コンテンツ再生方法、プログラム、および、記録媒体
KR20100115058A (ko) * 2009-04-17 2010-10-27 에스케이텔레콤 주식회사 홈네트워크 기반의 디바이스간 콘텐츠공유시스템 및 방법
KR20110032674A (ko) * 2009-09-23 2011-03-30 삼성전자주식회사 멀티미디어 방송 시스템에서 클라이언트 간의 정보 제공 방법 및 장치
WO2012134150A2 (ko) * 2011-03-29 2012-10-04 (주)티아이스퀘어 커뮤니케이션 서비스 수행 도중 멀티미디어 콘텐츠 공유 서비스 제공 방법 및 시스템
KR20140010813A (ko) * 2012-07-17 2014-01-27 삼성전자주식회사 방송 시스템에서 멀티미디어 데이터의 전송 특징 정보 전달 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107483596A (zh) * 2017-08-24 2017-12-15 维沃移动通信有限公司 一种多媒体文件分享方法、相关设备及系统
CN109587514A (zh) * 2017-09-28 2019-04-05 中国移动通信有限公司研究院 一种视频播放方法、介质和相关装置

Similar Documents

Publication Publication Date Title
WO2017099444A1 (en) Content processing apparatus, content processing method thereof, server, information providing method of server and information providing system
WO2013151374A1 (en) Method and system for transfering data between plurality of devices
WO2014017760A1 (en) Method of providing information and display device thereof
WO2010079883A2 (en) Method and apparatus for reproducing content through integrated channel management
WO2018026162A1 (en) Electronic apparatus and method of operating the same
WO2015174753A1 (en) Content output apparatus, mobile apparatus, and controlling methods thereof
WO2009134032A2 (en) Apparatus and method for providing broadcast contents in internet broadcast system
EP3138300A1 (en) Content output apparatus, mobile apparatus, and controlling methods thereof
WO2015046747A1 (ko) Tv 및 그 동작 방법
WO2014182066A1 (en) Content providing method and device
WO2013157890A1 (en) Method and apparatus of processing data to support augmented reality
WO2016080700A1 (en) Display apparatus and display method
EP3430811A1 (en) Electronic apparatus and method of operating the same
WO2016204520A1 (en) Display device and operating method thereof
WO2019135433A1 (ko) 디스플레이 장치 및 디스플레이 장치를 포함하는 시스템
WO2016129840A1 (en) Display apparatus and information providing method thereof
WO2019137016A1 (zh) 电视节目推荐方法、设备及计算机可读存储介质
EP3314906A1 (en) Method and apparatus for transmitting and receiving signal in multimedia system
WO2016208988A1 (en) Method and apparatus for transmitting and receiving signal in multimedia system
WO2016200078A1 (ko) 멀티미디어 컨텐츠를 공유하는 방법 및 장치
WO2020171657A1 (en) Display device and image display method of the same
WO2023027487A1 (ko) 디스플레이 장치 및 디스플레이 장치의 제어 방법
WO2015115850A1 (ko) 방송 수신 장치
WO2020230923A1 (ko) 음성 인식 서비스를 제공하기 위한 디스플레이 장치 및 그의 동작 방법
WO2022050761A1 (ko) 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16807719

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15735416

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16807719

Country of ref document: EP

Kind code of ref document: A1