WO2016163777A1 - 무선 통신 시스템에서 데이터를 송수신하는 방법 및 장치 - Google Patents

무선 통신 시스템에서 데이터를 송수신하는 방법 및 장치 Download PDF

Info

Publication number
WO2016163777A1
WO2016163777A1 PCT/KR2016/003654 KR2016003654W WO2016163777A1 WO 2016163777 A1 WO2016163777 A1 WO 2016163777A1 KR 2016003654 W KR2016003654 W KR 2016003654W WO 2016163777 A1 WO2016163777 A1 WO 2016163777A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
transmitting
output
image
time
Prior art date
Application number
PCT/KR2016/003654
Other languages
English (en)
French (fr)
Inventor
장영빈
권상욱
김경규
목영중
아기왈아닐
권종형
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP16776880.3A priority Critical patent/EP3282652B1/en
Priority to US15/563,765 priority patent/US20180098180A1/en
Publication of WO2016163777A1 publication Critical patent/WO2016163777A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43637Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/14Charging, metering or billing arrangements for data wireline or wireless communications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L13/00Details of the apparatus or circuits covered by groups H04L15/00 or H04L17/00
    • H04L13/02Details not particular to receiver or transmitter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6181Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/005Discovery of network devices, e.g. terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/20Control channels or signalling for resource management

Definitions

  • the present disclosure relates to a method and apparatus for transmitting and receiving data in a wireless communication system supporting device to device communication (D2D communication).
  • D2D communication device to device communication
  • 4G (4 th -generation: 4G) to meet the demand for wireless data traffic on the rise since the commercialization of communication systems, enhanced fifth generation (5 th -generation: 5G) to develop a communication system or a pre-5G Communications Systems Efforts are being made. For this reason, a 5G communication system or a pre-5G communication system is called a after 4G network communication system or a long term evolution (LTE) system (post LTE) system.
  • LTE long term evolution
  • 5G communication systems are being considered for implementation in the ultra-high frequency (mmWave) band (e.g., 60 gigabyte (60 GHz) band).
  • mmWave ultra-high frequency
  • MIMI massive multi-input multi-output
  • FD-MIMO Full dimensional MIMO
  • array antenna analog beam-forming, and large scale antenna techniques are discussed.
  • 5G communication systems have advanced small cells, advanced small cells, cloud radio access network (cloud RAN), ultra-dense network (ultra-dense network) Device to device communication (D2D), wireless backhaul, moving network, cooperative communication, coordinated multi-points (CoMP), and reception Development of technologies such as interference cancellation is underway.
  • cloud RAN cloud radio access network
  • ultra-dense network ultra-dense network
  • D2D Device to device communication
  • wireless backhaul moving network
  • cooperative communication coordinated multi-points
  • CoMP coordinated multi-points
  • FQAM hybrid FSK and QAM modulation
  • SWSC sliding window superposition coding
  • ACM advanced coding modulation
  • filter bank multicarrier an advanced access technology
  • Filter bank multi carrier FBMC
  • NOMA non orthogonal multiple access
  • SCMA sparse code multiple access
  • Bluetooth technology is a short-range wireless technology standard that pairs mobile devices such as mobile phones, laptops, earphones, headsets, smartphones, and speakers by pairing between a master device and a slave device. It is a technology that uses 7 different devices to connect wirelessly.
  • a Bluetooth headset using Bluetooth technology is a device that outputs audio data output from a moving picture experts group-1 audio layer-3 (MP3) player without a cable through the 2.4 GHz frequency. to be.
  • MP3 player may be a transmitting device
  • the Bluetooth headset may be a receiving device.
  • FIG. 1 illustrates an example of a method of transmitting and receiving voice data based on a conventional Bluetooth technology.
  • the transmitting device 110 and the receiving device 130 must perform a pairing operation of matching operation clocks and frequency patterns with each other to form a new connection state. (150).
  • the pairing operation includes an inquiry operation, an inquiry scan operation, a page operation, and a page scan operation.
  • the query operation is an operation of repeatedly transmitting an operating frequency by the transmitting device 110 so that the receiving device 130 can match a frequency pattern with the transmitting device 110, and the scanning query operation is performed by the receiving device 130.
  • the process of detecting a received frequency and synchronizing with the detected frequency is performed at.
  • the page operation is an operation of transmitting a clock signal from the transmission apparatus 110 so that the reception apparatus 130 can match the operation clock of the transmission apparatus 110
  • the page scan operation is a clock at which the reception apparatus 130 is received. This operation detects and synchronizes with.
  • the transmitting device 110 decodes the music file stored in the internal memory, and decodes the decoded data for the music of Bluetooth.
  • the audio data is re-encoded based on the codec specified in the profile (eg, an advanced audio distribution profile (A2DP)) to be transmitted to the receiving device 130 (170). ) Can avoid interference with other signals by doing new frequency hopping.
  • A2DP advanced audio distribution profile
  • the receiving device 130 receives the voice data transmitted from the transmitting device 110 at the frequency and clock time promised with the transmitting device 110, and then frequency hopping the received voice data, A decoding process and a conversion process to an analog signal are performed to output the converted voice data through an output unit.
  • the receiving device 130 may repeat this process to receive and output continuous voice data.
  • Bluetooth technology requires a pairing process, thereby limiting the number of devices that can simultaneously provide a service. Therefore, Bluetooth technology is not suitable for a broadcast service without a limitation on the number of devices that provide a service at the same time.
  • the transmitter 110 may transmit the audio data to the receiver 130 and output image data from the transmitter 110 as illustrated in FIG. 2.
  • FIG. 2 illustrates an example of a method of outputting image data and audio data based on a conventional Bluetooth technology.
  • the transmitting device 110 may output the image data through the internal output unit 201 and simultaneously transmit the audio data to the receiving device 130 ( 203).
  • the synchronization between the image data output from the transmission device 110 and the audio data output from the reception device 130 may be synchronized, but a service having high quality may be provided to the user.
  • FIG. 3 illustrates an example of a synchronization method between data provided by the transmitter and the receiver of FIG. 2.
  • the transmitting device 110 occurs during the buffering or decoding process of the receiving device 130. Can not accurately predict the delay time. Due to this problem, there is a problem that the synchronization between the video data output from the transmitting device 110 and the audio data output from the receiving device 130 occurs.
  • the transmitting device 110 transmits voice data to the receiving device 130 (301). Then, the reception device 130 receives the voice data, calculates a delay time that may occur in the buffering process, the decoding process, and the rendering process for the received voice data (303), and calculates the calculated delay. The time is transmitted to the transmitting device 110.
  • the transmitting apparatus 110 corrects the synchronization between the output image data and the transmitted audio data by using the delay time received from the receiving apparatus 130 (307).
  • the transmitting device 110 transmits audio data having a large media stream first, and then drops or duplicates an image frame, or adjusts an output time of the image data.
  • voice data can be output (ie, reproduced) at the same time.
  • the transmitting device 110 and the receiving device 130 on which the pairing operation is performed the transmitting device 11 receives directly from the receiving device 130. Since it is necessary to perform synchronization by using the obtained information, it is not suitable for a broadcast service without a limitation on the number of devices providing services at the same time.
  • An embodiment of the present disclosure provides a method and apparatus for performing a discovery process between a transmitting device and a receiving device in a wireless communication system supporting D2D communication.
  • an embodiment of the present disclosure provides a method and apparatus for allocating resources for transmitting image-related data in a wireless communication system supporting D2D communication.
  • an embodiment of the present disclosure is to provide a method and apparatus for performing synchronization between image data and association data in a wireless communication system supporting D2D communication.
  • an embodiment of the present disclosure provides a method and apparatus for transmitting and receiving synchronized data between a transmitting apparatus and a receiving apparatus in a wireless communication system supporting D2D communication.
  • a method for transmitting data by a transmitting device in a wireless communication system supporting device to device communication comprising: at the same time video data and video data in one video container data Receiving the generated message by generating a message including a process of separating output image related data, outputting the image data, information related to the image related data and a time point at which the image data is output, and receiving the generated message The process of sending to.
  • a method of receiving data by a receiving device in a wireless communication system supporting device to device communication comprising: simultaneously with the video data separated from the video data in one video container data from the transmitting device; Receiving a message including the output image related data and information related to a time point at which the image data is output, and outputting the image related data based on information related to the time point at which the image data is output. do.
  • An apparatus for transmitting data by a transmitting device in a wireless communication system supporting device to device communication comprising: at the same time video data and video data in one video container data
  • a device in which a receiving device receives data in a wireless communication system supporting device to device communication, wherein the receiving device receives data at the same time as the video data separated from the video data in one video container data from the transmitting device.
  • a transmitter / receiver configured to receive a message including output image related data and information related to a time point at which the image data is output, and a control unit that outputs the image related data based on information related to a time point at which the image data is output;
  • the terms “include” and “Comprise” and its derivatives mean unlimited inclusion;
  • the term “or (or)” is inclusive and means “and / or”;
  • the phrases “associated with” and “associated therewith” and their derivatives include, be included within, and are interconnected with ( interconnect with, contain, be contained within, connect to or with, connect to or with Possibility to be communicable with, cooperate with, interleave, juxtapose, be proximate to, Is large or likely to be and be bound to or with, have, have a property of, etc .;
  • controller means any device, system, or portion thereof that controls at least one operation, wherein the device is hardware, firmware or software, or some combination of at least two of the hardware, firmware or software.
  • FIG. 1 is a view showing an example of a method of transmitting and receiving voice data based on a conventional Bluetooth technology
  • FIG. 2 is a diagram illustrating an example of a method of outputting image data and audio data based on a conventional Bluetooth technology
  • FIG. 3 is a diagram illustrating an example of a synchronization method between data provided by a transmitter and a receiver of FIG. 2;
  • FIG. 4 is a diagram illustrating an example of a wireless communication system according to an embodiment of the present disclosure
  • FIG. 5 is a diagram illustrating an example of a method of performing a discovery process in a transmitting device and a receiving device of a communication system according to an embodiment of the present disclosure
  • FIG. 6 illustrates another example of a method of performing a discovery process in a transmitting apparatus and a receiving apparatus of a communication system according to an embodiment of the present disclosure
  • FIG. 7 is a diagram illustrating a configuration of a search code allocated by a server according to an embodiment of the present disclosure
  • FIG. 8 is a diagram illustrating an example of outputting a UI in a reception apparatus included in a wireless communication system according to an embodiment of the present disclosure
  • FIG. 9 is a diagram illustrating an example of a method for transmitting image-related data by receiving a resource by a transmitting apparatus in a wireless communication system according to an embodiment of the present disclosure
  • FIG. 10 is a diagram illustrating an example of a configuration of a resource allocation request message for requesting resource allocation in a transmitting apparatus according to an embodiment of the present disclosure
  • FIG. 11 is a diagram illustrating an example of a method for requesting resource allocation in a transmitting apparatus according to an embodiment of the present disclosure
  • FIG. 12 illustrates an example of a method for allocating resources at a base station according to an embodiment of the present disclosure
  • FIG. 13 is a diagram illustrating an example of allocating resources in an LTE cellular system
  • FIG. 14 illustrates an example of a method for receiving voice data requiring synchronization in a receiving device according to an embodiment of the present disclosure
  • FIG. 15 is a view showing another example of a method for receiving voice data requiring synchronization in a receiving device according to an embodiment of the present invention.
  • 16 is a diagram illustrating another example of a method for transmitting image-related data by a transmitting device in a wireless communication system according to an embodiment of the present disclosure
  • 17 is a diagram illustrating an example of a method for synchronizing data transmitted and received by a transmitter and a receiver according to an embodiment of the present disclosure
  • FIG. 19 is a diagram illustrating an example of a method of outputting data by a transmitting apparatus and a receiving apparatus according to an embodiment of the present disclosure
  • 20 is a diagram illustrating another example of a method of outputting data from a transmitter and a receiver according to an embodiment of the present disclosure
  • 21 illustrates an example of a method of transmitting voice data when an absolute time between a transmitter and a receiver is not correct in a transmitter according to an embodiment of the present disclosure
  • FIG. 22 illustrates an example of a method of outputting voice data when an absolute time between a transmitting device and a receiving device does not match in a receiving device according to an embodiment of the present disclosure
  • FIG. 23 is a diagram illustrating another example of a method for transmitting voice data when an absolute time between a transmitter and a receiver is correct in a transmitter according to an embodiment of the present disclosure
  • 24 is a diagram illustrating another example of a method of outputting voice data when an absolute time between a transmitter and a receiver is correct in a receiver according to an embodiment of the present disclosure
  • 25 is a diagram schematically illustrating an example of an internal structure of a transmitter for transmitting data in a communication system according to an embodiment of the present disclosure
  • FIG. 26 is a view schematically illustrating an example of an internal structure of a receiving device that receives data in a communication system according to an embodiment of the present disclosure.
  • FIG. 26 is a view schematically illustrating an example of an internal structure of a receiving device that receives data in a communication system according to an embodiment of the present disclosure.
  • first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
  • An important aspect of the present invention is a transmission apparatus of a communication system separates video data and video-related data output simultaneously with the video data from one video container data, and outputs the video data, Transmitting a message including the image related data and information related to a time point at which the image data is output, to the receiving device, wherein the receiving device outputs the image data to be synchronized with the image data output from the transmitting device.
  • Image-related data is output based on information related to a viewpoint.
  • the image related data is media data to be synchronized with the image data, and may be, for example, at least one of voice, text, and image.
  • FIG. 4 illustrates an example of a wireless communication system according to an embodiment of the present disclosure.
  • a wireless communication system includes a transmitting device 410 and a receiving device 430. Additionally, the wireless communication system includes a wireless node 450 managing radio resources, a server 470 for transmitting and receiving media data to and from the transmitting device 410 and the receiving device 430 according to a communication environment, and a broadcast for supporting airwave broadcasting. It may further comprise at least one of the apparatus 490.
  • the transmitting device 410 may be, for example, a display device that provides an image
  • the receiving device 430 may be, for example, a play device that outputs at least one of an image, a text, and an audio.
  • the broadcast device 490 may be, for example, a broadcast station.
  • the transmitting device 410 communicates with the receiving device 430 or the wireless node 450.
  • the transmitting device 410 receives one video container data from the server 470 or the broadcasting device 490 or stores one video container data in the transmitting device 410.
  • the transmitter 410 decodes the content corresponding to the video container data, and separates the video data from the video related data to be synchronized with the video data.
  • the transmitter 410 outputs the image data through an image output unit, and transmits the image related data to the receiver 430 or the wireless node 450.
  • the wireless node 450 may be a base station when the wireless communication system is a broadband wireless communication system, and may be an access point (AP) when the wireless communication system is a wireless LAN system.
  • AP access point
  • the transmission device 410 may be divided into three methods of transmitting the image related data to the reception device 430 or the wireless node 450.
  • the transmitting device 410 may transmit image related data to another device using a broadcasting technique.
  • the transmitting device 410 may transmit image related data to all receiving devices 430 that are permitted to use the D2D communication method from a communication company.
  • the transmitting device 410 may transmit the image related data to a receiving device 430 that is grouped in advance in order to transmit only the receiving device 430 included in a specific group.
  • the transmitting device 410 may transmit the image related data to one specific receiving device 430 using a unicast technique.
  • the transmitting device 410 may transmit image related data only to a specific receiving device 430 among receiving devices that are permitted to use a D2D communication method from a communication company.
  • An example of methods of transmitting image related data in the above-described transmitting device 410 will be described in detail with reference to FIGS. 5 to 24.
  • the reception device 430 communicates with the transmission device 410 or the wireless node 450.
  • the receiving device 430 receives image related data that needs to be synchronized with the image data from the transmitting device 410 or the wireless node 450.
  • the receiving device 430 decodes the voice data when the image related data is voice data, and synchronizes the decoded voice data with the image data to output an internal audio output unit (for example, an audio device such as headphones or earphones or Output via aux-out device.
  • the image related data is text (eg, subtitle) data
  • the receiving device 430 outputs the text data through an internal image output unit in synchronization with the image data.
  • FIGS. 5 to 24 Detailed operations of the reception device 430 will be described with reference to FIGS. 5 to 24.
  • the wireless node 450 manages and controls radio resources used when transmitting and receiving image related data between the transmitting device 410 and the receiving device 430. For example, the wireless node 450 may allocate a radio resource to the transmitting device 410 for a predetermined time by a resource request of the transmitting device 410. As another example, the wireless node 450 designates a pool of radio resources that can be used for communication between the transmitting device 410 and the receiving device 430 and the transmitting device 410 and the receiving device 430. The radio resources allocated to each can be announced.
  • the server 470 provides image data or image related data to the transmitting device 410, the receiving device 430, or the wireless node 450.
  • the broadcasting device 490 refers to a broadcasting station that is currently performing digital over-the-air broadcasting, and may transmit the broadcasting content to a transmitting device 410 through a separate output device such as a wireless antenna or a coaxial cable.
  • the communication system may include other entities constituting a network in addition to the apparatus illustrated in FIG. 4.
  • MME mobility management entity
  • a home subscriber server that manages and provides subscriber profiles for a gateway, a packet gateway that connects the serving gateway to an IP network such as an application server, a transmitting device 410, and a receiving device 430 to an MME. HSS), and a node for generating and managing a policy and a charging rule for a mobile communication service between the packet gateway and the IP network.
  • the node in charge of the charging may manage charging for data in the D2D communication.
  • the transmitting apparatus 410 in order to transmit / receive data between the transmitting apparatus 410 and the receiving apparatus 430 in the communication system, the transmitting apparatus 410 must first search for the receiving apparatus 430 to which the data is to be transmitted and received.
  • a discovery supporting discovery or discovery of information between a transmitting device 410 and a receiving device 430 is supported. Embodiments of performing the process will be described.
  • FIG. 5 illustrates an example of a method of performing a discovery process in a transmitting apparatus and a receiving apparatus of a communication system according to an exemplary embodiment of the present disclosure.
  • the transmitting device 410 performs a process for receiving a discovery code from the server 470. In this case, it is assumed that the transmitting device 410 outputs current image data through an application and an output unit.
  • the transmitting device 410 transmits allocation request information for receiving a search code to the server 470 (501).
  • the allocation request information includes at least one of an application ID, a display ID, a content ID, and a source ID thereof.
  • the Application ID included in the allocation request information refers to a separator used in an application area. Examples of the application ID include a Gom Player and a YouTube.
  • the Application ID may be used only when registered and authorized according to the policy of the server 470.
  • the Display ID is a delimiter for distinguishing the transmitting device 410, and may be a device ID, a subscriber ID, or an ID arbitrarily designated by a user.
  • the Content ID is a separator for distinguishing voice data transmitted from one transmitting apparatus 410, and the transmitting apparatus 410 may manage one or more Content IDs. For example, if the broadcast content supports voice data in three languages, the Content ID can be divided into each language. As another example, if some or all of the voice data is downloaded from the server 470, uniform resource locator (URL) information for obtaining voice data as Content IDs may be inserted. As another example, when a picture in picture (PIP) is being output to the transmitting device 410, voice data of the image data may be distinguished through Content IDs. In this way, Content ID distinguishes substantial information related to voice data.
  • the Application ID, Display ID, and Content ID may have a hierarchical structure according to a management policy.
  • the Source ID is an ID used in the radio transmission layer of the transmitting device 410.
  • the server 470 that receives the allocation request information from the transmitting device 410 stores the received allocation request information, and transmits a discovery code mapped to the stored allocation request information to the transmitting device 410. Assign (503). For example, the server 470 may allocate a search code to the transmitting device 410 as shown in FIG. 7.
  • FIG. 7 illustrates a configuration of a search code allocated by a server according to an embodiment of the present disclosure.
  • the server 470 directly inserts a source ID into a space (eg, LSB) of a discovery code (eg, LSB) or empties the space to transmit a null discovery code. 410 may be assigned.
  • a space eg, LSB
  • a discovery code eg, LSB
  • the transmitting device 410 allocated with the discovery code from the server 470 broadcasts the discovery code periodically by allocating resources or competing in the designated resource region (505). In this case, if a part of the search code is empty, the transmitting device 410 directly inserts its own Source ID and transmits the source ID to the receiving device 430. On the other hand, if a part of the search code is not empty, the transmitting device 410 transmits the search code allocated from the server 470 to the receiving device 430 as it is.
  • the discovery process when the source ID of the transmitting device 410 is included in the allocation request information transmitted by the transmitting device 410 is described with reference to FIG. 5.
  • a discovery process when the source ID of the transmitting device 410 is not included in the allocation request information transmitted by 410 will be described.
  • FIG. 6 illustrates another example of a method of performing a discovery process in a transmitting apparatus and a receiving apparatus of a communication system according to an exemplary embodiment of the present disclosure.
  • Another example of the method of performing the discovery process illustrated in FIG. 6 is performed by a method similar to the example of the method of performing the discovery process described with reference to FIG. 5.
  • the allocation request information including its own ID eg ITMGI
  • the server 470 transmits the unique ID to the HSS 610 (610), and receives the Source ID of the transmitting device 410 from the HSS (610) (605).
  • the server 430 checks the allocation request information mapped to the obtained discovery code.
  • the obtained search code is sent to the operation 470 (507).
  • the receiving device 430 recognizes that the source ID is inserted into the obtained search code by a predetermined setting, the source ID is parsed without transmitting the obtained search code to the server 470. Parsing to obtain the allocation request information.
  • the server 470 When the server 470 receives the discovery code from the receiving device 430, the server 470 transmits allocation request information mapped to the discovery code from the internal memory to the receiving device 430 (509). Accordingly, the receiving device 430 may obtain an application ID, a display ID, a content ID, and a source ID from the server 470. The receiving device 430 receives a data packet transmitted from the same transmitting device later based on the obtained Source ID. In addition, when the receiving device 430 finds an associated application based on the application ID, the receiving device 430 may transmit the display ID and the content ID to the application area of the internal image output unit, and output the display ID and the content ID by a predetermined operation. have. For example, as shown in FIG. 8, the receiving device 430 may output a UI for selecting and playing voice data in an application area of an internal image output unit.
  • FIG. 8 illustrates an example of outputting a UI in a reception apparatus included in a wireless communication system according to an exemplary embodiment of the present disclosure.
  • the display ID and the content ID obtained in FIG. 5 or FIG. 6 indicate content desired by the user. It may be output to the receiving device 430 so that it can be selected conveniently.
  • the display ID is Tv1, which is a transmission device ID
  • the content IDs are Korean, English, and Chinese.
  • Tv1.Korean is output to the receiving device 430
  • the user may select English or Chinese by using selection, scrolling, and turning sideways from the list if desired.
  • the Display ID is transmitted differently for each TV and output to the receiving device 410 such as Tv1 and Tv2, and the Content ID is displayed as news, so that Tv1. It can be output like news.
  • the receiving device 430 may output voice data through an internal speaker or earphones or headphones using Aux Out.
  • the operation of outputting the UI to the image output unit in the reception device 430 depends on the setting of the application, and three IDs may be shown or hidden as necessary. For example, if the content ID is link information including information such as a thumbnail, the reception device 430 may receive and output the link information.
  • a method for performing a discovery process in a transmitting device 410 and a receiving device 430 in a wireless communication system according to an embodiment of the present disclosure, and outputs a UI to the receiving device 430.
  • a search process is performed by the transmitting apparatus 410 and the receiving apparatus 430 based on FIGS. 9 to 13, and then the resource is allocated from the transmitting apparatus 410.
  • a method of transmitting image-related data to 430 will be described.
  • the image-related data is data that needs to be synchronized with the image data output from the transmitting device 410, and for convenience of explanation, it will be described on the assumption that the data necessary for synchronization is audio data.
  • embodiments of the present disclosure may be applicable to the case where the data requiring synchronization is not only audio data but also video data, image data, or text.
  • FIG. 9 illustrates an example of a method for transmitting image-related data by receiving a resource by allocating a resource in a wireless communication system according to an exemplary embodiment of the present disclosure.
  • the transmitting device 410 transmits the voice data that needs to be synchronized to the receiving device 430 using D2D communication. Relates to a method of transmission.
  • the transmitting device 410 requests a resource allocation requesting resource allocation for D2D communication to the base station 450 in order to transmit audio data that needs to be synchronized with image data output to the receiving device 430.
  • Send a message (901).
  • the resource allocation request message may be a general buffer status report message (BSR).
  • the base station 450 When the base station 450 receives the resource allocation request message from the transmitting device 410, the base station 450 confirms that the resource allocation request for transmitting the voice data requiring synchronization is performed, and thus the quality of service of the voice data requiring synchronization. Resource allocation to satisfy QoS) is performed. That is, in order to satisfy the QoS of the voice data requiring synchronization, the base station 450 must allocate resources so that a delay does not occur when transmitting the voice data requiring synchronization from the transmitting device 410.
  • the transmission apparatus 410 requests a resource allocation request so that the base station 450 may confirm that the base station 450 requests resource allocation for transmission of voice data requiring synchronization.
  • the message may include an indication indicating that it is requesting a resource for transmission of voice data that requires synchronization.
  • the configuration of the resource allocation request message in the LTE cellular system may be configured as shown in FIG.
  • FIG. 10 illustrates an example of a configuration of a resource allocation request message for requesting resource allocation in a transmitting device according to an embodiment of the present disclosure.
  • information indicating that a resource for transmission of voice data requiring synchronization may be included in a resource allocation request message as shown in (a) or (b).
  • the resource allocation request message shown in (a) of FIG. 10 is to insert one bit in the reserved bit field 1001 as an information indicating that a resource for transmission of voice data requiring synchronization is requested to one field. .
  • the transmitting device 410 sets a reservation bit for information indicating that the resource is requested for transmission of voice data that requires synchronization to “1” to the base station 450. send.
  • the base station 450 determines that the resource allocation request requested by the transmitting device 410 requests a resource for transmission of voice data that requires synchronization, based on the reservation bit included in the resource allocation request message. Resources may be allocated to satisfy QoS of necessary voice data.
  • the resource allocation request message shown in (a) of FIG. 10 may request a resource for transmission of voice data that needs synchronization in a logical channel ID (LCG ID) field 1003. Inserts an indication that the For example, the transmitting device 410 uses a preset value as a value corresponding to an indication indicating that a resource for transmitting voice data requiring synchronization between the transmitting device 410 and the base station 450 is requested. To set the LCG ID. From this, when the transmitting device 410 transmits a resource allocation request message including a preset LCG ID value to the base station 450, the base station 450 may confirm that the base station 450 requests a resource for transmission of voice data requiring synchronization. have.
  • LCG ID logical channel ID
  • the transmitting device 410 allocated with resources from the base station 450 constructs a communication message 910 for D2D communication and transmits it to the receiving device 430 (905).
  • a resource of the data area 930 includes a header field and data.
  • the header includes voice data related information 931 that needs synchronization, and includes a Source ID and a Destination ID.
  • the data field includes voice data 933 that needs synchronization.
  • the transmitter 410 may insert a Source ID obtained from the embodiment described based on FIG. 5 or 6 into the header field. Since the Destination ID is predefined or provisioned, the transmitting device 410 may insert a Destination ID of a known value into the header field.
  • the receiving device 430 knows the source ID of the transmitting device 410 through the embodiment described with reference to FIG. 5 or 6. Accordingly, the reception device 430 outputs a list of audio data currently being broadcast to the internal video output unit as in the embodiment of FIG. 8.
  • the receiving device 430 decodes and decodes a data area (eg, 930) having a corresponding source ID in the communication message 910.
  • the audio data is output through an audio device such as headphones or earphones or through an auxiliary device.
  • FIG. 11 illustrates an example of a method for requesting resource allocation in a transmitting device according to an embodiment of the present disclosure.
  • the transmitting device 410 when data is generated from an application, maps the generated data to a logical channel ID and stores the data in a buffer of a radio link control (RLC) layer. Classify and manage data.
  • the logical channel ID may have different characteristics such as security and priority.
  • the Logical Channel ID is divided into LCG IDs by forming a group of IDs having similar characteristics.
  • the LCGID and LCID may be promised in advance in communication between terminals, and may be set by the base station 450 as necessary.
  • the transmitter 410 checks whether the generated data is voice data that requires synchronization (1103).
  • the transmitting device 410 If the generated data is voice data, the transmitting device 410 generates a resource allocation request message including information indicating that a resource for transmission of voice data requiring synchronization is requested (1105). That is, when the generated data is voice data, the transmitter 410 maps the voice data to an LCID or LCGID group preset for transmission of voice data (hereinafter, referred to as D2D Audio Broadcasting).
  • D2D Audio Broadcasting an LCID or LCGID group preset for transmission of voice data
  • the transmitting device 410 inserts an indicator indicating that the resource request message for the transmission of the voice data that needs synchronization (for example, the reservation bit One bit can be set to a predetermined setting value).
  • the transmitting device 410 may generate a resource allocation request message by mapping the generated data to an LCID or LCGID group preset as D2D data.
  • the transmission device 410 transmits the resource allocation request message to the base station 470 in order to receive the resource allocation.
  • the resource request message may be a BSR.
  • FIG. 12 illustrates an example of a method for allocating resources at a base station according to an embodiment of the present disclosure.
  • the base station 450 receives a resource allocation request message from the transmitting device 410 (1201).
  • the base station 450 checks whether the resource allocation request message includes information indicating that it is requesting a resource for transmitting voice data (1203). For example, if the LCG ID included in the resource allocation request message matches the LCG ID mapped for the preset audio broadcasting, the base station 450 transmits the 410 for transmission of voice data that requires synchronization. The resource is determined to be requested.
  • the base station 450 inserts an indicator (a predetermined value) indicating that the resource allocation request message requests a resource for transmission of voice data that requires synchronization, the transmitting device 410 may perform synchronization. It may be determined that a resource for transmitting necessary voice data is requested.
  • the base station 450 adjusts a parameter related to resource allocation (1205). For example, the base station 450 adjusts an allocation period for resources of the data area 930 shown in FIG. 9. At this time, the base station 450 allocates resources in the form of semi-persistent in order to satisfy the QoS for voice data. Assign less than or equal to As an example, the base station 450 may allocate resources in a cycle as shown in FIG. 13.
  • FIG. 13 shows an example of allocating resources in an LTE cellular system.
  • the base station 450 should allocate a resource allocation period of voice data equal to or less than Ts.
  • Ts means minimum time for satisfying QoS of voice data.
  • the base station 450 allocates a resource for transmission of voice data according to the determined resource allocation period (1207).
  • the resource allocation information is delivered to the terminal through an SA message of a scheduling assignment (SA) interval. Therefore, the SA message may include the physical resource location, period, and the like of the data.
  • SA scheduling assignment
  • 14 illustrates an example of a method of receiving voice data requiring synchronization in a receiving device according to an embodiment of the present disclosure. 14 illustrates a method of receiving voice data requiring synchronization from at least one other device by the receiving device 430 after performing a discovery method based on FIG. 5 or 6. An example is shown.
  • the transmission device 410 transmits a resource allocation request message (BSR) to the base station 450 in order to store voice data that needs synchronization in the server 470 (1401). Then, the base station 450 allocates an uplink resource to the transmitting device 410 (1403). Accordingly, the transmission device 410 transmits voice data that requires synchronization to the server 470 through the base station 450 (1405).
  • the server 470 may be, for example, a ProSe server in an LTE system, or an evolved multimedia broadcasting multicast service (eMBMS) server. As another example, the broadcast station device 490 may transmit audio data that needs to be synchronized with the image data to the server 470.
  • the transmitting device 450 receives information for receiving voice data that needs to be synchronized through the search operation described with reference to FIG. 5 or 6. 430) (1407).
  • the information capable of receiving the voice data requiring synchronization may be a URL in the case of the server 470, and may be broadcast channel information (ie, a temporary mobile group identity (TMGI)) in the case of the eMBMS. have.
  • TMGI temporary mobile group identity
  • the receiving device 430 continuously receives the discovery between the terminals.
  • a list of audio data broadcast in the current vicinity and requiring synchronization corresponding to the image data is output to the image output unit of the receiving device 430.
  • the receiving device 430 checks the URL information included in the search code in response to the selected event.
  • the receiving device 430 requests the server 470 for voice data that needs synchronization based on the identified URL information (1409), and receives voice data from the server 470 (1411).
  • the receiving device 430 outputs the synchronized voice data by synchronizing the image data output from the transmitting device 410 with the received voice data.
  • a method of synchronizing the video data with the audio data will be described in detail with reference to FIGS. 17 to 24.
  • the server 470 is an eMBMS server
  • the receiving device 430 may check the TMGI information included in the search code, and access the corresponding channel of the eMBMS server to download voice data required for synchronization.
  • the reception device 430 may acquire a Content ID through a discovery process.
  • the receiving device 430 includes a memory therein, and has a mapping database (DB) 1510 of Content ID and broadcast information.
  • the broadcast information may be, for example, URL or broadcast channel information (TMGI) of an eMBMS.
  • the mapping DB 1510 may be basically managed by the reception apparatus 430, or may be received from the application server 1550 when the application 1530 is driven or periodically.
  • the mapping DB 1510 may include only information about image data that can be provided in a surrounding area where the receiving device 430 is located.
  • the receiving device 430 searches the internal mapping DB 1510 and checks whether there is URL information or TMGI information matching the Content ID received from the transmitting device 410. If there is URL information or TMGI information mapped to the Content ID in the mapping DB 1510, the receiving device 430 manually or automatically accesses the URL or searches for an eMBMS broadcast channel corresponding to TMGI. On the other hand, when there is no URL information or TMGI information mapped to the Content ID in the mapping DB 1510, the receiving device 430 performs at least one of the following two operations. First, the receiving device 430 transmits the received Content ID to the application server 1550 (1501). The application server 1550 manages both Content ID, URL information or TMGI information.
  • the application server 1550 may transmit URL information or TMGI information mapped to the Content ID to the receiving device 1510 (1503). Second, if it is different from the area held by the area where the current reception device 430 is located, the application server 1501 requests an update of the mapping DB. In this case, the request may include location information of the receiving device 430. The application server 1550 transmits the corresponding mapping DB information to the receiving device 430 by using the received location information of the receiving device 430. Thereafter, the reception device 430 may access the URL information obtained in the same manner as in steps 1409 and 1411 of FIG. 14 or may access the broadcast channel corresponding to the TMGI information to acquire voice data.
  • FIG. 16 illustrates another example of a method for transmitting image-related data by a transmitting device in a wireless communication system according to an exemplary embodiment of the present disclosure.
  • the method of transmitting and receiving voice data requiring synchronization by the transmitting device 410 and the receiving device 430 according to an exemplary embodiment of the present disclosure without performing the discovery process described with reference to FIG. Transmission and reception of voice data requiring synchronization from direct communication between the device 410 and the receiving device 430.
  • the transmitting device 410 transmits a resource allocation request message for D2D communication to the base station 450 (1601).
  • the transmitting device 410 requests the resource allocation to the base station 450 by using a resource allocation request message (BSR) to allocate the resources to request the resource allocation described above with reference to FIGS. 9 to 13.
  • BSR resource allocation request message
  • a resource of the data area 1630 includes a header field and data.
  • the data field includes voice data 1635 that needs synchronization and discovery information 1633 of voice data that needs synchronization.
  • the header includes voice data related information 1631 that needs synchronization, and includes a Source ID and a Destination ID.
  • the transmitter 430 first sets a Source ID and a Destination ID to a resource of the data area 1630.
  • the transmitter 430 includes the voice data 1635 that needs to be synchronized in the resource of the data area 1630.
  • the voice that needs to be synchronized with a part of the data field including the voice data that needs to be synchronized include search information 1633 of the data. That is, the front of the data field includes the voice data transmission information 1633 requiring synchronization, which is proposed in the embodiment of the present disclosure.
  • the receiving device 430 operates as follows.
  • the receiving device 430 monitors the scheduling area 1650 in the communication message 1610 to receive voice data requiring synchronization through D2D communication. That is, the source ID, the destination ID, and the search information (that is, the search code) of all the data areas indicated by the scheduling area 1650 are received and decoded. Through the receiving and decoding operations, the receiving device 430 may obtain a search code for voice data that needs synchronization, which can be received at present. Then, the receiving device 430 outputs voice data related information corresponding to the search code to the UI screen as shown in FIG. 8. According to an embodiment of the present disclosure, when there are a plurality of transmitting devices that transmit voice data, the receiving device 430 sequentially receives a plurality of scheduling areas and data areas.
  • the receiving device 430 may output voice data related information transmitted from the plurality of transmitting devices decoded through the source ID field, the destination ID and the search information field of each DATA area through the UI screen.
  • the receiving device 430 receives a selection event for the desired voice data information from the user through the UI screen, the receiving device 430 decodes the voice data included in the data field in the data area of the corresponding scheduling area and decodes the decoded voice data. Output through a sound output terminal such as a speaker.
  • FIG. 17 illustrates an example of a method for synchronizing data transmitted and received by a transmitting device and a receiving device according to an embodiment of the present disclosure.
  • the transmitter 410 is a subject that outputs image data
  • the receiver 430 is a subject that outputs audio data that needs to be synchronized with the image data.
  • the data managed by the transmitting device 410 includes information on an output start time T at which image data is output through the image output unit and information on an output start time T ⁇ at which audio data is output. do.
  • the output start time point T of the image data and the output start time point T ′ of the audio data are points of absolute time (for example, the time of the transmitting device 410 and the receiving device 430 is the same). It is done.
  • an output start time T ′ of the audio data 1730 is determined by an output start time T of the image data 1710 and specific threshold values ( ⁇ t1, ⁇ t1) and compare, and can output or delete the audio data needs to be synchronized at the receiving device 430 according to the result.
  • specific threshold values ⁇ t1 and ⁇ t1 may be set as a minimum guarantee time and a maximum guarantee time for starting output of voice data based on an output start time point of the image data.
  • the reception device 430 may start outputting voice data when a relationship as shown in Equation 1 below is established.
  • T ' is the start point of the output of the audio data
  • T is the start point of the output of the audio data
  • ⁇ t1 is the minimum guaranteed time between the start of the output of the video data
  • ⁇ t2 means the maximum guaranteed start time between the start time of outputting the video data and the start time of outputting the audio data.
  • the specific threshold values ⁇ t1 and ⁇ t2 may be preset in the transmitting device 410 and the receiving device 430 or received through the server 470.
  • the transmitting device 410 may transmit time information to the receiving device 430, and the time information may be output from a starting point of output T of the image data and a starting point of output of the image data from the transmitting device 410. It may include at least one of a margin value between the time of transmitting the voice data to the 430 and the processing time of the transmitting device 410 (ie, discovery and resource allocation time). In addition, the transmission device 410 may transmit or delete voice data requiring synchronization using the time information.
  • FIG. 18 illustrates an example of applying a data synchronization method in a transmitter and a receiver according to an embodiment of the present disclosure.
  • the voice data that needs to be synchronized is stored in the buffer of the application, and the time at which the voice data that needs to be synchronized is transferred from the buffer of the application to the buffer of the transmitter for transmission is defined as t1.
  • An allocation time of a resource for transmission for voice data requiring synchronization delivered to a buffer of the terminal is defined as t2.
  • the transmission device 410 may know the output start time T of the image data before starting the output of the image data.
  • the transmitter 410 is configured to ensure a minimum output start time for synchronization between the output start time T of the image data or the output start time T of the image data and the output start time T 'of the audio data. At least one of the minimum guarantee time M1 or the maximum guarantee time M2 may be selected to determine a time margin value Tm for synchronization based on the allocation time t2 of the transmission resource of the voice data to be transmitted. The transmitting device 410 may determine whether to transmit the voice data that needs to be synchronized to the receiving device 430 using the start time T of the output of the image data and the allocation time t2 of the transmission resource. have.
  • the receiving device 430 defines a time at which voice data is received from the transmitting device 410 to the receiving unit as t3, and sets a time before the received voice data is transmitted to an application of the receiving device 430 to start output. It is defined as t4.
  • the reception device 430 outputs the delay time of the reception device 430 by using a time t4 before starting to output the voice data that needs to be synchronized in the application and a time t3 when the voice data is received in the reception unit. You can check (Td_rx).
  • the receiving device 430 may determine whether to output the voice data that needs to be synchronized using the output delay time Td_rx of the receiving device 430 or the margin value Tm of the transmitting device 410.
  • FIG. 19 illustrates an example of a method of outputting data from a transmitting apparatus and a receiving apparatus according to an embodiment of the present disclosure.
  • the embodiment of FIG. 19 relates to a method for performing synchronization by previously transmitting voice data requiring synchronization to the receiving device 430 before the transmitting device 410 reproduces the image data.
  • the transmitting apparatus 410 when the transmitting apparatus 410 includes a video file (ie, video container data) for reproducing video data and audio data, the transmitting device 410 divides the video file into video data and audio data (1901). ).
  • the video file is audio video interleaved (AVI)
  • the data of the AVI may be video x264 by separating the video data and the audio data
  • the audio data is audio Digital theater systems (DTS).
  • the transmitter 410 manages the separated image data and the audio data, respectively (1903 and 1905).
  • the transmitting device 410 may output the image data by delaying the start time of outputting the separated image data by a time that can be delayed (1913).
  • the transmitting device 410 transmits the audio data to transmit the audio data.
  • the transmission processing and data scheduling operations correspond to the discovery operation and the resource allocation operation described above with reference to FIGS. 5 to 16, and a detailed description thereof will be omitted.
  • the transmitting device 410 transmits a message including the separated voice data to the receiving device 430 (1911).
  • the transmitting device 410 may include at least one of an output start time T and an image output margin time ⁇ t at which the image data is output to the receiving device 430.
  • the image output margin time ⁇ t means a margin time for outputting image data from a time point at which the message is transmitted to an output start time point at which the image data is output.
  • the time at which the image data can be delayed when the image data is delayed may be determined in consideration of at least one of transmission processing 1907 or data scheduling 1909 in the transmitting apparatus.
  • the time at which the delay is possible is a time for the transmission processing operation and / or resource allocation operation of the transmission device 410 (e.g., scheduling time information in a mobile communication system, and Contention in the case of WiFi). Time, pairing time in the case of Bluetooth, etc.) or processing time information of the reception device 430 registered in advance or received from the reception device 430 may be calculated.
  • the receiving device 430 receives a message including audio data from the transmitting device 410, and receives time information related to the output of the image data included in the message (the output start time T or the image output margin time of the image data). ( ⁇ t)) is used to calculate an output start time T ′ of voice data (1915). In operation 1917, the receiving device 430 may output the voice data included in the message at the output start time point T ′ of the calculated voice data. In this case, when the output start time point T ′ of the calculated voice data is not included in the range of Equation 1, the receiving device 430 may delete the voice data.
  • FIG. 20 illustrates another example of a method of outputting data from a transmitting apparatus and a receiving apparatus according to an embodiment of the present disclosure.
  • the embodiment of FIG. 20 relates to a method in which the transmitting device 410 transmits audio data requiring synchronization while simultaneously transmitting image data.
  • a transmission device 410 has a video file for reproducing video data and audio data
  • the transmission device 410 separates the video file into video data and audio data (2001).
  • the transmitting device 410 manages the separated image data and the audio data, respectively (2003 and 2005).
  • the transmitter 410 outputs the separated image data (2007).
  • the transmitter 410 performs transmission processing and data scheduling to transmit the voice data (2009, 2011).
  • the transmission processing and data scheduling operations correspond to the discovery operation and the resource allocation operation described above with reference to FIGS. 5 to 16, and a detailed description thereof will be omitted.
  • the transmitting device 410 checks the image output margin time ⁇ t, which is a relative time remaining from the separated image data, to the output start time T of the image data or the output start time T of the image data in the transmitting device 410. do.
  • the image output margin time ⁇ t is based on a difference between the start point T of image data output from the transmitting device 410 from the time point at which the transmitting device 410 transmits the audio data requiring synchronization to the receiving device 430. Can be calculated.
  • the start point of the output of the image data is characterized in that the point of the absolute time.
  • the transmitting device 410 compares the time point at which the audio data requiring synchronization can be transmitted with the image output start time (T) or the image output margin time ( ⁇ t), so that the current time point is the image output start time (T) or the image output margin. If the time ⁇ t elapses, the voice data may be deleted without transmitting (2013).
  • the transmitter 410 transmits a message including the audio data to the receiver 430.
  • the message includes audio data that requires synchronization, at least one of an image output start time T and an image reproduction margin time ⁇ t.
  • the receiving device 430 receives a message from the transmitting device 410, and outputs time-related information (image output start time point T or image output margin time ⁇ t) of the image data included in the received message.
  • the start point of the output of the voice data is calculated using the (2017).
  • the reception device 430 outputs the voice data included in the message at the start time of outputting the calculated voice data (2019).
  • FIGS. 21 and 22 will be described.
  • a method of synchronizing data will be described.
  • the transmitting device 410 and the receiving device ( When the absolute time between the 430 is correct, a method of synchronizing data will be described.
  • 21 illustrates an example of a method of transmitting voice data when the absolute time between a transmitting device and a receiving device does not match in a transmitting device according to an embodiment of the present disclosure.
  • the transmission apparatus 410 checks an image output start time T for starting output of image data (2101).
  • the transmitting apparatus 410 checks a resource allocation time point T2 to which a radio resource for transmitting voice data is allocated.
  • the transmission device 410 checks whether an image output start time T of the transmission device 410 is earlier than a resource allocation time T2 to which a radio resource for transmitting audio data is allocated (2105). If the video reproduction start time T is earlier than the resource allocation time T2 (for example, when the video reproduction start time T is past the resource allocation time T2), the transmitting device 410 generates a voice.
  • the data is deleted (ie, not transmitted to the reception device 430) (2107).
  • the transmitting device 410 transmits based on the difference between the image output start time T and the resource allocation time T2. Calculate the margin time (Tm) (2109).
  • the transmitting device 410 transmits a message including the corresponding voice data and the calculated transmission margin time to the receiving device 430 (2111).
  • FIG. 22 illustrates an example of a method of outputting voice data when an absolute time between a transmitter and a receiver is not correct in a receiver according to an exemplary embodiment of the present disclosure.
  • the reception device 430 receives a message transmitted from the transmission device 410 (2201), and records a message reception time point T3 at which the message is received (2203).
  • the reception device 430 decodes the received message and records a time point T4 at which the output of the voice data is started in the application (2205).
  • the receiving device 430 checks the transmission margin time Tm included in the received message (2207).
  • the reception device 430 receives the reception time Td_rx based on the message reception time T3 that has received the message from the transmission device 410 and the output start time T4 at which the corresponding voice data is output from the application. Calculate (2209).
  • the reception device 430 checks whether the reception processing time Td_rx is greater than the output threshold time Tth (2211). In this case, when the transmission margin time Tm is generated as the minimum output value M1, the output threshold time Tth may be determined using the transmission margin time Tm and the maximum minimum output value M2. The output processing time Td_rx may adjust the output time point using a correction value using the transmission margin time Tm. Also, when the transmission margin time Tm is generated with the maximum output value M2, the transmission margin time Tm may be determined as the output threshold time Tth.
  • the reception device 430 deletes the voice data (ie, does not output) (2213).
  • the reception processing time (Td_rx) and the output threshold time (Tth) is less than or equal to, the application outputs the voice data at a time point T4 at which the voice data is to be reproduced (2215).
  • 23 illustrates another example of a method of transmitting voice data when an absolute time between a transmitter and a receiver is correct in a transmitter according to an embodiment of the present disclosure.
  • the transmission device 410 checks an image output start time T for starting output of image data (2301). In operation 2303, the transmitting apparatus 410 checks a resource allocation time point T2 to which a radio resource for transmitting voice data is allocated.
  • the transmission device 410 checks whether an image output start time T of the transmission device 410 is earlier than a resource allocation time T2 to which a radio resource for transmission of voice data is allocated (2305). If the video output start time (T) is earlier than the resource allocation time (T2) (for example, when the video reproduction start time (T) has passed the resource allocation time (T2)), the transmitting device (410) Delete the data (ie, do not transmit to the receiving device 430) (2307). On the other hand, when the video output start time (T) is slower than or equal to the resource allocation time (T2), the transmitting device 410 receives a message including voice data at the video output start time (T) (430). (2309).
  • FIG. 24 illustrates another example of a method of outputting voice data when an absolute time between a transmitting device and a receiving device is corrected in a receiving device according to an embodiment of the present disclosure.
  • the reception device 430 receives a message transmitted from the transmission device 410 (2401), decodes the received message, and records a time point T4 at which the output of the corresponding voice data starts in the application. (2403).
  • the reception device 430 checks an image output start time T of the image data reproduced by the transmission device 410 through the received message.
  • the receiving device 430 determines a difference value between a video reproduction start time T at which the image data is reproduced by the transmitting device 410 and a time T4 at which the corresponding audio data is reproduced by the application at the receiving device 430. It is checked whether it is greater than the threshold value Tth (2407).
  • the specific threshold Tth may be preset in the receiving device 430 or received from a server.
  • the receiving device 430 deletes the voice data without outputting it (2409).
  • the difference between the image output start time (T) at which the image data is output and the time point T4 at which the corresponding audio data is output from the application at the receiving device 430 is less than or equal to a specific threshold value Tth.
  • the reception device 430 outputs the voice data at a time point T4 when the corresponding voice data is output from the application.
  • FIGS. 25 and 26 a method of outputting image data and audio data that needs to be synchronized with the image data in the transmitting device 430 and the receiving device 410 according to an exemplary embodiment of the present disclosure has been described, hereinafter, FIGS. 25 and 26.
  • the internal structure of the transmitting device 430 and the receiving device 410 for outputting the image data and the audio data that need to be synchronized with the image data in the transmitting device 430 and the receiving device 410 will now be described. Shall be.
  • 25 schematically illustrates an example of an internal structure of a transmitter for transmitting data in a communication system according to an embodiment of the present disclosure.
  • the transmitter 410 includes a transmitter 2501, a receiver 2503, a controller 2505, an input unit 2507, an output unit 2509, and a storage unit 2511.
  • the controller 2505 controls the overall operation of the transmission device 410, and in particular, controls the operation related to the operation of transmitting data performed in the communication system according to an embodiment of the present invention. Operations related to the operation of transmitting data performed in the communication system according to an embodiment of the present invention are the same as those described with reference to FIGS. 4 to 24, and thus detailed description thereof will be omitted.
  • the transmitter 2501 transmits various signals and various messages to other entities included in the communication system, for example, other entities such as a broadcast apparatus, a wireless node, a gateway, and a server under the control of the controller 2505. .
  • other entities such as a broadcast apparatus, a wireless node, a gateway, and a server under the control of the controller 2505.
  • various signals and various messages transmitted by the transmitter 2501 are the same as those described with reference to FIGS. 4 to 24, detailed description thereof will be omitted.
  • the receiving unit 2503 may receive various signals and various messages from other entities included in the communication system, for example, other entities such as a broadcasting apparatus, a wireless node, a gateway, and a server under the control of the controller 2505. Receive.
  • other entities such as a broadcasting apparatus, a wireless node, a gateway, and a server under the control of the controller 2505.
  • Receive since the various signals and the various messages received by the receiver 2503 are the same as those described with reference to FIG. 4 and FIG. 24, detailed description thereof will be omitted.
  • the storage unit 2511 stores a program, data, and the like related to an operation related to an operation of transmitting data performed in a communication system according to an embodiment of the present disclosure under the control of the controller 2505. In addition, the storage unit 2511 stores various signals and various messages received by the receiving unit 2503 from the other entities.
  • the input unit 2507 and the output unit 2509 are related to an operation of transmitting data performed in a communication system according to an embodiment of the present invention performed by the transmitting device 410 under the control of the control unit 2505. Input and output various signals and various messages related to the operation.
  • the output unit 2509 includes an image output unit for outputting image data.
  • FIG. 25 illustrates a case in which the transmitter 2501, the receiver 2503, the controller 2505, the input unit 2507, the output unit 2509, and the storage unit 2511 are implemented as separate units.
  • the transmitter 410 may be embodied in a form in which at least two of the transmitter 2501, the receiver 2503, the controller 2505, the input unit 2507, the output unit 2509, and the storage unit 2511 are integrated.
  • the transmitting device 410 may be implemented by one processor.
  • FIG. 26 schematically illustrates an example of an internal structure of a receiving device that receives data in a communication system according to an embodiment of the present disclosure.
  • the receiver 430 includes a transmitter 2601, a receiver 2603, a controller 2605, an input unit 2608, an output unit 2609, and a storage unit 2611.
  • the controller 2605 controls the overall operation of the receiving device 430, and in particular, controls the operation related to the operation of receiving data performed in the communication system according to an embodiment of the present invention. Operations related to the operation of receiving data performed in the communication system according to an embodiment of the present invention are the same as those described with reference to FIGS. 4 to 24, and thus detailed description thereof will be omitted.
  • the transmitter 2601 transmits various signals and various messages to other entities included in the communication system, for example, other entities such as a broadcast apparatus, a wireless node, a gateway, and a server under the control of the controller 2605.
  • other entities such as a broadcast apparatus, a wireless node, a gateway, and a server under the control of the controller 2605.
  • various signals and various messages transmitted by the transmitter 2601 are the same as those described with reference to FIGS. 4 to 24, detailed description thereof will be omitted.
  • the receiver 2603 may receive various signals and various messages from other entities included in the communication system, for example, other entities such as a broadcast apparatus, a wireless node, a gateway, and a server under the control of the controller 2605. Receive.
  • the various signals and the various messages received by the receiver 2603 are the same as those described with reference to FIGS. 4 to 24, and thus detailed description thereof will be omitted.
  • the storage unit 2611 stores programs and data related to an operation related to an operation of receiving data performed in a communication system according to an embodiment of the present disclosure under the control of the controller 2605. In addition, the storage unit 2611 stores various signals and various messages received by the receiving unit 2603 from the other entities.
  • the input unit 2607 and the output unit 2609 are related to an operation of receiving data performed in a communication system according to an embodiment of the present invention performed by the receiving device 430 under the control of the control unit 2605. Input and output various signals and various messages related to the operation.
  • the output unit 2609 includes at least one of an image output unit for outputting image data and an audio output unit for outputting audio data.
  • FIG. 26 illustrates a case where the transmitter 2601, the receiver 2603, the controller 2605, the input unit 2608, the output unit 2609, and the storage unit 2611 are implemented as separate units.
  • the receiving device 430 may be implemented in an integrated form of at least two of a transmitter 2601, a receiver 2603, a controller 2605, an input unit 2608, an output unit 2609, and a storage unit 2611.
  • the transmitting device 410 may be implemented by one processor.

Abstract

본 개시는 LTE와 같은 4G 통신 시스템 이후 보다 높은 데이터 전송률을 지원하기 위한 5G 또는 pre-5G 통신 시스템에 관련된 것이다. 본 개시의 실시 예에 따른 기기 간 통신 (device to device communication)을 지원하는 무선 통신 시스템에서 송신 장치가 데이터를 송신하는 방법은, 하나의 동영상 컨테이너 데이터 (video container data)에서 영상 데이터 (video data) 및 상기 영상 데이터와 동시에 출력되는 영상 관련 데이터를 분리하는 과정과, 상기 영상 데이터를 출력하는 과정과, 상기 영상 관련 데이터 및 상기 영상 데이터를 출력하는 시점에 관련된 정보를 포함하는 메시지를 생성하여, 상기 생성된 메시지를 수신 장치로 전송하는 과정을 포함한다.

Description

무선 통신 시스템에서 데이터를 송수신하는 방법 및 장치
본 개시는 기기 간 통신 (device to device communication : D2D 통신)을 지원하는 무선 통신 시스템에서 데이터를 송수신하는 방법 및 장치에 관한 것이다.
4세대 (4th-generation : 4G) 통신 시스템 상용화 이후 증가 추세에 있는 무선 데이터 트래픽 수요를 충족시키기 위해, 개선된 5세대 (5th-generation : 5G) 통신 시스템 또는 pre-5G 통신 시스템을 개발하기 위한 노력이 이루어지고 있다. 이러한 이유로, 5G 통신 시스템 또는 pre-5G 통신 시스템은 4G 네트워크 이후 (beyond 4G network) 통신 시스템 또는 롱 텀 에볼루션 (long term evolution : LTE) 시스템 이후 (post LTE) 시스템이라 불리어지고 있다.
높은 데이터 전송률을 달성하기 위해, 5G 통신 시스템은 초고주파 (mmWave) 대역 (예를 들어, 60기가 (60GHz) 대역과 같은)에서의 구현이 고려되고 있다. 초고주파 대역에서의 전파의 경로 손실 완화 및 전파의 전달 거리를 증가시키기 위해, 5G 통신 시스템에서는 빔포밍 (beamforming), 거대 배열 다중 입출력 (massive multi-input multi-output: massive MIMO), 전차원 다중입출력 (full dimensional MIMO: FD-MIMO), 어레이 안테나 (array antenna), 아날로그 빔형성 (analog beam-forming), 및 대규모 안테나 (large scale antenna) 기술들이 논의되고 있다.
또한 시스템의 네트워크 개선을 위해, 5G 통신 시스템에서는 진화된 소형 셀, 개선된 소형 셀 (advanced small cell), 클라우드 무선 액세스 네트워크 (cloud radio access network: cloud RAN), 초고밀도 네트워크 (ultra-dense network), 기기 간 통신 (device to device communication: D2D), 무선 백홀 (wireless backhaul), 이동 네트워크 (moving network), 협력 통신 (cooperative communication), 협동된 멀티-포인트 (coordinated multi-points : CoMP), 및 수신 간섭제거 (interference cancellation) 등의 기술 개발이 이루어지고 있다.
이 밖에도, 5G 시스템에서는 진보된 코딩 변조 (advanced coding modulation: ACM) 방식인 FQAM (hybrid FSK and QAM modulation) 및 슬라이딩 윈도우 중첩 코딩 (sliding window superposition coding : SWSC)과, 진보된 접속 기술인 필터 뱅크 멀티 캐리어 (filter bank multi carrier : FBMC), 비 직교 멀티플 엑세스 (non orthogonal multiple access : NOMA), 및 스페어스 코드 멀티플 엑세스 (sparse code multiple access : SCMA) 등이 개발되고 있다.
최근, 휴대용 기기는 블루투스 (bluetooth) 기술 또는 와이파이 다이렉트 (wifi direct) 기술 등을 사용하여 전자 기기와 근거리 무선통신을 통해 음향 및 패킷 데이타 통신을 제공한다. 특히 상기 블루투스 (Bluetooth) 기술은 휴대폰, 노트북, 이어폰, 헤드셋, 스마트폰 및 스피커 등의 휴대기기를 마스터 기기와 슬레이브 기기간에 페어링 (Pairing)으로 연결하는 근거리 무선 기술 표준이며, 10m 이내의 거리에서 최대 7개의 각기 다른 기기를 무선으로 연결하여 사용하는 기술이다. 예를들면, 블루투스 기술을 이용하는 블루투스 헤드셋은 2.4GHz 주파수를 통해 케이블 없이 (connect without cable) MP3 (moving picture experts group-1 audio layer-3) 플레이어에서 출력되는 음성 데이터 (audio data)를 출력하는 기기이다. 여기서, 상기 MP3 플레이어는 송신 장치가 될 수 있고, 상기 블루투스 헤드셋은 수신 장치가 될 수 있다.
이하, 도 1을 참조하여 종래 블루투스 기술을 기반으로 송신 장치와 수신 장치 간에 음성 데이터를 송수신하는 방법의 일 예에 대하여 설명하기로 한다.
도 1은 종래 블루투스 기술을 기반으로 음성 데이터를 송수신하는 방법의 일 예를 보이고 있다.
도 1을 참조하면, 송신 장치 (110)과 수신 장치 (130)은 음성 데이터를 송수신하기 이전에, 새로운 연결 상태를 구성하기 위해 상호 간의 동작 클럭 및 주파수 패턴을 맞추는 페어링 (pairing) 동작을 수행하여야 한다 (150). 상기 페어링 동작은 인쿼리 (inguiry) 동작, 인쿼리 스캔 동작, 페이지 (page) 동작 및 페이지 스캔 동작을 포함한다. 상기 인쿼리 동작은 수신 장치 (130)이 송신 장치 (110)과 주파수 패턴을 맞출 수 있도록 송신 장치 (110)에서 동작 주파수를 반복해서 송출하는 동작이고, 상기 인쿼리 스캔 동작은 수신 장치 (130)에서 수행되는 것으로 수신된 주파수를 검출하고, 검출된 주파수에 동기를 맞추는 과정이다. 그리고 상기 페이지 동작은 송신 장치 (110)의 동작 클럭을 수신 장치 (130)이 맞출 수 있도록 송신 장치 (110)에서 클럭 신호를 송출하는 동작이고, 페이지 스캔 동작은 수신 장치 (130)이 수신된 클럭을 검출하여 동기를 맞추는 동작이다.
상기 송신 장치 (110)과 수신 장치 (130) 간의 페어링 과정 (150)이 완료된 후, 상기 송신 장치 (110)은 내부 메모리에 저장된 음악 파일을 디코딩 (Decoding)하고, 디코딩된 데이터를 블루투스의 음악용 프로파일 (일 예로, 향상된 오디오 분배 프로파일 (advanced audio distribution profile : A2DP)에 지정된 코덱을 기반으로 다시 인코딩 (Encoding)하여 음성 데이터를 수신 장치 (130)로 전송한다 (170). 이후 상기 송신 장치 (110)은 새로운 주파수 호핑 (hopping)을 함으로써 다른 신호들과의 간섭을 피할 수 있다.
이에 수신 장치 (130)은 상기 송신 장치 (110)과 약속된 주파수와 클럭 (clock) 시간에 상기 송신 장치 (110)로부터 전송되는 음성 데이터를 수신한 후, 수신된 음성 데이터에 대한 주파수 호핑 과정, 디코딩 과정 및 아날로그 신호로 변환 과정을 수행하여 변환된 음성 데이터를 출력부를 통해 출력한다. 상기 수신 장치 (130)은 이러한 과정을 반복하여 연속적인 음성 데이터를 수신 및 출력할 수 있다.
상기 도 1을 기반으로 설명한 바와 같이, 상기 블루투스 기술은 반드시 페어링 과정이 필요하며 이로 인해 동시에 서비스를 제공할 수 있는 기기의 개수가 제한된다. 그러므로, 블루투스 기술은 동시에 서비스를 제공하는 기기의 개수에 대한 제한이 없는 방송용 서비스에는 적합하지 않다.
그리고 상기 송신 장치 (110)에서 음성 데이터를 수신 장치 (130)로 전송함과 동시에, 도 2와 같이 상기 송신 장치 (110)에서 영상 데이터를 출력할 수도 있다.
도 2는 종래 블루투스 기술을 기반으로 영상 데이터 및 음성 데이터를 출력하는 방법의 일 예를 보이고 있다.
도 2를 참조하면, 종래 블루투스 기술을 이용한 전송 기법에 있어서, 송신 장치 (110)은 내부 출력부를 통해 영상 데이터를 출력함 (201)과 동시에, 음성 데이터를 수신 장치 (130)로 전송할 수 있다 (203). 이때, 상기 송신 장치 (110)에서 출력되는 영상 데이터와 상기 수신 장치 (130)에서 출력되는 음성 데이터 간에 동기가 맞아야지만 사용자에게 높은 품질을 갖는 서비스를 제공할 수 있다.
도 3은 도 2의 송신 장치와 수신 장치에서 제공되는 데이터들 간 동기화 방법의 일 예를 보이고 있다.
도 2 및 도 3을 참조하면, 영상 데이터와 상기 영상 데이터와 동기화가 필요한 음성 데이터가 각각 다른 장치에서 출력이 될 경우, 송신 장치 (110)은 수신 장치 (130)의 버퍼링 과정 또는 디코딩 과정에서 발생하는 지연시간을 정확하게 예측할 수 없다. 이러한 문제로 인해, 송신 장치 (110)에서 출력되는 영상 데이터와 수신 장치 (130)에서 출력되는 음성 데이터에 있어서 동기가 맞지 않는 문제가 발생하게 된다.
이러한 동기 문제를 해결하기 위하여, 먼저 송신 장치 (110)은 수신 장치 (130)로 음성 데이터를 전송한다 (301). 그러면 수신 장치 (130)은 음성 데이터를 수신하여, 상기 수신된 음성 데이터에 대한 버퍼링 (Buffering) 과정, 디코딩 과정 및 렌더링 (Rendering) 과정에서 발생 가능한 지연 시간을 계산하고 (303), 상기 계산된 지연 시간을 송신 장치 (110)로 전송한다.
이에 따라 송신 장치 (110)은 수신 장치 (130)로부터 수신된 지연 시간을 이용하여, 출력하는 영상 데이터 및 전송하는 음성 데이터 간의 동기를 보정한다(307). 일 예로, 상기 송신 장치 (110)은 미디어 스트림이 큰 음성 데이터를 먼저 전송, 영상 프레임을 드랍핑 (Dropping) 또는 복제하거나, 영상 데이터의 출력 시간 조절을 통해, 송신 장치 (110)에서 영상 데이터와 수신 장치 (130)에서 음성 데이터가 동시에 출력 (즉, 재생) 될 수 있도록 한다.
상기 도 2 및 도 3을 기반으로 설명한 바와 같이, 종래 블루투스 기술은 페어링 동작이 수행된 송신 장치 (110)과 수신 장치 (130)에서, 송신 장치 (11이) 직접적으로 수신 장치 (130)로부터 수신된 정보를 이용하여 동기화를 수행해야 하므로, 동시에 서비스를 제공하는 기기의 개수에 대한 제한이 없는 방송용 서비스에는 적합하지 않다.
본 개시의 일 실시 예는 D2D 통신을 지원하는 무선 통신 시스템에서 송신 장치 및 수신 장치 간의 탐색 과정을 수행하는 방법 및 장치를 제공한다.
또한 본 개시의 일 실시 예는 D2D 통신을 지원하는 무선 통신 시스템에서 영상 관련 데이터를 전송하기 위한 자원을 할당하는 방법 및 장치를 제공한다.
또한 본 개시의 일 실시예는 D2D 통신을 지원하는 무선 통신 시스템에서 영상 데이터와 연상 관련 데이터 간의 동기화를 수행하는 방법 및 장치를 제공하는 것이다.
또한 본 개시의 일 실시 예는 D2D 통신을 지원하는 무선 통신 시스템에서 송신 장치 및 수신 장치 간의 동기화된 데이터를 송수신하는 방법 및 장치를 제공한다.
본 개시의 일 실시예에서 제안하는 방법은; 기기 간 통신 (device to device communication)을 지원하는 무선 통신 시스템에서 송신 장치가 데이터를 송신하는 방법에 있어서, 하나의 동영상 컨테이너 데이터 (video container data)에서 영상 데이터 (video data) 및 상기 영상 데이터와 동시에 출력되는 영상 관련 데이터를 분리하는 과정과, 상기 영상 데이터를 출력하는 과정과, 상기 영상 관련 데이터 및 상기 영상 데이터를 출력하는 시점에 관련된 정보를 포함하는 메시지를 생성하여, 상기 생성된 메시지를 수신 장치로 전송하는 과정을 포함한다.
본 개시의 일 실시예에서 제안하는 방법은; 기기간 통신 (device to device communication)을 지원하는 무선 통신 시스템에서 수신 장치가 데이터를 수신하는 방법에 있어서, 송신 장치로부터 하나의 동영상 컨테이너 데이터 (video container data)에서 영상 데이터와 분리된 상기 영상 데이터와 동시에 출력되는 영상 관련 데이터 및 상기 영상 데이터를 출력하는 시점에 관련된 정보를 포함하는 메시지를 수신하는 과정과, 상기 영상 데이터를 출력하는 시점에 관련된 정보를 기반으로, 상기 영상 관련 데이터를 출력하는 과정을 포함한다.
또한 본 개시의 일 실시예에서 제안하는 장치는; 기기 간 통신 (device to device communication)을 지원하는 무선 통신 시스템에서 송신 장치가 데이터를 송신하는 장치에 있어서, 하나의 동영상 컨테이너 데이터 (video container data)에서 영상 데이터 (video data) 및 상기 영상 데이터와 동시에 출력되는 영상 관련 데이터를 분리하고, 상기 영상 데이터의 출력을 제어하고, 상기 영상 관련 데이터 및 상기 영상 데이터를 출력하는 시점에 관련된 정보를 포함하는 메시지를 생성하는 제어부와, 상기 생성된 메시지를 수신 장치로 전송하는 송수신부를 포함한다.
또한 본 개시의 일 실시예에서 제안하는 장치는; 기기간 통신 (device to device communication)을 지원하는 무선 통신 시스템에서 수신 장치가 데이터를 수신하는 장치에 있어서, 송신 장치로부터 하나의 동영상 컨테이너 데이터 (video container data)에서 영상 데이터와 분리된 상기 영상 데이터와 동시에 출력되는 영상 관련 데이터 및 상기 영상 데이터를 출력하는 시점에 관련된 정보를 포함하는 메시지를 수신하는 송수신부와, 상기 영상 데이터를 출력하는 시점에 관련된 정보를 기반으로, 상기 영상 관련 데이터를 출력하는 제어부를 포함한다.
본 개시의 다른 측면들과, 이득들 및 핵심적인 특징들은 부가 도면들과 함께 처리되고, 본 개시의 바람직한 실시예들을 개시하는, 하기의 구체적인 설명으로부터 해당 기술 분야의 당업자에게 자명할 것이다.
하기의 본 개시의 구체적인 설명 부분을 처리하기 전에, 이 특허 문서를 통해 사용되는 특정 단어들 및 구문들에 대한 정의들을 설정하는 것이 효과적일 수 있다: 상기 용어들 "포함하다 (include)" 및 "포함하다 (comprise)"와 그 파생어들은 한정없는 포함을 의미하며; 상기 용어 "혹은 (or)"은 포괄적이고, "및/또는"을 의미하고; 상기 구문들 "~와 연관되는 (associated with)" 및 "~와 연관되는 (associated therewith)"과 그 파생어들은 포함하고 (include), ~내에 포함되고 (be included within), ~와 서로 연결되고 (interconnect with), 포함하고 (contain), ~내에 포함되고 (be contained within), ~에 연결하거나 혹은 ~와 연결하고 (connect to or with), ~에 연결하거나 혹은 ~와 연결하고 (couple to or with), ~와 통신 가능하고 (be communicable with), ~와 협조하고 (cooperate with), 인터리빙하고 (interleave), 병치하고 (juxtapose), ~로 가장 근접하고 (be proximate to), ~로 ~할 가능성이 크거나 혹은 ~와 ~할 가능성이 크고 (be bound to or with), 가지고 (have), 소유하고 (have a property of) 등과 같은 내용을 의미하고; 상기 용어 "제어기"는 적어도 하나의 동작을 제어하는 임의의 디바이스, 시스템, 혹은 그 부분을 의미하고, 상기와 같은 디바이스는 하드웨어, 펌웨어 혹은 소프트웨어, 혹은 상기 하드웨어, 펌웨어 혹은 소프트웨어 중 적어도 2개의 몇몇 조합에서 구현될 수 있다. 어떤 특정 제어기와 연관되는 기능성이라도 집중화되거나 혹은 분산될 수 있으며, 국부적이거나 원격적일 수도 있다는 것에 주의해야만 할 것이다. 특정 단어들 및 구문들에 대한 정의들은 이 특허 문서에 걸쳐 제공되고, 해당 기술 분야의 당업자는 많은 경우, 대부분의 경우가 아니라고 해도, 상기와 같은 정의들이 종래 뿐만 아니라 상기와 같이 정의된 단어들 및 구문들의 미래의 사용들에도 적용된다는 것을 이해해야만 할 것이다.
도 1은 종래 블루투스 기술을 기반으로 음성 데이터를 송수신하는 방법의 일 예를 나타낸 도면,
도 2는 종래 블루투스 기술을 기반으로 영상 데이터 및 음성 데이터를 출력하는 방법의 일 예를 보이 나타낸 도면,
도 3은 도 2의 송신 장치와 수신 장치에서 제공되는 데이터들 간 동기화 방법의 일 예를 나타낸 도면,
도 4는 본 개시의 실시 예에 따른 무선 통신 시스템의 일 예를 나타낸 도면,
도 5는 본 개시의 실시 예에 따른 통신 시스템의 송신 장치 및 수신 장치에서 탐색 과정을 수행하는 방법의 일 예를 나타낸 도면,
도 6은 본 개시의 실시 예에 따른 통신 시스템의 송신 장치 및 수신 장치에서 탐색 과정을 수행하는 방법의 다른 예를 나타낸 도면,
도 7은 본 개시의 실시 예에 따른 서버에서 할당하는 탐색 코드의 구성을 나타낸 도면,
도 8은 본 개시의 실시 예에 따른 무선 통신 시스템에 포함된 수신 장치에서 UI를 출력하는 일 예를 나타낸 도면,
도 9는 본 개시의 실시 예에 따른 무선 통신 시스템에서 송신 장치가 자원을 할당 받아 영상 관련 데이터를 전송하는 방법의 일 예를 나타낸 도면,
도 10은 본 개시의 실시 예에 따른 송신 장치에서 자원 할당을 요청하는 자원 할당 요청 메시지의 구성의 일 예를 나타낸 도면,
도 11은 본 개시의 실시 예에 따른 송신 장치에서 자원 할당을 요청하는 방법의 일 예를 나타낸 도면,
도 12는 본 개시의 실시 예에 따른 기지국에서 자원을 할당하는 방법의 일 예를 나타낸 도면,
도 13은 LTE 셀룰러 시스템에서 자원을 할당하는 일 예를 나타낸 도면,
도 14는 본 개시의 실시 예에 따른 수신 장치에서 동기화가 필요한 음성 데이터를 수신하는 방법의 일 예를 나타낸 도면,
도 15는 본 발명의 실시 예에 따른 수신 장치에서 동기화가 필요한 음성 데이터를 수신하는 방법의 다른 예를 나타낸 도면,
도 16은 본 개시의 실시 예에 따른 무선 통신 시스템에서 송신 장치가 영상 관련 데이터는 전송하는 방법의 다른 예를 나타낸 도면,
도 17은 본 개시의 실시 예에 따른 송신 장치 및 수신 장치에서 송수신되는 데이터의 동기화를 수행하는 방법의 일 예를 나타낸 도면,
도 18는 본 개시의 실시 예에 따른 송신 장치 및 수신 장치에서 데이터 동기화 방법을 적용하는 일 예를 나타낸 도면,
도 19는 본 개시의 실시 예에 따른 송신 장치 및 수신 장치에서 데이터를 출력하는 방법의 일 예를 나타낸 도면,
도 20은 본 개시의 실시 예에 따른 송신 장치 및 수신 장치에서 데이터를 출력하는 방법의 다른 일 예를 나타낸 도면,
도 21은 본 개시의 실시 예에 따른 송신 장치에서 송신 장치와 수신 장치 간의 절대 시간이 맞지 않는 경우의 음성 데이터를 전송하는 방법의 일 예를 나타낸 도면,
도 22는 본 개시의 실시 예에 따른 수신 장치에서 송신 장치와 수신 장치 간의 절대 시간이 맞지 않는 경우의 음성 데이터를 출력하는 방법의 일 예를 나타낸 도면,
도 23은 본 개시의 실시 예에 따른 송신 장치에서 송신 장치와 수신 장치 간의 절대 시간이 맞는 경우의 음성 데이터를 전송하는 방법의 다른 예를 나타낸 도면,
도 24는 본 개시의 실시 예에 따른 수신 장치에서 송신 장치와 수신 장치 간의 절대 시간이 맞는 경우의 음성 데이터를 출력하는 방법의 다른 일 예를 나타낸 도면,
도 25는 본 개시의 실시 예에 따른 통신 시스템에서 데이터를 송신하는 송신 장치의 내부 구조의 일 예를 개략적으로 나타낸 도면,
도 26은 본 개시의 실시 예에 따른 통신 시스템에서 데이터를 수신하는 수신 장치의 내부 구조의 일 예를 개략적으로 나타낸 도면.
상기 도면들을 통해, 유사 참조 번호들은 동일한 혹은 유사한 엘리먼트들과, 특징들 및 구조들을 도시하기 위해 사용된다는 것에 유의해야만 한다.
첨부되는 도면들을 참조하는 하기의 상세한 설명은 청구항들 및 청구항들의 균등들로 정의되는 본 개시의 다양한 실시예들을 포괄적으로 이해하는데 있어 도움을 줄 것이다. 하기의 상세한 설명은 그 이해를 위해 다양한 특정 구체 사항들을 포함하지만, 이는 단순히 예로서만 간주될 것이다. 따라서, 해당 기술 분야의 당업자는 여기에서 설명되는 다양한 실시예들의 다양한 변경들 및 수정들이 본 개시의 범위 및 사상으로부터 벗어남이 없이 이루어질 수 있다는 것을 인식할 것이다. 또한, 공지의 기능들 및 구성들에 대한 설명은 명료성 및 간결성을 위해 생략될 수 있다.
하기의 상세한 설명 및 청구항들에서 사용되는 용어들 및 단어들은 문헌적 의미로 한정되는 것이 아니라, 단순히 발명자에 의한 본 개시의 명료하고 일관적인 이해를 가능하게 하도록 하기 위해 사용될 뿐이다. 따라서, 해당 기술 분야의 당업자들에게는 본 개시의 다양한 실시예들에 대한 하기의 상세한 설명은 단지 예시 목적만을 위해 제공되는 것이며, 첨부되는 청구항들 및 상기 청구항들의 균등들에 의해 정의되는 본 개시를 한정하기 위해 제공되는 것은 아니라는 것이 명백해야만 할 것이다.
또한, 본 명세서에서 명백하게 다른 내용을 지시하지 않는 "한"과, "상기"와 같은 단수 표현들은 복수 표현들을 포함한다는 것이 이해될 수 있을 것이다. 따라서, 일 예로, "컴포넌트 표면 (component surface)"은 하나 혹은 그 이상의 컴포넌트 표현들을 포함한다.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
또한, 본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 이해되어야만 한다.
본 발명의 주요한 요지는 통신 시스템의 송신 장치는 하나의 동영상 컨테이너 (video container) 데이터에서 영상 데이터 (video data)와 상기 영상 데이터와 동시에 출력되는 영상 관련 데이터를 분리하고, 상기 영상 데이터를 출력하며, 상기 영상 관련 데이터 및 상기 영상 데이터를 출력하는 시점에 관련된 정보를 포함하는 메시지를 수신 장치로 전송하는 것이고, 상기 수신 장치는 상기 송신 장치에서 출력되는 영상 데이터와 동기가 맞도록 상기 영상 데이터를 출력하는 시점에 관련된 정보를 기반으로 영상 관련 데이터를 출력하는 것이다. 여기서, 상기 영상 관련 데이터는 상기 영상 데이터와 동기화되어야 하는 미디어 데이터로, 일 예로 음성, 텍스트 및 영상 중 적어도 하나가 될 수 있다.
이를 위해 본 발명의 실시 예에 따른 무선 통신 시스템에서 데이터를 송수신하는 방법 및 장치에 대하여 상세히 설명하기로 한다.
도 4는 본 개시의 실시 예에 따른 무선 통신 시스템의 일 예를 보이고 있다.
도 4를 참조하면, 본 개시의 실시 예에 따른 무선 통신 시스템은 송신 장치 (410) 및 수신 장치 (430)를 포함한다. 추가적으로 무선 통신 시스템은 통신 환경에 따라서 무선 자원을 관리하는 무선 노드 (450), 상기 송신 장치 (410)와 상기 수신 장치 (430)로 미디어 데이터를 송수신하는 서버 (470) 및 공중파 방송을 지원하는 방송 장치 (490) 중 적어도 하나를 더 포함할 수 있다.
여기서 상기 송신 장치 (410)는 일 예로 영상을 제공하는 디스플레이 (Display) 장치일 수 있고, 상기 수신 장치 (430)는 일 예로 영상, 문자 및 음성 중 적어도 하나를 출력하는 플레이 (Play) 장치 일 수 있다. 그리고 상기 방송 장치 (490)는 일 예로 방송국일 수 있다.
상기 송신 장치 (410)는 수신 장치 (430) 또는 무선 노드 (450)와 통신을 수행한다. 상세하게, 상기 송신 장치 (410)는 서버 (470) 또는 방송 장치 (490)로부터 하나의 동영상 컨테이너 데이터 (video container data)를 수신하거나 송신장치 (410) 내에 하나의 동영상 컨테이너 데이터를 저장하고 있다. 그리고 상기 송신 장치 (410)는 동영상 컨테이너 데이터에 해당되는 컨텐츠를 디코딩하여 영상 데이터와 상기 영상 데이터와 동기를 맞춰야되는 영상 관련 데이터를 분리한다. 그리고 상기 송신 장치 (410)는 상기 영상 데이터를 영상 출력부를 통해 출력하고, 상기 영상 관련 데이터를 수신 장치 (430) 또는 무선 노드 (450)로 송신한다. 이때 상기 무선 노드 (450)는 무선 통신 시스템이 광대역 무선통신 시스템인 경우 기지국이 될 수 있고, 무선랜 시스템인 경우 접속 포인트 (access point : AP)가 될 수 있다. 이하, 본 개시의 실시 예에서 설명의 편의를 위하여, 상기 무선 노드 (450)가 기지국인 경우를 일 예로 설명하지만, 통신 시스템에 따라 AP가 될 수도 있음은 물론이다.
상기 송신 장치 (410)가 상기 영상 관련 데이터를 수신 장치 (430) 또는 무선 노드 (450)로 송신하는 방법은 크게 3가지로 분리할 수 있다.
첫 번째로, 상기 송신 장치 (410)는 영상 관련 데이터를 방송 (Broadcasting) 기법을 이용하여 다른 장치로 송신할 수 있다. 일 예로, 광대역 통신 시스템에서 송신 장치 (410)는 통신사로부터 D2D 통신 방식에 대한 사용을 허가 받은 모든 수신 장치 (430)로 영상 관련 데이터를 송신할 수 있다.
두 번째로, 상기 송신 장치 (410)는 상기 영상 관련 데이터를 특정 그룹에 포함된 수신 장치 (430)로만 송신하기 위하여, 미리 그룹핑 (Groupcasting)된 수신 장치 (430)로 송신할 수 있다.
세 번째로, 상기 송신 장치 (410)는 상기 영상 관련 데이터를 하나의 특정 수신 장치 (430)로 유니캐스트 (Unicast) 기법을 이용하여 송신할 수 있다. 일 예로, 광대역 통신 시스템에서 송신 장치 (410)는 통신사로부터 D2D 통신 방식에 대한 사용을 허가 받은 수신 장치 중 특정 수신 장치 (430)로만 영상 관련 데이터를 송신할 수 있다. 상기 설명한 송신 장치 (410)에서 영상 관련 데이터를 송신하는 방법들의 일 예는 하기의 도 5 내지 도 24를 참조하여 상세히 설명하기로 한다.
다시 도 1을 참조하면, 수신 장치 (430)는 상기 송신 장치 (410) 또는 무선 노드 (450)와 통신을 수행한다. 상기 수신 장치 (430)는 상기 송신 장치 (410) 또는 무선 노드 (450)로부터 영상 데이터와 동기를 맞춰야되는 영상 관련 데이터를 수신한다. 그리고 상기 수신 장치 (430)는 상기 영상 관련 데이터가 음성 데이터인 경우 음성 데이터를 디코딩하고, 상기 디코딩된 음성 데이터를 영상 데이터와 동기를 맞춰서 내부 오디오 출력부 (일 예로, 헤드폰이나 이어폰 같은 음향기기 또는 옥스 출력 (Aux-out) 장치)를 통해 출력한다. 또한 상기 수신 장치 (430)는 상기 영상 관련 데이터가 텍스트 (일 예로, 자막) 데이터인 경우 텍스트 데이터를 영상 데이터와 동기를 맞춰서 내부 영상 출력부를 통해 출력한다. 이하, 설명의 편의를 위하여, 상기 영상 관련 데이터가 일 예로 음성 데이터임을 가정하여 설명하기로 한다. 상기 수신 장치 (430)의 상세한 동작은 하기의 도 5 내지 도 24을 참조하여 설명하기로 한다.
상기 무선 노드 (450)는 상기 송신 장치 (410)와 수신 장치 (430)간에 영상 관련 데이터를 송수신할 때 사용되는 무선 자원을 관리 및 제어하는 역할을 수행한다. 일 예로, 상기 무선 노드 (450)는 송신 장치 (410)의 자원 요청에 의해 일정 시간 동안 상기 송신 장치 (410)에 무선 자원을 할당할 수 있다. 다른 예로, 상기 무선 노드 (450)는 상기 송신 장치 (410)와 수신 장치 (430) 간 통신 용도로 사용할 수 있는 무선 자원의 풀 (Pool) 지정하고 상기 송신 장치 (410)와 수신 장치 (430) 각각에 할당된 무선 자원을 공지할 수 있다.
상기 서버 (470)는 상기 송신 장치 (410), 수신 장치 (430) 또는 무선 노드 (450)로 영상 데이터 또는 영상 관련 데이터를 제공한다.
상기 방송 장치 (490)는 현재 디지털 공중파 방송을 하고 있는 방송국을 의미하며, 송신 장치 (410)로 무선 안테나 혹은 동축 케이블과 같은 별도의 출력 장치를 통해 방송 컨텐츠를 송신할 수 있다.
본 개시의 실시 예에 따른 통신 시스템은 도 4에 도시한 장치 외에도 네트워크를 구성하는 다른 엔터티가 포함할 수 있다. 일 예로, 상기 통신 시스템은 광대역 통신 시스템인 경우, 이동성을 지원하는 이동성 관리 엔터티 (Mobility Management Entity : MME), 송신 장치 (410) 및 수신 장치 (430)를 외부 네트워크로 연결하는 기능을 담당하는 서빙 게이트웨이, 상기 서빙 게이트웨이를 애플리케이션 서버와 같은 아이피 (IP) 네트워크로 연결하는 패킷 게이트웨이, 송신 장치 (410) 및 수신 장치 (430)를 위한 가입자 프로파일을 관리하여 MME로 제공하는 홈 가입자 서버 (home subscriber server : HSS), 및 패킷 게이트웨이와 IP 네트워크의 사이에서 이동 통신 서비스를 위한 정책 및 과금 규칙을 생성하고 관리하는 노드 중 적어도 하나를 포함할 수 있다. 상기 과금을 담당하는 노드는 D2D 통신에서의 데이터에 대한 과금을 관리할 수 있다.
상기와 같이 통신 시스템에서 송신 장치 (410) 및 수신 장치 (430) 간의 데이터 송수신 동작을 위해서는, 먼저 송신 장치 (410)가 데이터를 송수신하고자 하는 수신 장치 (430)를 탐색하여야 한다. 이를 위해, 이하에서는 도 5 내지 도 8을 기반으로, 본 개시의 실시 예에 따른 통신 시스템에서 송신 장치 (410) 및 수신 장치 (430)간의 장치의 탐색 (discovery) 또는 정보의 탐색을 지원하는 탐색 과정을 수행하는 실시 예들에 대하여 설명하기로 한다.
도 5는 본 개시의 실시 예에 따른 통신 시스템의 송신 장치 및 수신 장치에서 탐색 과정을 수행하는 방법의 일 예를 보이고 있다.
도 5를 참조하면, 송신 장치 (410)는 서버 (470)로부터 탐색 코드 (Discovery Code)를 할당받기 위한 과정을 수행한다. 이때, 상기 송신 장치 (410)는 어플리케이션 (Application)과 출력부를 통해 현재 영상 데이터를 출력하고 있음을 가정한다.
상세하게, 상기 송신 장치 (410)는 탐색 코드를 할당 받기 위한 할당 요청 정보를 서버 (470)로 전송한다 (501). 상기 할당 요청 정보는 어플리케이션 아이디 (Application ID), 디스플레이 아이디 (Display ID), 컨텐트 아이디 (Content ID) 중 적어도 하나와, 자신의 Source ID 를 포함한다. 상기 할당 요청 정보에 포함되는 상기 Application ID는 어플리케이션 영역에서 사용하는 구분자를 의미하며, 일 예로 곰 플레이어 (Gom Player), 유투브 (Youtube) 등이 있다. 그리고 상기 Application ID는 서버 (470)의 정책에 따라 등록되어 허가 받은 경우에만 사용 가능할 수 있다. 상기 Display ID는 송신 장치 (410)를 구분하기 위한 구분자이며, 장치 아이디 (Device ID), 가입자 아이디 (Subscriber ID), 혹은 사용자가 임의로 지정한 ID 일 수 있다. 또한 상기 Content ID는 하나의 송신 장치 (410)에서 전송되는 음성 데이터를 구분하기 위한 구분자로, 상기 송신 장치 (410)는 하나 이상의 Content ID를 관리할 수 있다. 예를 들어, 만약 방송 콘텐트가 3가지 언어로 된 음성 데이터를 지원하고 있다면, Content ID를 각 언어로 분리하여 구분 할 수 있다. 다른 예로, 음성 데이터의 일부 혹은 전부를 서버 (470)로부터 다운로드 받는다면 Content ID들로 음성 데이터를 얻을 수 있는 유니폼 리소스 로케이터 (uniform resource locator : URL) 정보를 삽입할 수 있다. 또 다른 예로, 송신 장치 (410)에 다중 화면 (picture in picture : PIP)이 출력 중이라면 Content ID들을 통해 영상 데이터의 음성 데이터를 구분할 수 있다. 이와 같이 Content ID는 음성 데이터에 관련된 실질적 정보를 구분한다. 여기서, 상기 Application ID, Display ID, Content ID는 관리 정책에 따라 계층적 구조를 가질 수도 있다. 그리고 상기 Source ID는 상기 송신 장치 (410)의 무선 전송 계층에서 사용되는 ID이다.
상기 송신 장치 (410)로부터 할당 요청 정보를 수신한 서버 (470)는 수신된 할당 요청 정보를 저장하고, 저장된 할당 요청 정보와 매핑 (mapping)되는 탐색 코드 (Discovery Code)를 송신 장치 (410)에 할당한다 (503). 일 예로, 상기 서버 (470)는 도 7과 같이 탐색 코드를 송신 장치 (410)로 할당할 수 있다.
도 7은 본 개시의 실시 예에 따른 서버에서 할당하는 탐색 코드의 구성을 보이고 있다.
도 7을 참조하면, 서버 (470)는 탐색 코드 (Discovery Code)의 일부 공간 (일 예로, LSB)에 Source ID를 직접 삽입 (701)하거나 상기 일부 공간을 비워서 (Null) 탐색 코드를 상기 송신 장치 (410)로 할당 (703)할 수 있다.
다시 도 5를 참조하면, 상기 서버 (470)로부터 탐색 코드를 할당 받은 송신 장치 (410)는 자원을 할당 받거나 지정된 자원 영역에서 경쟁하여 주기적으로 상기 탐색 코드를 방송 (Broadcasting) 한다 (505). 이때, 상기 송신 장치 (410)는 만약 탐색 코드의 일부 공간이 비어있다면 자신의 Source ID를 직접 삽입하여 수신 장치 (430)로 전송한다. 반면 상기 송신 장치 (410)는 탐색 코드의 일부 공간이 비어있지 않다면, 서버 (470)로부터 할당 받은 탐색 코드를 그대로 상기 수신 장치 (430)로 전송한다.
상기에서는 도 5를 기반으로 송신 장치 (410)가 전송하는 할당 요청 정보에 송신 장치 (410)의 Source ID가 포함되어 있는 경우의 탐색 과정에 대하여 설명하였으며, 하기에서는 도 6을 기반으로 송신 장치 (410)가 전송하는 할당 요청 정보에 송신 장치 (410)의 Source ID가 포함되어 있지 않는 경우의 탐색 과정에 대하여 설명하기로 한다.
도 6은 본 개시의 실시 예에 따른 통신 시스템의 송신 장치 및 수신 장치에서 탐색 과정을 수행하는 방법의 다른 예를 보이고 있다. 도 6에 나타낸 탐색 과정을 수행하는 방법의 다른 예는 도 5를 기반으로 설명한 탐색 과정을 수행하는 방법의 일 예와 유사한 방법으로 수행된다. 다만, 도 6의 실시 예에서는 송신 장치 (410)가 자신의 Source ID를 가지고 있지 않다면, 자신의 Source ID 대신에 자신의 고유 ID (e.g. ITMGI)를 포함하는 할당 요청 정보를 서버 (470)로 전송한다 (601). 그러면, 상기 서버 (470)는 상기 고유 ID를 HSS (610)에 전송하여 (610), HSS (610)로부터 상기 송신 장치 (410)의 Source ID를 수신한다 (605).
상기 서버 (470)가 HSS (610)로 부터 Source ID를 수신한 후, 송신 장치 (410) 및 수신 장치 (430)에서 탐색 코드를 할당받는 과정 (607-613)은 상기 도 5를 기반으로 송신 장치 (410) 및 수신 장치 (430)에서 탐색 코드를 할당받는 과정 (503-509)과 동일한 방법으로 수행되므로, 여기서 그 상세한 설명은 생략하기로 한다.
상기 도 5 및 도 6을 기반으로 설명한 탐색 과정에서, 상기 수신 장치 (430)는 탐색 코드를 주기적으로 수신하여 탐색 코드를 획득하면, 획득된 탐색 코드에 매핑되는 할당 요청 정보를 확인하기 위하여, 서버 (470)에 상기 획득된 탐색 코드를 전송한다 (507). 한편, 상기 수신 장치 (430)가 미리 정해진 설정에 의하여 상기 획득된 탐색 코드에 Source ID가 삽입되어있음을 인식한다면, 상기 획득된 탐색 코드를 서버 (470)로 전송하지 않고, 해당 Source ID를 파싱 (Parsing)하여 상기 할당 요청 정보를 획득할 수 있다.
이후 서버 (470)는 상기 수신 장치 (430)로부터 탐색 코드를 수신하면, 내부 메모리에서 상기 탐색 코드와 매핑되어 있는 할당 요청 정보를 상기 수신 장치 (430)로 전송한다 (509). 따라서, 상기 수신 장치 (430)는 Application ID, Display ID, Content ID 및 Source ID를 서버 (470)로부터 획득할 수 있다. 그리고 상기 수신 장치 (430)는 획득된 Source ID를 기반으로 추후 동일한 송신 장치로부터 전송되는 데이터 패킷을 수신한다. 또한 상기 수신 장치 (430)는 Application ID를 기반으로 연관된 어플리케이션을 발견하면, Display ID와 Content ID를 내부 영상 출력부의 어플리케이션 영역으로 전달하여 미리 정해진 동작에 의해 Display ID와 Content ID를 분리하여 출력할 수 있다. 일 예로, 상기 수신 장치 (430)는 도 8과 같이 내부 영상 출력부의 어플리케이션 영역에서 음성 데이터의 선택 및 재생을 위한 UI를 출력할 수 있다.
도 8은 본 개시의 실시 예에 따른 무선 통신 시스템에 포함된 수신 장치에서 UI를 출력하는 일 예를 보이고 있다.
도 8을 참조하면, 수신 장치 (430)에 디스플레이 (Display)에 의한 사용자 인터페이스 (user interface : UI)가 존재한다면, 상기 도 5 또는 도 6에서 획득한 Display ID와 Content ID는 사용자가 원하는 컨텐츠를 편하게 선택할 수 있도록 수신 장치 (430)에 출력될 수 있다. 일 예로, 하나의 TV에서 다중언어 방송을 할 경우, Display ID는 송신 장치 ID인 Tv1, Content ID들은 한국어, 영어, 중국어가 된다. 이때 상기 수신 장치 (430)에 Tv1.한국어가 출력되면 사용자가 원할 경우 리스트에서 선택, 스크롤, 옆으로 넘기기 등을 이용하여 영어 또는 중국어를 선택할 수 있게 출력될 수 있다. 다른 예로, 서로 다른 TV에서 같은 방송을 발송할 경우, Display ID는 각 TV 별로 다르게 발송되어 수신 장치 (410)에 Tv1, Tv2와 같이 출력되고, Content ID는 뉴스로 표시되어, Tv1.뉴스, Tv2.뉴스와 같이 출력될 수 있다.
이후 수신 장치 (430)는 Display ID와 Content ID를 선택한 사용자로부터 재생 버튼의 클릭과 같은 선택 이벤트를 수신하면, 내장 스피커 또는 Aux Out을 이용한 이어폰, 헤드폰 등을 통해 음성 데이터를 출력할 수 있다. 상기 수신 장치 (430)에서 영상 출력부에 UI를 출력하는 동작은 어플리케이션의 설정에 따라 달라지며 필요에 의해 세가지 ID는 보여지거나 가려질 수 있다. 일 예로, 만약 Content ID가 썸네일 등 정보를 포함하고 있는 링크 정보라면 수신 장치 (430)는 해당 링크 정보를 수신하여 출력할 수 있다.
상기에서는 도 5 내지 도 8을 참조하여, 본 개시의 실시 예에 따른 무선 통신 시스템에서 송신 장치 (410)와 수신 장치 (430)에서 탐색 과정을 수행하는 방법 및 수신 장치 (430)에 UI를 출력하는 방법에 대하여 설명하였으며, 이하 도 9 내지 도 13를 기반으로 송신 장치 (410)와 수신 장치 (430)에서 탐색 과정을 수행한 이후, 상기 송신 장치 (410)에서 자원을 할당 받아 상기 수신 장치 (430)로 영상 관련 데이터를 전송하는 방법을 설명하기로 한다. 여기서, 상기 영상 관련 데이터는 송신 장치 (410)에서 출력되는 영상 데이터와 동기화가 필요한 데이터로, 이하 설명의 편의를 위하여 상기 동기화가 필요한 데이터가 음성 데이터임을 가정하여 설명하기로 한다. 그러나 본 개시의 실시 예는 상기 동기화가 필요한 데이터가 음성 데이터 뿐만 아니라, 영상 (video) 데이터, 이미지 (image) 데이터 또는 텍스트인 경우에도 적용 가능함은 물론이다.
도 9는 본 개시의 실시 예에 따른 무선 통신 시스템에서 송신 장치가 자원을 할당 받아 영상 관련 데이터를 전송하는 방법의 일 예를 보이고 있다. 여기서, 본 개시의 실시 예는 송신 장치 (410) 및 수신 장치 (430) 간의 탐색 과정이 완료된 후, 송신 장치 (410)가 D2D 통신을 이용하여 상기 수신 장치 (430)로 동기화가 필요한 음성 데이터를 전송하는 방법에 관한 것이다.
도 9를 참조하면, 송신 장치 (410)는 수신 장치 (430)로 출력되는 영상 데이터와 동기화가 필요한 음성 데이터를 전송하기 위하여, 기지국 (450)으로 D2D 통신을 위한 자원 할당을 요청하는 자원 할당 요청 메시지를 전송한다 (901). 여기서, 상기 자원 할당 요청 메시지는 일반적인 버퍼 상태 보고 메시지 (buffer status report message : BSR)일 수 있다.
기지국 (450)은 상기 송신 장치 (410)로부터 자원 할당 요청 메시지를 수신하면, 동기화가 필요한 음성 데이터를 전송하기 위한 자원 할당을 요청하는 것임을 확인하여, 동기화가 필요한 음성 데이터의 서비스 품질 (quality of service : QoS)를 만족시켜주기 위한 자원 할당을 수행한다. 즉, 기지국 (450)은 동기화가 필요한 음성 데이터의 QoS를 만족시키기 위해서, 송신 장치 (410)에서 상기 동기화가 필요한 음성 데이터의 전송 시, 지연 (latency)이 발생되지 않도록 자원을 할당해야 한다. 이와 같이, 기지국 (450)이 상기 송신 장치 (410)로부터 동기화가 필요한 음성 데이터의 전송을 위한 자원 할당을 요청하는 것임을 확인할 수 있도록, 본 개시의 실시 예에 따른 송신 장치 (410)는 자원 할당 요청 메시지에, 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것임을 나타내는 정보 (indication)를 포함시킬 수 있다. 일 예로, LTE 셀룰러 시스템에서 자원 할당 요청 메시지의 구성은 도 10과 같이 구성될 수 있다.
도 10은 본 개시의 실시 예에 따른 송신 장치에서 자원 할당을 요청하는 자원 할당 요청 메시지의 구성의 일 예를 보이고 있다.
도 10을 참조하면, 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것임을 나타내는 정보 (indication)는 (a) 또는 (b)와 같이 자원 할당 요청 메시지에 포함될 수 있다.
도 10의 (a)에 나타낸 자원 할당 요청 메시지는 예약 비트 필드 (1001)에서 한 비트를 하나의 필드에 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것임을 나타내는 정보 (indication)로 삽입하는 것이다. 일 예로, 송신 장치 (410)는 자원 할당을 요청 시, 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것임을 나타내는 정보 (indication)를 위한 예약 비트를 "1"로 설정하여 기지국 (450)으로 전송한다. 그러면, 상기 기지국 (450)은 자원 할당 요청 메시지에 포함된 예약 비트를 기반으로 송신 장치 (410)가 요청한 자원 할당 요청이 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것으로 확인하고, 동기화가 필요한 음성 데이터의 QoS를 만족시킬 수 있도록 자원을 할당할 수 있다.
다른 방법으로, 도 10의 (a)에 나타낸 자원 할당 요청 메시지는 로지컬 채널 그룹 아이디 (logical channel ID ; LCG ID) 필드 (field) (1003)에 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것임을 나타내는 정보 (indication)를 삽입하는 것이다. 일 예로, 상기 송신 장치 (410)는 송신 장치 (410)와 기지국 (450) 간에 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것임을 나타내는 정보 (indication)에 해당하는 값으로 미리 설정된 값을 이용하여 LCG ID를 설정하는 것이다. 이로부터 송신 장치 (410)가 미리 설정된 LCG ID 값을 포함하는 자원 할당 요청 메시지를 기지국 (450)으로 전송하면, 기지국 (450)은 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것임을 확인할 수 있다.
다시 도 9를 참조하면, 기지국 (450)으로부터 자원을 할당 받은 송신 장치 (410)는 D2D 통신을 위한 통신 메시지 (910)를 구성하여 수신 장치 (430)로 전송한다 (905). 상기 송신 장치 (410)에 의해 구성되는 통신 메시지 (910)에서 데이터 영역 (930)의 자원에는 헤더 (header) 필드와 데이터 (data)가 포함된다. 상기 헤더에는 동기화가 필요한 음성 데이터 관련 정보 (931)로, Source ID와 Destination ID가 포함된다. 그리고 상기 데이터 필드에는 동기화가 필요한 음성 데이터 (933)가 포함된다. 여기서, 상기 송신 장치 (410)는 상기 도 5 또는 도 6을 기반으로 설명한 실시 예로부터 획득된 Source ID를 상기 헤더 필드에 삽입할 수 있다. 그리고 상기 Destination ID는 미리 정의되어 있거나 프로비저닝 (provisioning) 되어 있으므로, 상기 송신 장치 (410)에서는 이미 알고 있는 값의 Destination ID를 상기 헤더 필드에 삽입할 수 있다.
그리고 상기 수신 장치 (430)는 송신 장치 (410)의 source ID를 도 5 또는 도 6을 기반으로 설명한 실시 예를 통해 송신 장치 (410)의 source ID를 알고 있다. 따라서, 수신 장치 (430)는 도 8의 실시 예에서와 같이 내부 영상 출력부에 현재 방송되고 있는 음성 데이터의 리스트를 출력하고 있다. 이에 상기 수신 장치 (430)는 영상 출력부를 통해 사용자로부터 동기화가 필요한 음성 데이터를 선택하는 이벤트를 수신하면, 통신 메시지 (910)에서 해당 Source ID가 있는 데이터 영역 (일 예로, 930)을 디코딩하여 디코딩된 음성 데이터를 헤드폰이나 이어폰 같은 음향기기 또는 Aux-out 장치를 통해 출력한다.
상기에서는 도 9 및 도 10을 참조하여, 본 개시의 실시 예에 따른 무선 통신 시스템에서 송신 장치 (410)가 기지국 (450)으로부터 자원을 할당 받아 통신 메시지 전송하는 방법에 대하여 설명하였으며, 이하에서는 도 11을 기반으로 도 9에서 설명한 송신 장치 (410)에서 기지국 (450)으로 자원 할당 요청 메시지를 전송하는 방법과 도 12를 기반으로 기지국 (450)에서 자원 할당을 수행하는 방법에 대하여 설명하기로 한다. 여기서, 설명의 편의를 위하여 본 개시의 실시 예가 광대역 통신 시스템에 적용되는 경우를 일 예로 설명하지만, 상등한 다른 시스템의 경우에도 적용 가능함은 물론이다.
도 11은 본 개시의 실시 예에 따른 송신 장치에서 자원 할당을 요청하는 방법의 일 예를 보이고 있다.
본 개시의 실시 예에 따른 송신 장치 (410)는 어플리케이션으로부터 데이터가 발생하게 되면 발생된 데이터를 로지컬 채널 아이디 (Logical Channel ID)에 매핑하여 무선 링크 컨트롤 (radio link control : RLC) 계층의 버퍼에 상기 데이터를 분류하여 관리한다. 이때 로지컬 채널 아이디 (Logical Channel ID)는 보안 및 우선순위 (Priority) 등 특성이 다를 수 있다. 또한 Logical Channel ID는 비슷한 특성을 가지는 ID끼리 그룹을 맺어 LCG ID로 나눠 진다. 상기 LCGID와 LCID는 단말들간 통신에서 사전에 약속되어있을 수 있으며, 필요에 따라 기지국 (450)로부터 설정 받을 수 있다.
도 11을 참조하면, 송신 장치 (410)는 어플리케이션에서 D2D 통신을 위한 데이터가 발생하면 (1101), 상기 발생된 데이터가 동기화가 필요한 음성 데이터인지를 확인한다 (1103).
만약 상기 발생된 데이터가 음성 데이터인 경우, 송신 장치 (410)는 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것임을 나타내는 정보 (indication)를 포함하는 자원 할당 요청 메시지를 생성한다 (1105). 즉, 상기 송신 장치 (410)는 상기 발생된 데이터가 음성 데이터인 경우 상기 음성 데이터를 음성 데이터의 전송 (이하, D2D Audio Broadcasting)으로 미리 설정된 LCID 또는 LCGID 그룹에 매핑 한다. 상기 LCID나 LCGID는 D2D Audio Broadcasting을 위한 특정 파라미터 값과 이미 매핑되어 있을 수 있다. 이때 상기 D2D Audio Broadcasting을 위한 LCID나 LCGID가 존재 하지 않는 경우, 송신 장치 (410)는 자원 요청 메시지에 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것임을 나타내는 지시자를 삽입 (일 예로, 예약 비트 중 한 비트를 미리 정해진 설정 값으로 설정)할 수 있다.
반면, 상기 발생된 데이터가 음성 데이터가 아닌 경우, 상기 송신 장치 (410)는 상기 발생된 데이터를 D2D 데이터로 미리 설정된 LCID나 LCGID 그룹에 매핑하여 자원 할당 요청 메시지를 생성할 수 있다.
이후 송신 장치 (410)는 자원을 할당 받기 위하여, 상기 자원 할당 요청 메시지를 기지국 (470)으로 전송한다. 이때, 상기 자원 요청 메시지는 BSR일 수 있다.
도 12는 본 개시의 실시 예에 따른 기지국에서 자원을 할당하는 방법의 일 예를 보이고 있다.
도 12를 참조하면, 기지국 (450)은 송신 장치 (410)로부터 자원 할당 요청 메시지를 수신한다 (1201). 그리고 상기 기지국 (450)은 상기 자원 할당 요청 메시지에 음성 데이터의 전송을 위한 자원을 요청하는 것임을 나타내는 정보가 포함되어 있는지를 확인한다 (1203). 일 예로, 상기 기지국 (450)은 상기 자원 할당 요청 메시지에 포함되어있는 LCG ID가 미리 설정된 Audio Broadcasting 용으로 매핑되어 있는 LCG ID와 일치 한다면 송신 장치 (410)가 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것으로 판단한다. 다른 예로, 상기 기지국 (450)은 상기 자원 할당 요청 메시지에 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것임을 나타내는 지시자 (미리 약속된 값)가 삽입되어 있는 경우 송신 장치 (410)가 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것으로 판단할 수 있다.
만약 상기 자원 할당 요청 메시지가 동기화가 필요한 음성 데이터의 전송을 위한 자원을 요청하는 것인 경우, 상기 기지국 (450)은 자원 할당에 관련된 파라미터 (parameter)를 조정한다 (1205). 일 예로, 상기 기지국 (450)은 도 9에 도시된 데이터 영역 (930)의 자원에 대한 할당 주기를 조정한다. 이때, 기지국 (450)은 음성 데이터의 경우, QoS를 만족시켜 주기 위해 세미-지속되는 (semi-persistent)의 형태로 자원을 할당하는데, 동기화가 필요한 음성 데이터의 QoS를 위하여 자원을 최대 지연 시간을 보다 작거나 같도록 할당한다. 일 예로, 상기 기지국 (450)은 도 13과 같은 주기로 자원을 할당 할 수 있다.
도 13은 LTE 셀룰러 시스템에서 자원을 할당하는 일 예를 보이고 있다.
도 13을 참조하면, 상기 기지국 (450)은 음성 데이터의 자원 할당 주기를 Ts와 같거나 작게 할당해야 된다. 여기서 Ts는 음성 데이터의 QoS를 만족시키기 위한 최소 시간을 의미한다.
따라서, 상기 기지국 (450)은 상기 결정된 자원 할당 주기에 따라 음성 데이터의 전송을 위한 자원을 할당한다 (1207).
상기 자원 할당 정보는 스케줄링 항당 (scheduling assignment : SA) 구간의 SA 메시지를 통해 단말에게 전달 된다. 따라서 SA 메시지는 데이터의 물리적 자원 위치, 주기 등이 포함 될 수 있다.
상기에서는 도 9 내지 도 13을 기반으로 송신 장치 (410)에서 기지국 (450)으로부터 자원을 할당 받아 메시지를 전송하는 방법에 대하여 설명하였으며, 이하에서는 도 14 및 도 15를 기반으로 송신 장치 (410)에 음성 데이터가 저장되어 있지 않은 경우 수신 장치 (430)에서 적어도 하나의 다른 장치를 통해서 음성 데이터를 수신하는 방법에 대하여 설명하기로 한다.
도 14는 본 개시의 실시 예에 따른 수신 장치에서 동기화가 필요한 음성 데이터를 수신하는 방법의 일 예를 보이고 있다. 도 14를 기반으로 설명하는 실시 예는 상기 도 5 또는 도 6을 기반으로 탐색 방법을 수행한 후, 수신 장치 (430)에서 적어도 하나의 다른 장치를 통해서 동기화가 필요한 음성 데이터를 수신하는 방법의 일 예를 보이고 있다.
도 14를 참조하면, 송신 장치 (410)는 서버 (470)에 동기화가 필요한 음성 데이터를 저장하기 위하여, 기지국 (450)에 자원 할당 요청 메시지 (BSR)를 전송한다 (1401). 그러면, 상기 기지국 (450)은 상기 송신 장치 (410)로 상향 링크 자원을 할당한다 (1403). 이에 상기 송신 장치 (410)는 상기 기지국 (450)을 통해 서버 (470)로 동기화가 필요한 음성 데이터를 전송한다 (1405). 여기서 서버 (470)는 일 예로 LTE 시스템에서는 프로져 서버 (ProSe server)가 될 수도 있고, 향상된 멀티미디어 방송 멀티캐스트 서비스 (evolved multimedia broadcasting multicast sevice : eMBMS) 서버 등이 될 수도 있다. 또 다른 예로, 방송국 장치 (490)는 영상 데이터와 동기화가 필요한 음성 데이터를 서버 (470)로 전송할 수도 있다.
상기 송신 장치 (450)은 상기 서버 (470)로 음성 데이터의 전송이 완료가 되면, 도 5 또는 도 6을 기반으로 설명한 탐색 동작을 통해 동기화가 필요한 음성 데이터를 수신할 수 있는 정보를 수신 장치 (430)로 알려준다 (1407). 상기 동기화가 필요한 음성 데이터를 수신할 수 있는 정보는 서버 (470)의 경우 URL이 될 수 있고, eMBMS의 경우 방송 채널 정보 (즉, 일시적인 모바일 그룹 아이덴티티 (temporary mobile group identity : TMGI))가 될 수 있다.
그러면 수신 장치 (430)는 지속적으로 단말간 탐색을 수신한다. 이때, 수신 장치 (430)의 영상 출력부에는 도 8과 같이 현재 주변에서 방송되고 영상 데이터에 해당하는 동기화가 필요한 음성 데이터들의 리스트가 출력되고 있다. 그리고 수신 장치 (430)는 영상 출력부를 통하여 사용자로부터 리스트에서 하나의 동기화가 필요한 음성 데이터의 선택에 대한 이벤트를 수신하면, 선택된 이벤트에 대응하여 탐색 코드에 포함된 URL 정보를 확인한다. 그리고 상기 수신 장치 (430)는 상기 확인된 URL 정보를 기반으로 동기화가 필요한 음성 데이터를 서버 (470)로 요청하고 (1409), 서버 (470)로부터 음성 데이터를 수신한다 (1411). 그러면 상기 수신 장치 (430)는 송신 장치 (410)에서 출력되는 영상 데이터와 상기 수신된 음성 데이터의 동기를 맞춰서 상기 동기화된 음성 데이터를 출력한다. 여기서, 상기 영상 데이터와 음성 데이터의 동기를 맞추는 방법은 하기의 도 17 내지 도 24를 참조하여 상세히 설명하기로 한다. 한편, 상기 서버 (470)가 eMBMS 서버인 경우, 상기 수신 장치 (430)는 탐색 코드에 포함된 TMGI 정보를 확인하여, eMBMS 서버의 해당 채널에 접근해서 동기화가 필요한 음성 데이터를 다운로드 받을 수 있다.
도 15는 본 발명의 실시 예에 따른 수신 장치에서 동기화가 필요한 음성 데이터를 수신하는 방법의 다른 예를 보이고 있다. 먼저, 상기 도 5 또는 도 6을 기반으로 설명한 본 개시의 실시 예에서 수신 장치 (430)는 탐색 과정을 통해 Content ID를 획득할 수 있다. 그리고 상기 수신 장치 (430)는 내부에 메모리를 포함하고 있으며, 상기 메모리에는 Content ID와 방송 정보의 매핑 (mapping) 데이터 베이스 (database : DB) (1510)를 보유하고 있다. 상기 방송 정보는 일 예로 URL 또는 eMBMS의 방송 채널 정보 (TMGI) 등이 될 수 있다. 상기 매핑 DB (1510)는 수신 장치 (430)가 기본적으로 관리하고 있거나, 어플리케이션 (1530)을 구동시켰을 때 또는 주기적으로 어플리케이션 서버로 (1550)부터 수신할 수 있다. 그리고 실시 예에 따라 상기 매핑 DB (1510)는 상기 수신 장치 (430)가 위치하고 있는 주변 지역에서 제공 가능한 영상 데이터에 관한 정보만을 포함 할 수 있다.
도 15를 참조하면, 상기 수신 장치 (430)는 내부 매핑 DB (1510)를 탐색하여 송신 장치 (410)로부터 수신한 Content ID와 매칭되는 URL 정보 또는 TMGI 정보가 존재하는지 확인한다. 만약 상기 매핑 DB (1510)에 상기 Content ID와 매핑되는 URL 정보 또는 TMGI 정보가 존재하는 경우, 상기 수신 장치 (430)는 수동 혹은 자동으로 URL에 접속하거나 TMGI에 해당되는 eMBMS 방송 채널을 검색한다. 반면 상기 수신 장치 (430)는 매핑 DB (1510)에 상기 Content ID와 매핑되는 URL 정보 또는 TMGI 정보가 존재하지 않는 경우 다음 두 가지 동작 중 적어도 하나의 동작을 수행한다. 첫 번째로, 상기 수신 장치 (430)는 수신된 Content ID를 어플리케이션 서버 (1550)에 전송한다 (1501). 상기 어플리케이션 서버 (1550)는 Content ID와 URL 정보 또는 TMGI 정보를 모두 관리하고 있다. 따라서 상기 어플리케이션 서버 (1550)는 상기 Content ID에 매핑되는 URL 정보 또는 TMGI 정보를 수신 장치 (1510)로 전송할 수 있다 (1503). 두 번째로, 만약 현재 수신 장치 (430)가 위치하고 있는 지역이 보유하고 있는 지역과 다를 경우 매핑 DB의 업데이트를 어플리케이션 서버 (1501)로 요청한다. 이때 상기 요청에는 상기 수신 장치 (430)의 위치 정보가 포함 될 수 있다. 어플리케이션 서버 (1550)는 수신된 수신 장치 (430)의 위치 정보를 이용하여 해당하는 매핑 DB의 정보를 수신 장치 (430)로 전송한다. 이후 수신 장치 (430)는 도 14의 단계 1409 및 1411과 동일한 방법으로 획득한 URL 정보에 접속하거나 TMGI 정보에 해당하는 방송 채널에 접속하여 음성 데이터를 획득할 수 있다.
상기에서는 도 5 내지 도 15를 기반으로 송신 장치 (410)와 수신 장치 (430)에서 서버 (470)를 통하여 탐색 과정을 수행한 이후 음성 데이터를 송수신하는 방법에 대하여 설명하였으나, 이하에서는 도 16을 기반으로 서버 (470)를 통하지 않고 송신 장치 (410)와 수신 장치 (430)에서 직접 탐색 과정을 수행한 이후 음성 데이터를 송수신하는 방법에 대하여 설명하기로 한다.
도 16은 본 개시의 실시 예에 따른 무선 통신 시스템에서 송신 장치가 영상 관련 데이터는 전송하는 방법의 다른 예를 보이고 있다. 여기서, 본 개시의 실시 예에 따른 송신 장치 (410) 및 수신 장치 (430)가 동기화가 필요한 음성 데이터를 송수신하는 방법은, 상기 도 5 또는 도 6를 기반으로 설명한 탐색 과정을 수행하지 않고, 송신 장치 (410) 및 수신 장치 (430)간 직접 통신으로부터 동기화가 필요한 음성 데이터를 송수신하는 것이다.
도 16을 참조하면, 송신 장치 (410)는 동기화가 필요한 음성 데이터를 전송하기 위해, 기지국 (450)으로 D2D 통신을 위한 자원 할당 요청 메시지를 전송한다 (1601). 여기서, 상기 송신 장치 (410)는 자원 할당 요청 메시지 (BSR)를 이용하여 기지국 (450)로 자원 할당을 요청하여 자원을 할당받는 방법은 상기 도 9 내지 도 13을 기반으로 설명한 자원 할당을 요청하는 방법과 동일한 방법이 적용될 수 있다.
이후, 상기 송신 장치 (410)는 기지국 (450)로부터 자원을 할당 받으면 (1603), D2D 통신을 위한 통신 메시지 (1610)를 구성하여 수신 장치 (430)로 전송한다 (1605). 상기 송신 장치 (410)에 의해 구성되는 통신 메시지 (1610)에서 데이터 영역 (1630)의 자원에는 헤더 (header) 필드와 데이터 (data)가 포함된다. 상기 데이터 필드에는 동기화가 필요한 음성 데이터 (1635)와 동기화가 필요한 음성 데이터의 탐색 정보 (discovery information) (1633)가 포함된다. 상기 헤더에는 동기화가 필요한 음성 데이터 관련 정보 (1631)로, Source ID와 Destination ID가 포함된다. 일 예로 송신 장치 (430)는 데이터 영역 (1630)의 자원에 먼저 Source ID와 Destination ID를 설정한다. 그리고 송신 장치 (430)는 동기화가 필요한 음성 데이터 (1635)를 데이터 영역 (1630)의 자원에 포함시키는데, 본 개시의 실시 예에서는 동기화가 필요한 음성 데이터를 포함하는 데이터 필드의 일부분에 동기화가 필요한 음성 데이터의 탐색 정보 (1633)를 포함시킨다. 즉, 데이터 필드 앞부분에는 본 개시의 실시 예에서 제안하는 동기화가 필요한 음성 데이터 전송 정보 (1633)를 포함시키는 것이다.
단말간 탐색 과정을 수행하지 않고, D2D 통신 만을 이용해서 동기화가 필요한 음성 데이터를 송수신하는 실시 예에서, 수신 장치 (430)는 다음과 같이 동작한다.
상기 수신 장치 (430)는 D2D 통신을 통한 동기화가 필요한 음성 데이터를 수신하기 위해 통신 메시지 (1610)에서 스케쥴링 (Scheduling) 영역 (1650)을 모니터링 한다. 즉, 스케쥴링 영역 (1650)에서 지시하는 모든 데이터 영역의 Source ID, Destination ID 그리고 탐색 정보 (즉, 탐색 코드)를 수신하여 디코딩한다. 이러한 수신 및 디코딩 동작을 통해 상기 수신 장치 (430)는 현재 수신할 수 있는 동기화가 필요한 음성 데이터에 대한 탐색 코드를 획득할 수 있다. 그러면, 상기 수신 장치 (430)는 탐색 코드에 해당하는 음성 데이터 관련 정보를 상기 도 8과 같이 UI 화면에 출력한다. 본 개시의 실시 예에서는 음성 데이터를 보내는 송신 장치들이 다수 일 경우에 수신 장치 (430)는 복수 개의 스케줄링 영역 및 데이터 영역을 순차적으로 수신하게 된다. 이로부터, 수신 장치 (430)는 각각의 DATA 영역의 source ID field, destination ID 및 탐색 정보 필드를 통해 디코딩한 다수개의 송신 장치들에서 전송되는 음성 데이터 관련 정보를 UI 화면을 통해 출력할 수 있다. 그리고 수신 장치 (430)는 UI 화면을 통해 사용자로부터 원하는 음성 데이터의 정보에 대한 선택 이벤트를 수신하게 되면, 해당 스케줄링 영역의 데이터 영역에서 데이터 필드에 포함되어 있는 음성 데이터를 디코딩하여 디코딩된 음성 데이터를 스피커와 같은 음향 출력 단자를 통해 출력한다.
상기에서는 본 개시의 실시 예에 따른 송신 장치 (410) 및 수신 장치 (430)에서 음성 데이터를 송수신하는 방법에 대하여 설명하였으며, 이하에서는 도 17 내지 도 24를 참조하여, 상기 송신 장치 (410)에서 출력되는 영상 데이터와 상기 수신 장치 (430)에서 출력되는 음성 데이터 간의 동기화를 수행하는 방법들에 대하여 설명하기로 한다.
도 17은 본 개시의 실시 예에 따른 송신 장치 및 수신 장치에서 송수신되는 데이터의 동기화를 수행하는 방법의 일 예를 보이고 있다.
도 17을 참조하면, 송신 장치 (410)는 영상 데이터를 출력하는 주체이고, 수신 장치 (430)는 상기 영상 데이터와 동기화가 필요한 음성 데이터를 출력하는 주체이다. 상기 송신 장치 (410)에서 관리하고 있는 데이터는 영상 데이터가 영상 출력부를 통해 출력이 시작되는 출력 시작 시점 (T)에 대한 정보와 음성 데이터가 출력되는 출력 시작 시점 (T`)에 대한 정보를 포함한다. 여기서, 영상 데이터의 출력 시작 시점 (T)와, 음성 데이터의 출력 시작 시점 (T')는 절대 시간(일 예로, 송신 장치 (410)와 수신 장치 (430)의 시간이 같음)의 시점임을 특징으로 한다.
그리고 송신 장치 (410) 또는 수신 장치 (430)는 데이터 송신 또는 수신 시, 음성 데이터 (1730)의 출력 시작 시점 (T`)을 영상 데이터 (1710)의 출력 시작 시점 (T) 및 특정 임계치 값들 (t1, t1)과 비교하고, 그 결과에 따라 수신 장치 (430)에서 동기화가 필요한 음성 데이터를 출력하거나 삭제할 수 있다. 본 개시의 실시 예로 특정 임계치 값들 (t1, t1)은 영상 데이터의 출력 시작 시점을 기준으로 음성 데이터의 출력을 시작하기 위한 최소 보장 시간과 최대 보장 시간으로 설정될 수 있다. 일 예로, 수신 장치 (430)는 다음 <수학식 1>과 같은 관계가 성립되는 경우 음성 데이터의 출력을 시작할 수 있다.
Figure PCTKR2016003654-appb-M000001
여기서, 음성 데이터의 출력 시작 시점을 T`는 음성 데이터의 출력 시작 시점이고, T는 영상 데이터의 출력 시작 시점이며, t1은 영상 데이터의 출력 시작 시점과 음성 데이터의 출력 시작 시점 간의 최소 보장 시간이고, t2는 영상 데이터의 출력 시작 시점과 음성 데이터의 출력 시작 시점 간의 최대 보장 시작 시간을 의미한다. 여기서, 특정 임계치 값들 (t1, t2)은 송신 장치 (410) 및 수신 장치 (430)에 미리 설정되거나 서버 (470)를 통해 수신할 수 있다.
그리고 송신 장치 (410)는 수신 장치 (430)로 시간 정보를 전송할 수 있으며, 상기 시간 정보는 영상 데이터의 출력 시작 시점 (T), 상기 송신 장치 (410)에서 영상 데이터의 출력 시작 시점으로부터 수신 장치 (430)로 음성 데이터를 전송하는 시점 간의 마진 값 및 송신 장치 (410)의 처리 시간 (즉, 탐색 및 자원 할당 시간) 중 적어도 하나를 포함할 수 있다. 또한 상기 송신 장치 (410)는 상기 시간 정보를 이용하여 동기화가 필요한 음성 데이터를 전송하거나 삭제할 수 있다.
상기에서는 도 17을 기반으로 송신 장치 (410)과 수신 장치 (430) 간에 송수신되는 데이터의 동기화를 수행하는 방법을 간략하게 설명하였으며, 이하에서는 도 18 내지 도 20을 기반으로 상기 도 17에서 설명한 동기화를 수행하는 방법을 실제 통신 시스템에 적용하는 방법의 일 예에 대하여 설명하기로 한다.
도 18는 본 개시의 실시 예에 따른 송신 장치 및 수신 장치에서 데이터 동기화 방법을 적용하는 일 예를 보이고 있다.
먼저, 송신 장치 (410)에서 어플리케이션의 버퍼에 동기화가 필요한 음성 데이터가 저장되어 있으며, 상기 동기화가 필요한 음성 데이터가 송신을 위해 어플리케이션의 버퍼에서 송신부의 버퍼로 전달되는 시간을 t1으로 정의하고, 송신부의 버퍼에 전달된 동기화가 필요한 음성 데이터에 대한 전송을 위한 자원의 할당 시간을 t2로 정의하기로 한다. 여기서, 상기 송신 장치 (410)는 영상 데이터의 출력을 시작하기 전에 영상 데이터의 출력 시작 시점 (T)를 알 수 있다.
상기 송신 장치 (410)는 영상 데이터의 출력 시작 시점 (T), 또는 영상 데이터의 출력 시작 시점 (T)과 음성 데이터의 출력 시작 시점 (T')간에 동기화를 위한 최소 출력 시작 시간을 보장하기 위한 최소 보장 시간 (M1) 또는 최대 보장 시간 (M2)을 적어도 하나 선택하여 전송할 음성 데이터의 전송 자원의 할당 시간 (t2)을 기반으로 동기를 맞추기 위한 시간 마진값 (Tm)을 알 수 있다. 그리고 상기 송신 장치 (410)는 영상 데이터의 출력 시작 시점 (T)과 전송 자원의 할당 시간 (t2)를 이용하여 수신 장치(430)로 동기화가 필요한 음성 데이터를 전송 할지에 대한 여부를 결정 할 수 있다.
상기 수신 장치 (430)는 송신 장치 (410)로부터 수신부로 음성 데이터가 수신되는 시간을 t3로 정의하고, 수신된 음성 데이터가 수신 장치 (430)의 어플리케이션으로 전달되어 출력을 시작하기 전까지의 시간을 t4로 정의한다.
상기 수신 장치 (430)는 어플리케이션에서 동기화가 필요한 음성 데이터의 출력을 시작하기 전까지의 시간 (t4)과 수신부에 음성 데이터가 수신되는 시간 (t3)를 이용하여, 수신 장치 (430)의 출력 지연 시간 (Td_rx)를 확인할 수 있다. 그리고 수신 장치 (430)는 수신 장치 (430)의 출력 지연 시간 (Td_rx) 또는 송신 장치 (410)의 마진 값 (Tm)을 이용하여 동기화가 필요한 음성 데이터에 대한 출력 여부를 결정 할 수 있다.
이하에서는, 도 19 및 도 20을 기반으로, 본 개시의 실시 예에 따른 송신 장치 및 수신 장치에서 데이터를 동기화하여 출력하는 방법에 대하여 설명하기로 한다.
도 19는 본 개시의 실시 예에 따른 송신 장치 및 수신 장치에서 데이터를 출력하는 방법의 일 예를 보이고 있다. 도 19의 실시 예는 송신 장치 (410)가 영상 데이터를 재생하기 이전에, 동기화가 필요한 음성 데이터를 수신 장치 (430)로 미리 전송하여 동기화를 수행하는 방법에 관한 것이다.
도 19를 참조하면, 송신 장치 (410)는 영상 데이터 및 음성 데이터를 재생하기 위한 동영상 파일 (즉, 동영상 컨테이너 데이터)을 포함하고 있는 경우, 상기 동영상 파일을 영상 데이터와 음성 데이터로 분리한다 (1901). 여기서, 일 예로, 상기 동영상 파일이 오디오 비디오 인터리브 (audio video interleaved : AVI)일 경우, AVI의 데이터는 영상 데이터와 음성 데이터의 분리 과정을 통하여 영상 데이터는 비디오 x264 가 될 수 있고, 음성 데이터는 오디오 디지털 극장 시스템 (digital theater systems : DTS)가 될 수 있다.
송신 장치 (410)는 상기 분리된 영상 데이터와 음성 데이터를 각각 관리한다 (1903, 1905). 그리고 송신 장치 (410)는 상기 분리된 영상 데이터의 출력 시작 시점을 지연이 가능한 시간만큼 지연하여 영상 데이터를 출력할 수 있다 (1913).그리고 송신 장치 (410)는 상기 음성 데이터를 전송하기 위하여 송신 프로세싱 및 데이터 스케쥴링을 수행한다 (1907, 1909). 여기서, 상기 송신 프로세싱 및 데이터 스케쥴링 동작은 상기 도 5 내지 도 16을 기반으로 설명한 탐색 동작 및 자원 할당 동작에 해당하는 것으로 그 상세한 설명은 생략하기로 한다.
상기 송신 프로세싱 및 스케줄링 요청의 수행이 완료되면, 상기 송신 장치 (410)는 상기 분리된 음성 데이터가 포함된 메시지를 수신 장치 (430)로 전송한다 (1911). 이때, 상기 송신 장치 (410)는 상기 영상 데이터가 출력되는 출력 시작 시점 (T) 및 영상 출력 마진 시간 (Δt) 중 적어도 하나를 상기 메시지에 포함시켜 수신 장치 (430)로 전송할 수 있다. 여기서, 상기 영상 출력 마진 시간 (Δt)은 상기 메시지가 전송되는 시점부터 상기 영상 데이터가 출력되는 출력 시작 시점까지의 영상 데이터의 출력에 대한 마진 시간을 의미한다.
그리고 영상 데이터의 출력 지연 시 지연이 가능한 시간은 최소한 송신 장치에서의 송신 프로세싱(1907) 또는 데이터 스케줄링(1909) 중 적어도 하나를 고려하여 결정 할 수 있다. 예를 들어 영상 데이터의 출력 지연 시, 지연이 가능한 시간은 송신 장치 (410)의 상기 송신 프로세싱 동작 및/또는 자원 할당 동작에 대한 시간 (예로, 이동 통신 시스템에서는 스케쥴링 시간 정보, WiFi의 경우는 Contention 시간, Bluetooth의 경우 페어링 시간 등) 또는 사전에 등록 되거나 수신 장치 (430)로부터 수신한 수신 장치 (430)의의 처리 시간 정보를 이용하여 영상 데이터의 출력 지연이 가능한 시간을 계산 할 수 있다.
상기 수신 장치 (430)는 송신 장치 (410)로부터 음성 데이터가 포함된 메시지를 수신하여, 메시지에 포함된 영상 데이터의 출력에 관련된 시간 정보 (영상 데이터의 출력 시작 시점 (T) 또는 영상 출력 마진 시간 (Δt))을 이용하여 음성 데이터의 출력 시작 시점 (T')을 계산한다 (1915). 그리고 상기 수신 장치 (430)는 상기 계산된 음성 데이터의 출력 시작 시점 (T')에, 상기 메시지에 포함된 음성 데이터를 출력할 수 있다 (1917). 이때, 상기 계산된 음성 데이터의 출력 시작 시점 (T')이 <수학식 1>의 범위 내에 포함되지 않은 경우, 상기 수신 장치 (430)는 상기 음성 데이터를 삭제할 수 있다.
도 20은 본 개시의 실시 예에 따른 송신 장치 및 수신 장치에서 데이터를 출력하는 방법의 다른 일 예를 보이고 있다. 도 20의 실시 예는 송신 장치 (410)가 영상 데이터를 전송함과 동시에 동기화가 필요한 음성 데이터를 전송하는 방법에 관한 것이다.
도 20을 참조하면, 송신 장치 (410)는 영상 데이터 및 음성 데이터를 재생하기 위한 동영상 파일을 가지고 있으면, 상기 동영상 파일을 영상 데이터와 음성 데이터로 분리한다 (2001).
송신 장치 (410)는 상기 분리된 영상 데이터와 음성 데이터를 각각 관리한다 (2003, 2005). 그리고 송신 장치 (410)는 상기 분리된 영상 데이터를 출력한다 (2007).
그리고 송신 장치 (410)는 상기 음성 데이터를 전송하기 위하여 송신 프로세싱 및 데이터 스케쥴링을 수행한다 (2009, 2011). 여기서, 상기 송신 프로세싱 및 데이터 스케쥴링 동작은 상기 도 5 내지 도 16을 기반으로 설명한 탐색 동작 및 자원 할당 동작에 해당하는 것으로 그 상세한 설명은 생략하기로 한다.
송신 장치 (410)는 분리된 영상 데이터로부터 송신 장치 (410)에서 영상 데이터의 출력 시작 시점 (T) 또는 영상 데이터의 출력 시작 시점 (T)까지 남은 상대 시간인 영상 출력 마진 시간 (Δt)를 확인한다. 상기 영상 출력 마진 시간 (Δt)은 송신 장치 (410)에서 동기화가 필요한 음성 데이터를 수신 장치 (430)로 전송한 시점부터 송신 장치 (410)에서 영상 데이터의 출력 시작 시점 (T)의 차이를 통해 계산 될 수 있다. 여기서, 상기 영상 데이터의 출력 시작 시점은 절대 시간의 시점임을 특징으로 한다.
송신 장치 (410)는 동기화가 필요한 음성 데이터를 전송할 수 있는 시점과 영상 출력 시작 시점 (T) 또는 영상 출력 마진 시간 (Δt)를 비교하여, 현재 시점이 영상 출력 시작 시점 (T) 또는 영상 출력 마진 시간 (Δt)을 경과한 경우, 상기 음성 데이터를 전송하지 않고 삭제할 수 있다 (2013).
만약, 상기 송신 장치 (410)는 현재 시점이 영상 출력 시작 (T) 또는 영상 재생 마진 시간 (Δt)을 경과하지 않은 경우, 상기 음성 데이터를 포함하는 메시지를 상기 수신 장치 (430)로 전송한다. 이때, 상기 메시지는 동기화가 필요한 음성 데이터와, 영상 출력 시작 시점 (T) 및 영상 재생 마진 시간 (Δt) 중 적어도 하나를 포함한다. 상기 수신 장치 (430)는 송신 장치 (410)로부터 메시지를 수신하여, 수신된 메시지에 포함된 영상 데이터의 출력 관련 시간 정보 (영상 출력 시작 시점 시점 (T) 또는 영상 출력 마진 시간 (Δt))을 이용하여 음성 데이터의 출력 시작 시점을 계산한다 (2017). 그리고 상기 수신 장치 (430)는 상기 계산된 음성 데이터의 출력 시작 시점에, 상기 메시지에 포함된 음성 데이터를 출력한다 (2019).
상기에서는 도 19 및 도 20을 기반으로 본 개시의 실시 예에 따른 송신 장치 (410) 및 수신 장치 (430)에서 데이터의 동기화를 수행하여 출력하는 방법들을 설명하였으며, 이하에서는 도 21 및 도 22를 기반으로 송신 장치 (410)와 수신 장치 (430) 간의 절대 시간이 맞지 않는 경우, 데이터의 동기화를 수행하는 방법에 대하여 설명하고, 도 23 및 도 24를 기반으로 송신 장치 (410)와 수신 장치 (430) 간의 절대 시간이 맞는 경우, 데이터의 동기화를 수행하는 방법에 대하여 설명하기로 한다.
도 21은 본 개시의 실시 예에 따른 송신 장치에서 송신 장치와 수신 장치 간의 절대 시간이 맞지 않는 경우의 음성 데이터를 전송하는 방법의 일 예를 보이고 있다.
도 21을 참조하면, 송신 장치 (410)는 영상 데이터의 출력을 시작하는 영상 출력 시작 시점 (T)을 확인한다 (2101). 그리고 송신 장치 (410)는 음성 데이터의 전송을 위한 무선 자원이 할당된 자원 할당 시점 (T2)을 확인한다 (2103). 상기 송신 장치 (410)는 송신 장치 (410)의 영상 출력 시작 시점 (T)이 음성 데이터의 전송을 위한 무선 자원이 할당된 자원 할당 시점 (T2)보다 빠른지를 확인한다 (2105). 만약 상기 영상 재생 시작 시점 (T)이 자원 할당 시점 (T2) 보다 빠른 경우 (예를 들어 영상 재생 시작 시점(T)가 자원 할당 시점 (T2)를 지난 경우), 상기 송신 장치 (410)는 음성 데이터를 삭제한다 (즉, 수신 장치 430)로 전송하지 않는다) (2107). 반면, 상기 영상 출력 시작 시점 (T)이 자원 할당 시점 (T2) 보다 느리거나 같은 경우, 상기 송신 장치 (410)는 영상 출력 시작 시점 (T)과 자원 할당 시점 (T2)의 차를 기반으로 송신 마진 시간 (Tm)을 계산한다 (2109).
이 후, 송신 장치 (410)는 해당 음성 데이터와 상기 계산된 송신 마진 시간을 포함하는 메시지를 상기 수신 장치 (430)로 전송한다 (2111).
도 22는 본 개시의 실시 예에 따른 수신 장치에서 송신 장치와 수신 장치 간의 절대 시간이 맞지 않는 경우의 음성 데이터를 출력하는 방법의 일 예를 보이고 있다.
도 22를 참조하면, 수신 장치 (430)는 송신 장치 (410)로부터 전송된 메시지를 수신하고 (2201), 상기 메시지가 수신된 메시지 수신 시점 (T3)을 기록한다 (2203). 그리고 수신 장치 (430)는 상기 수신된 메시지를 복호화하여, 어플리케이션에서 해당 음성 데이터의 출력이 시작될 시점 (T4)을 기록한다 (2205). 또한 상기 수신 장치 (430)는 상기 수신된 메시지에 포함된 송신 마진 시간 (Tm)을 확인한다 (2207).
이 후, 수신 장치 (430)는 송신 장치 (410)로부터 메시지를 수신한 메시지 수신 시점 (T3)과 어플리케이션에서 해당 음성 데이터가 출력될 출력 시작 시점 (T4)을 기반으로, 수신 처리 시간 (Td_rx)을 계산한다 (2209).
그리고 상기 수신 장치 (430)는 상기 수신 처리 시간 (Td_rx)이 출력 임계 시간 (Tth)보다 큰 지를 확인한다 (2211). 이때, 상기 송신 마진 시간 (Tm)이 최소 출력값 (M1)으로 생성된 경우 상기 출력 임계 시간 (Tth)은 송신 마진 시간 (Tm)과 최대 최소 출력값(M2)를 이용하여 결정 될 수 있다. 그리고 수신 처리 시간 (Td_rx)이 송신 마진 시간 (Tm)을 이용하여 보정 값을 통해 출력 시점을 조절 할 수도 있다. 또한 송신 마진 시간 (Tm)이 최대 출력 값 (M2)로 생성된 경우 송신 마진 시간 (Tm)은 상기 출력 임계 시간 (Tth)으로 결정될 수 있다.
만약, 상기 수신 처리 시간 (Td_rx)과 출력 임계 시간 (Tth) 보다 큰 경우, 상기 수신 장치 (430)는 해당 음성 데이터를 삭제한다 (즉, 출력하지 않는다) (2213). 반면, 수신 처리 시간 (Td_rx)과 출력 임계치 시간 (Tth) 보다 작거나 같은 경우, 어플리케이션에서 해당 음성 데이터가 재생될 시점 (T4)에 상기 음성 데이터를 출력한다 (2215).
도 23은 본 개시의 실시 예에 따른 송신 장치에서 송신 장치와 수신 장치 간의 절대 시간이 맞는 경우의 음성 데이터를 전송하는 방법의 다른 예를 보이고 있다.
도 23을 참조하면, 상기 송신 장치 (410)는 는 영상 데이터의 출력을 시작하는 영상 출력 시작 시점 (T)을 확인한다 (2301). 그리고 송신 장치 (410)는 음성 데이터의 전송을 위한 무선 자원이 할당된 자원 할당 시점 (T2)을 확인한다 (2303).
상기 송신 장치 (410)는 송신 장치 (410)의 영상 출력 시작 시점 (T)이 음성 데이터의 전송을 위한 무선 자원이 할당된 자원 할당 시점 (T2)보다 빠른지를 확인한다 (2305). 만약 상기 영상 출력 시작 시점 (T)이 자원 할당 시점 (T2) 보다 빠른 경우 (예를 들어 영상 재생 시작 시점(T)가 자원 할당 시점 (T2)를 지난 경우), 상기 송신 장치 (410)는 음성 데이터를 삭제한다 (즉, 수신 장치 (430)로 전송하지 않는다) (2307). 반면, 상기 영상 출력 시작 시점 (T)이 자원 할당 시점 (T2) 보다 느리거나 같은 경우, 상기 송신 장치 (410)는 상기 영상 출력 시작 시점 (T)에 음성 데이터를 포함하는 메시지를 수신 장치 (430)로 전송한다 (2309).
도 24는 본 개시의 실시 예에 따른 수신 장치에서 송신 장치와 수신 장치 간의 절대 시간이 맞는 경우의 음성 데이터를 출력하는 방법의 다른 일 예를 보이고 있다.
도 24를 참조하면, 수신 장치 (430)는 송신 장치 (410)로부터 전송된 메시지를 수신하고 (2401), 수신된 메시지를 복호화하여 어플리케이션에서 해당 음성 데이터의 출력이 시작될 시점 (T4)을 기록한다 (2403). 그리고 상기 수신 장치 (430)는 수신된 메시지를 통해 송신 장치 (410)에서 재생되는 영상 데이터의 영상 출력 시작 시점 (T)을 확인한다 (2405).
그리고 상기 수신 장치 (430)는 송신 장치 (410)에서 영상 데이터가 재생되는 영상 재생 시작 시점 (T)와 수신 장치 (430)에서 어플리케이션에서 해당 음성 데이터가 재생될 시점 (T4)의 차이 값이 특정 임계값 (Tth) 보다 큰 지를 확인한다 (2407). 상기 특정 임계값 (Tth)은 수신 장치 (430)에 미리 설정되거나 서버로부터 수신할 수 있다.
만약 상기 영상 데이터가 출력되는 영상 출력 시작 시점 (T)와 수신 장치 (430)에서 어플리케이션에서 해당 음성 데이터가 출력될 시점 (T4)의 차이 값이 특정 임계값 (Tth) 보다 큰 경우, 상기 수신 장치 (430)는 음성 데이터를 출력하지 않고 삭제한다 (2409). 반면, 상기 영상 데이터가 출력되는 영상 출력 시작 시점 (T)와 수신 장치 (430)에서 어플리케이션에서 해당 음성 데이터가 출력될 시점 (T4)의 차이 값이 특정 임계값 (Tth) 보다 작거나 같은 경 경우, 상기 수신 장치 (430)는 어플리케이션에서 해당 음성 데이터가 출력될 시점 (T4)에 음성 데이터를 출력한다 (2411).
상기에서는 본 개시의 실시 예에 따른 송신 장치 (430) 및 수신 장치 (410)에서 영상 데이터 및 상기 영상 데이터와 동기화가 필요한 음성 데이터를 각각 출력하는 방법에 대하여 설명하였으며, 이하에서는 도 25 및 도 26을 기반으로 송신 장치 (430) 및 수신 장치 (410)에서 영상 데이터 및 상기 영상 데이터와 동기화가 필요한 음성 데이터를 각각 출력하기 위한 송신 장치 (430) 및 수신 장치 (410)의 내부 구조에 대하여 설명하기로 한다.
도 25는 본 개시의 실시 예에 따른 통신 시스템에서 데이터를 송신하는 송신 장치의 내부 구조의 일 예를 개략적으로 보이고 있다.
도 25를 참조하면, 송신 장치 (410)는 송신부 (2501), 수신부 (2503), 제어부 (2505), 입력부 (2507), 출력부 (2509) 및 저장부 (2511)를 포함한다.
먼저, 상기 제어부 (2505)는 상기 송신 장치 (410)의 전반적인 동작을 제어하며, 특히 본 발명의 일 실시 예에 따른 통신 시스템에서 수행되는 데이터를 송신하는 동작에 관련된 동작을 제어한다. 본 발명의 일 실시 예에 따른 통신 시스템에서 수행되는 데이터를 송신하는 동작에 관련된 동작에 대해서는 도 4 내지 도 24에서 설명한 바와 동일하므로 여기서는 그 상세한 설명을 생략하기로 한다.
상기 송신부 (2501)는 상기 제어부 (2505)의 제어에 따라 상기 통신 시스템에서 포함하는 다른 엔터티들, 일 예로 방송 장치, 무선 노드, 게이트웨이 및 서버 등과 같은 다른 엔터티들로 각종 신호 및 각종 메시지들을 송신한다. 여기서, 상기 송신부 (2501)가 송신하는 각종 신호 및 각종 메시지들은 도 4 내지 도 24에서 설명한 바와 동일하므로 여기서는 그 상세한 설명을 생략하기로 한다.
또한, 상기 수신부 (2503)는 상기 제어부 (2505)의 제어에 따라 상기 통신 시스템에서 포함하는 다른 엔터티들, 일 예로 방송 장치, 무선 노드, 게이트웨이 및 서버 등과 같은 다른 엔터티들로부터 각종 신호 및 각종 메시지들을 수신한다. 여기서, 상기 수신부 (2503)가 수신하는 각종 신호 및 각종 메시지들은 도 4 도 24에서 설명한 바와 동일하므로 여기서는 그 상세한 설명을 생략하기로 한다.
상기 저장부 (2511)은 상기 제어부 (2505)의 제어에 따라 본 발명의 일 실시 예에 따른 통신 시스템에서 수행되는 데이터를 송신하는 동작에 관련된 동작에 관련된 프로그램과 데이터 등을 저장한다. 또한, 상기 저장부 (2511)는 상기 수신부 (2503)가 상기 다른 엔터티들로부터 수신한 각종 신호 및 각종 메시지들을 저장한다.
상기 입력부 (2507) 및 출력부 (2509)은 상기 제어부 (2505)의 제어에 따라 상기 송신 장치 (410)가 수행하는 본 발명의 일 실시 예에 따른 통신 시스템에서 수행되는 데이터를 송신하는 동작에 관련된 동작에 관련된 각종 신호 및 각종 메시지들을 입력 및 출력한다. 그리고 상기 출력부 (2509)는 영상 데이터를 출력하는 영상출력부를 포함한다.
한편, 도 25에는 송신부 (2501), 수신부 (2503), 제어부 (2505), 입력부 (2507), 출력부 (2509) 및 저장부 (2511)와 같이 별도의 유닛들로 구현된 경우가 도시되어 있으나, 상기 송신 장치 (410)는 송신부 (2501), 수신부 (2503), 제어부 (2505), 입력부 (2507), 출력부 (2509) 및 저장부 (2511) 중 적어도 두 개가 통합된 형태로 구현 가능함은 물론이다. 또한, 상기 송신 장치 (410)는 1개의 프로세서로 구현될 수도 있음은 물론이다.
도 26은 본 개시의 실시 예에 따른 통신 시스템에서 데이터를 수신하는 수신 장치의 내부 구조의 일 예를 개략적으로 보이고 있다.
도 26을 참조하면, 수신 장치 (430)는 송신부 (2601), 수신부 (2603), 제어부 (2605), 입력부 (2607), 출력부 (2609) 및 저장부 (2611)를 포함한다.
먼저, 상기 제어부 (2605)는 상기 수신 장치 (430)의 전반적인 동작을 제어하며, 특히 본 발명의 일 실시 예에 따른 통신 시스템에서 수행되는 데이터를 수신하는 동작에 관련된 동작을 제어한다. 본 발명의 일 실시 예에 따른 통신 시스템에서 수행되는 데이터를 수신하는 동작에 관련된 동작에 대해서는 도 4 내지 도 24에서 설명한 바와 동일하므로 여기서는 그 상세한 설명을 생략하기로 한다.
상기 송신부 (2601)는 상기 제어부 (2605)의 제어에 따라 상기 통신 시스템에서 포함하는 다른 엔터티들, 일 예로 방송 장치, 무선 노드, 게이트웨이 및 서버 등과 같은 다른 엔터티들로 각종 신호 및 각종 메시지들을 송신한다. 여기서, 상기 송신부 (2601)가 송신하는 각종 신호 및 각종 메시지들은 도 4 내지 도 24에서 설명한 바와 동일하므로 여기서는 그 상세한 설명을 생략하기로 한다.
또한, 상기 수신부 (2603)는 상기 제어부 (2605)의 제어에 따라 상기 통신 시스템에서 포함하는 다른 엔터티들, 일 예로 방송 장치, 무선 노드, 게이트웨이 및 서버 등과 같은 다른 엔터티들로부터 각종 신호 및 각종 메시지들을 수신한다. 여기서, 상기 수신부 (2603)가 수신하는 각종 신호 및 각종 메시지들은 도 4 내지 도 24에서 설명한 바와 동일하므로 여기서는 그 상세한 설명을 생략하기로 한다.
상기 저장부 (2611)은 상기 제어부 (2605)의 제어에 따라 본 발명의 일 실시 예에 따른 통신 시스템에서 수행되는 데이터를 수신하는 동작에 관련된 동작에 관련된 프로그램과 데이터 등을 저장한다. 또한, 상기 저장부 (2611)는 상기 수신부 (2603)가 상기 다른 엔터티들로부터 수신한 각종 신호 및 각종 메시지들을 저장한다.
상기 입력부 (2607) 및 출력부 (2609)은 상기 제어부 (2605)의 제어에 따라 상기 수신 장치 (430)가 수행하는 본 발명의 일 실시 예에 따른 통신 시스템에서 수행되는 데이터를 수신하는 동작에 관련된 동작에 관련된 각종 신호 및 각종 메시지들을 입력 및 출력한다. 그리고 상기 출력부 (2609)는 영상 데이터를 출력하는 영상 출력부 및 음성 데이터를 출력하는 음성 출력부 중 적어도 하나를 포함한다.
한편, 도 26에는 송신부 (2601), 수신부 (2603), 제어부 (2605), 입력부 (2607), 출력부 (2609) 및 저장부 (2611)와 같이 별도의 유닛들로 구현된 경우가 도시되어 있으나, 상기 수신 장치 (430)는 송신부 (2601), 수신부 (2603), 제어부 (2605), 입력부 (2607), 출력부 (2609) 및 저장부 (2611) 중 적어도 두 개가 통합된 형태로 구현 가능함은 물론이다. 또한, 상기 송신 장치 (410)는 1개의 프로세서로 구현될 수도 있음은 물론이다.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안되며 후술하는 특허 청구의 범위뿐만 아니라 이 특허 청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (15)

  1. 기기 간 통신 (device to device communication)을 지원하는 무선 통신 시스템에서 송신 장치가 데이터를 송신하는 방법에 있어서,
    하나의 동영상 컨테이너 데이터 (video container data)에서 영상 데이터 (video data) 및 상기 영상 데이터와 동시에 출력되는 영상 관련 데이터를 분리하는 과정과,
    상기 영상 데이터를 출력하는 과정과,
    상기 영상 관련 데이터 및 상기 영상 데이터를 출력하는 시점에 관련된 정보를 포함하는 메시지를 생성하여, 상기 생성된 메시지를 수신 장치로 전송하는 과정을 포함하는 데이터 송신 방법.
  2. 제 1 항에 있어서,
    상기 동영상 컨테이너 데이터에 관한 정보를 제공하기 위한 탐색 코드를 요청하는 탐색 코드 요청 메시지를 서버로 전송하는 과정과,
    상기 서버로부터 탐색 코드를 수신하는 과정과,
    상기 수신된 탐색 코드를 브로드캐스팅하는 과정을 더 포함하는 데이터 송신 방법.
  3. 제 2 항에 있어서,
    상기 탐색 코드 요청 메시지는 어플리케이션을 구분하는 어플리케이션 아이디, 상기 송신 장치를 구분하는 송신장치 아이디 및 상기 영상 관련 데이터를 구분하는 컨텐트 아이디 중 적어도 하나와, 상기 송신 장치의 무선 전송 계층에서 사용되는 소스 아이디 및 상기 송신 장치의 고유 아이디 중 적어도 하나를 포함함을 특징으로 하는 데이터 송신 방법.
  4. 제 3 항에 있어서,
    상기 영상 관련 데이터를 전송하기 위한 자원의 할당을 요청함을 나타내는 정보를 포함하는 자원 할당 요청 메시지를 기지국으로 전송하는 과정과,
    상기 기지국으로부터 할당된 자원에 관한 정보를 포함하는 자원 할당 응답 메시지를 수신하는 과정을 더 포함하고,
    상기 메시지를 상기 수신 장치로 전송하는 과정은,
    상기 기지국으로부터 할당된 자원에, 상기 생성된 메시지를 삽입하여 상기 수신 장치로 전송하는 과정임을 특징으로 하는 데이터 송신 방법.
  5. 제 1 항에 있어서, 상기 출력하는 과정은,
    상기 영상 데이터를 출력하는 시점을 결정하는 과정과,
    상기 결정된 시점에 상기 영상 데이터를 출력하는 과정을 포함함을 특징으로 하는 데이터 송신 방법.
  6. 제 1 항에 있어서, 상기 메시지를 상기 수신 장치로 전송하는 과정은,
    상기 영상 데이터를 출력하는 시점을 확인하는 과정과,
    상기 영상 관련 데이터의 전송을 위한 자원이 할당된 자원 할당 시점을 확인하는 과정과,
    상기 자원 할당 시점이 상기 영상 데이터를 출력하는 시점보다 느리거나 같은 경우, 상기 영상 관련 데이터를 삭제하는 과정과,
    상기 자원 할당 시점이 상기 영상 데이터를 출력하는 시점보다 빠른 경우, 상기 영상 데이터를 출력하는 시점과 상기 자원 할당 시점의 차이로부터 마진 시간을 계산하는 과정과,
    상기 영상 관련 데이터와 상기 마진 시간을 포함하는 상기 메시지를 상기 수신 장치로 전송하는 과정을 포함함을 특징으로 하는 데이터 송신 방법.
  7. 제 1 항에 있어서, 상기 메시지를 상기 수신 장치로 전송하는 과정은,
    상기 영상 데이터를 출력하는 시점을 확인하는 과정과,
    상기 영상 관련 데이터의 전송을 위한 자원이 할당된 자원 할당 시점을 확인하는 과정과,
    상기 자원 할당 시점이 상기 영상 데이터를 출력하는 시점보다 느리거나 같은 경우, 상기 영상 관련 데이터를 삭제하는 과정과,
    상기 자원 할당 시점이 상기 영상 데이터를 출력하는 시점보다 빠른 경우, 상기 영상 관련 데이터와 상기 영상 데이터를 출력하는 시점을 포함하는 상기 메시지를 상기 수신 장치로 전송하는 과정을 포함함을 특징으로 하는 데이터 송신 방법.
  8. 기기간 통신 (device to device communication)을 지원하는 무선 통신 시스템에서 수신 장치가 데이터를 수신하는 방법에 있어서,
    송신 장치로부터 하나의 동영상 컨테이너 데이터 (video container data)에서 영상 데이터와 분리된 상기 영상 데이터와 동시에 출력되는 영상 관련 데이터 및 상기 영상 데이터를 출력하는 시점에 관련된 정보를 포함하는 메시지를 수신하는 과정과,
    상기 영상 데이터를 출력하는 시점에 관련된 정보를 기반으로, 상기 영상 관련 데이터를 출력하는 과정을 포함하는 데이터 수신 방법.
  9. 제 8 항에 있어서,
    상기 송신 장치로부터 상기 동영상 컨테이너 데이터에 대한 정보를 제공하기 위한 탐색 코드를 수신하는 과정과,
    상기 탐색 코드를 서버로 전송하는 과정과,
    상기 서버로부터 상기 탐색 코드와 매핑된 탐색 코드 정보를 수신하는 과정을 더 포함함을 특징으로 하는 데이터 수신 방법.
  10. 제 8 항에 있어서, 상기 탐색 코드 정보는 어플리케이션을 구분하는 어플리케이션 아이디, 상기 송신 장치를 구분하는 송신장치 아이디 및 상기 영상 관련 데이터를 구분하는 컨텐트 아이디 중 적어도 하나와, 상기 송신 장치의 무선 전송 계층에서 사용되는 소스 아이디 및 상기 송신 장치의 고유 아이디 중 적어도 하나를 포함함을 특징으로 하는 데이터 수신 방법.
  11. 제 1항 또는 제 8 항에 있어서, 상기 영상 데이터를 출력하는 시점에 관련된 정보는,
    상기 영상 데이터를 출력하는 시점 및 상기 메시지가 전송된 시점으로부터 상기 영상 데이터를 출력하는 시점까지의 마진 시간 중 적어도 하나를 포함함을 특징으로 하는 데이터 수신 방법.
  12. 제 8 항에 있어서, 상기 영상 관련 데이터를 출력하는 과정은,
    상기 데이터를 수신한 제1 시점을 확인하는 과정과,
    어플리케이션에서 상기 영상 관련 데이터가 출력될 제2 시점을 확인하는 과정과,
    상기 메시지가 전송된 시점으로부터 상기 영상 데이터를 출력하는 시점까지의 마진 시간을 확인하는 과정과,
    상기 제2 시점과 상기 제1 시점 간의 차이를 기반으로 수신 처리 시간을 계산하는 과정과,
    상기 수신 처리 시간이 미리 정해진 임계 시간보다 큰 경우, 상기 영상 관련 데이터를 삭제하는 과정과,
    상기 수신 처리 시간이 상기 미리 정해진 임계 시간보다 작거나 같은 경우, 상기 영상 관련 데이터를 출력하는 과정을 포함하는 데이터 수신 방법.
  13. 제 8 항에 있어서, 상기 영상 관련 데이터를 출력하는 과정은,
    어플리케이션에서 상기 영상 관련 데이터가 출력될 제1 시점을 확인하는 과정과,
    상기 영상 데이터를 출력하는 제2 시점을 확인하는 과정과,
    상기 제1 시점과 상기 제2 시점 간의 차이 값이 미리 정해진 임계값보다 큰 경우, 상기 영상 관련 데이터를 삭제하는 과정과,
    상기 제1 시점과 상기 제2 시점 간의 차이 값이 미리 정해진 임계값보다 작거나 같은 경우, 상기 영상 관련 데이터를 출력하는 과정을 포함함을 특징으로 하는 데이터 수신 방법.
  14. 제 8 항에 있어서, 상기 영상 관련 데이터는,
    음성 데이터, 텍스트 데이터 및 영상 데이터 중 적어도 하나를 포함함을 특징으로 하는 데이터 수신 방법.
  15. 제1항 내지 제14항 중 어느 하나의 항의 방법을 수행하도록 구성된 장치.
PCT/KR2016/003654 2015-04-08 2016-04-07 무선 통신 시스템에서 데이터를 송수신하는 방법 및 장치 WO2016163777A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16776880.3A EP3282652B1 (en) 2015-04-08 2016-04-07 Method and apparatus for transmitting and receiving data in wireless communication system
US15/563,765 US20180098180A1 (en) 2015-04-08 2016-04-07 Method and apparatus for transmitting and receiving data in wireless communication system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN398KO2015 2015-04-08
IN398/KOL/2015 2015-04-08

Publications (1)

Publication Number Publication Date
WO2016163777A1 true WO2016163777A1 (ko) 2016-10-13

Family

ID=57071946

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/003654 WO2016163777A1 (ko) 2015-04-08 2016-04-07 무선 통신 시스템에서 데이터를 송수신하는 방법 및 장치

Country Status (4)

Country Link
US (1) US20180098180A1 (ko)
EP (1) EP3282652B1 (ko)
KR (1) KR102498351B1 (ko)
WO (1) WO2016163777A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021006710A1 (ko) * 2019-07-10 2021-01-14 엘지전자 주식회사 무선 통신 시스템에서 근거리 무선 통신을 이용한 오디오 데이터 전송 방법 및 이에 대한 장치
WO2021054769A1 (ko) * 2019-09-18 2021-03-25 엘지전자 주식회사 무선 통신 시스템에서 근거리 무선 통신을 이용한 오디오 데이터 전송 방법 및 이에 대한 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005210491A (ja) * 2004-01-23 2005-08-04 Victor Co Of Japan Ltd コンテンツ送信装置及びコンテンツ再生装置
KR20100060717A (ko) * 2008-11-28 2010-06-07 엘지전자 주식회사 영상/음성 출력 동기화 방법 및 그를 이용한 디스플레이 장치
KR20110002997A (ko) * 2009-07-03 2011-01-11 삼성전기주식회사 로드 쉐어링 장치 및 이를 구비한 병렬 전원 공급 장치
US20120019633A1 (en) * 2010-07-26 2012-01-26 Echostar Technologies L.L.C. Method and apparatus for automatic synchronization of audio and video signals
US20140211696A1 (en) * 2011-09-30 2014-07-31 Huawei Technologies Co., Ltd. Content Publishing Method and User Equipment

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6539415B1 (en) * 1997-09-24 2003-03-25 Sony Corporation Method and apparatus for the allocation of audio/video tasks in a network system
CN100397902C (zh) * 2002-05-30 2008-06-25 皇家飞利浦电子股份有限公司 处理媒体信号的方法和系统
WO2006006714A1 (ja) * 2004-07-14 2006-01-19 Seiko Epson Corporation 映像再生同期信号生成方法、映像再生同期信号生成プログラム、タイミング制御装置、映像音声同期再生方法、映像音声同期再生プログラム及び映像音声同期再生装置
JP2007207328A (ja) * 2006-01-31 2007-08-16 Toshiba Corp 情報記憶媒体、プログラム、情報再生方法、情報再生装置、データ転送方法、及びデータ処理方法
WO2008072763A1 (ja) * 2006-12-15 2008-06-19 Panasonic Corporation 無線通信装置
US8165055B2 (en) * 2008-06-30 2012-04-24 University-Industry Cooperation Foundation Of Korea Aerospace University Apparatus and method for transmitting and receiving time stamp to provide multicast service in communication system
JP5560282B2 (ja) * 2009-10-22 2014-07-23 パナソニック株式会社 無線伝送方法、無線伝送装置、無線伝送システム、プログラム、及び集積回路
US8843226B2 (en) * 2012-03-05 2014-09-23 Lg Electronics Inc. Electronic device and method of controlling the same
US9398344B2 (en) * 2012-06-08 2016-07-19 Lg Electronics Inc. Image display apparatus, mobile terminal and method for operating the same
RU2015111194A (ru) 2012-08-28 2016-10-20 Конинклейке Филипс Н.В. Устройство пересылки звука и соответствующий способ
KR101538755B1 (ko) * 2013-09-23 2015-07-24 (주)파워보이스 외부 디바이스의 동작 제어 및 디바이스 간 컨텐츠 동기화를 위한 음파를 출력하는 디바이스 및 방법, 그리고 외부 디바이스
EP2922303A1 (en) * 2014-03-04 2015-09-23 LG Electronics Inc. Display device for managing a plurality of time source data and method for controlling the same
US10153914B2 (en) * 2014-06-08 2018-12-11 Lg Electronics Inc. Method and apparatus for indicating usage of MBSFN area in wireless communication system
WO2016053066A1 (ko) * 2014-10-03 2016-04-07 엘지전자(주) 무선 통신 시스템에서 셀 단위 보고를 위한 방법 및 이를 위한 장치
ES2747642T3 (es) * 2014-10-20 2020-03-11 Guangdong Oppo Mobile Telecommunications Corp Ltd Sistema y método para ajustar los parámetros de transmisión de datos de contenido de multidifusión

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005210491A (ja) * 2004-01-23 2005-08-04 Victor Co Of Japan Ltd コンテンツ送信装置及びコンテンツ再生装置
KR20100060717A (ko) * 2008-11-28 2010-06-07 엘지전자 주식회사 영상/음성 출력 동기화 방법 및 그를 이용한 디스플레이 장치
KR20110002997A (ko) * 2009-07-03 2011-01-11 삼성전기주식회사 로드 쉐어링 장치 및 이를 구비한 병렬 전원 공급 장치
US20120019633A1 (en) * 2010-07-26 2012-01-26 Echostar Technologies L.L.C. Method and apparatus for automatic synchronization of audio and video signals
US20140211696A1 (en) * 2011-09-30 2014-07-31 Huawei Technologies Co., Ltd. Content Publishing Method and User Equipment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3282652A4 *

Also Published As

Publication number Publication date
EP3282652A4 (en) 2018-02-28
EP3282652B1 (en) 2019-11-27
KR102498351B1 (ko) 2023-02-10
EP3282652A1 (en) 2018-02-14
US20180098180A1 (en) 2018-04-05
KR20160120677A (ko) 2016-10-18

Similar Documents

Publication Publication Date Title
WO2016159728A1 (ko) D2d 통신 시스템에서 우선 순위를 처리하는 방법 및 장치
WO2020226360A1 (en) Apparatus and method for supporting burst arrival time reference clock based on time-sensitive communication assistance information in wireless communication network
WO2016208960A1 (en) Method and apparatus for subscribing electronic device in mobile communication system
WO2017043838A1 (en) Method and apparatus for transmitting and receiving data in communication system
WO2010143875A2 (en) Method of exchanging messages and source devices
WO2022035177A1 (en) Method and device for providing local mbs in wireless communication system
WO2016003248A1 (en) Apparatus and method for providing a service connection through access layer in wireless communication system
EP3409048A1 (en) Apparatus and method for signaling system information
WO2010143804A1 (en) Method and device for transmitting and receiving data in wireless network
WO2021015484A1 (ko) 무선 통신 시스템에서 적응적인 오디오 처리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2016163747A1 (en) Apparatus and method for transmitting and receiving device to device discovery message in wireless communication system supporting device to device scheme
WO2011145857A2 (ko) 단말간 직접 연결 통신 및 단말 릴레이를 위한 단말간 직접 데이터 송수신 방법
WO2020213959A1 (ko) 블루투스 기술을 이용하여 오디오 데이터를 수신하기 위한 방법 및 이에 대한 장치
WO2020076110A1 (en) Electronic device for determining p2p operating channel and method thereof
WO2021141296A1 (ko) 이동통신 시스템에서 시간 민감 네트워킹 동기화 정보 전달 방법 및 장치
WO2021040457A1 (ko) 무선 통신 시스템에서 오디오 처리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2017082638A1 (en) Apparatus and method for measuring positions of devices
WO2016153264A1 (ko) 무선 통신 시스템에서 메시지를 송수신하는 방법 및 장치
WO2020013593A1 (ko) 전자 장치 및 이의 제어 방법
WO2019245339A1 (ko) 이동 통신 시스템에서 기지국 노드 간 패킷 복제 동작 동기화 방법 및 장치
WO2016111502A1 (en) System and method for transmitting information about task to external device
WO2016163777A1 (ko) 무선 통신 시스템에서 데이터를 송수신하는 방법 및 장치
WO2020246767A1 (ko) 무선 통신 시스템에서 오디오 데이터를 제어하는 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2021091241A1 (ko) 무선 통신 시스템에서 암호화 키 설정 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2015046925A1 (ko) 전자장치들간 무선 통신을 위한 동기화 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16776880

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15563765

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE