WO2011052960A2 - Real-time data transmission control system and control method thereof - Google Patents
Real-time data transmission control system and control method thereof Download PDFInfo
- Publication number
- WO2011052960A2 WO2011052960A2 PCT/KR2010/007361 KR2010007361W WO2011052960A2 WO 2011052960 A2 WO2011052960 A2 WO 2011052960A2 KR 2010007361 W KR2010007361 W KR 2010007361W WO 2011052960 A2 WO2011052960 A2 WO 2011052960A2
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- video signal
- control
- terminal
- encoded
- communication
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/24—Traffic characterised by specific attributes, e.g. priority or QoS
- H04L47/2416—Real-time traffic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/0231—Traffic management, e.g. flow control or congestion control based on communication conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/38—Flow control; Congestion control by adapting coding or compression rate
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/0278—Traffic management, e.g. flow control or congestion control using buffer status reports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/06—Optimizing the usage of the radio link, e.g. header compression, information sizing, discarding information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/10—Flow control between communication endpoints
- H04W28/14—Flow control between communication endpoints using intermediate storage
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/16—Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
- H04W28/18—Negotiating wireless communication parameters
- H04W28/22—Negotiating communication rate
Definitions
- the present invention relates to a real-time data transmission control system and a control method thereof, and more particularly, to a system and a control method for controlling the data size per second of a multimedia stream transmitted according to the state of a variable communication network.
- the multimedia stream is a form of data capable of reproducing video and / or audio in real time.
- An object of the present invention is to control the size of data to be transmitted so that data can be transmitted without delay in the case of transmitting data in real time under a communication environment of a variable communication network.
- An object of the present invention is to ensure the quality of data to be transmitted even if the size of the data is small.
- Another object of the present invention is to allow the user to remotely control the data transmission of the terminal.
- the terminal of the present invention the interface unit for receiving a video signal from an external image acquisition device; An encoding unit encoding the received video signal based on a plurality of encoding parameters; A communication unit for transmitting the encoded video signal to an external device through a communication network; And confirming a communication environment of the communication network and performing at least one of a first control operation and a second control operation so that the data size of the encoded and transmitted video signal is adjusted in real time according to the identified communication environment. And a control unit, wherein the first control operation controls the encoding unit by controlling at least one of the plurality of encoding parameters, and the second control operation includes only some of the frames constituting the encoded video signal. And controlling the communication unit by controlling the number of frames constituting the encoded and transmitted video signal to be transmitted to the external device.
- the video signal receiving apparatus of the present invention comprises: a communication unit for receiving the encoded video signal from a terminal for encoding a video signal based on a plurality of encoding parameters through a communication network; And identifying at least one control signal of the first control signal and the second control signal so that the data size of the encoded and transmitted video signal is adjusted from the terminal according to the identified communication environment. And a controller for generating and transmitting the generated at least one control signal to the terminal through the communication unit, wherein the first control signal controls at least one of the plurality of encoding parameters, and the second control signal.
- the control signal may be configured to control the number of frames constituting the encoded and transmitted video signal such that the terminal transmits only some of the frames constituting the encoded and transmitted video signal.
- the video signal communication system of the present invention includes a video signal communication system, the communication system including a terminal and a video signal receiving device, wherein the terminal receives a video signal from an external video acquisition device.
- An encoding unit encoding the received video signal based on a plurality of encoding parameters;
- a first communication unit which transmits the encoded video signal to the video signal receiving apparatus through a communication network; And confirming a communication environment of the communication network and performing at least one of a first control operation and a second control operation so that the data size of the encoded and transmitted video signal is adjusted in real time according to the confirmed communication environment.
- the video signal receiving apparatus comprises: a second communication unit receiving the encoded and transmitted video signal from the first communication unit; And a second control unit, wherein the first control operation controls the encoding unit by controlling at least one of the plurality of encoding parameters, and the second control operation comprises: a frame constituting the encoded video signal.
- the first communication unit is controlled by controlling the number of frames constituting the encoded and transmitted video signal such that only a part of them is transmitted to the video signal receiving apparatus.
- the present invention provides the effect that data can be transmitted without delay even when the communication environment of the communication network is deteriorated.
- the present invention provides an effect of protecting the image quality even if the size of the transmitted data is reduced.
- the present invention provides the effect that the user can remotely set the quality of the transmitted data.
- FIG. 1 illustrates a system associated with one embodiment of the present invention.
- FIG. 2 illustrates a system associated with one embodiment of the present invention.
- FIG. 3 is a diagram illustrating a terminal and a connection device of the present invention.
- 4 and 5 are side views illustrating the terminal of the present invention.
- FIG. 6 is a block diagram of a terminal related to an embodiment of the present invention.
- FIG. 7 is a block diagram of a server related to an embodiment of the present invention.
- FIG. 8 is a block diagram illustrating a user terminal associated with one embodiment of the present invention.
- FIG. 9 is a flowchart illustrating a video signal transmission method according to an embodiment of the present invention.
- FIG. 10 is a flowchart illustrating a video signal transmission control method according to an embodiment of the present invention.
- FIG. 11 is a flowchart illustrating a video signal transmission control method according to another embodiment of the present invention.
- FIG. 12 is a view for explaining a video signal transmission control method of the present invention.
- FIG. 13 is a view for explaining a video signal transmission control method of the present invention.
- FIG. 1 illustrates a system associated with one embodiment of the present invention.
- the live broadcasting system 1 may include an image acquisition device 10, a terminal 100, a server 200, and a user terminal 300.
- the image acquisition device 10 may include a device used to acquire a general video such as a camcorder and a camera.
- the image acquisition apparatus 10 may not only acquire a video, but also obtain audio information.
- the server 200 may be configured as a general server capable of receiving, storing, and transmitting data.
- the data may include both video and audio signals.
- the image acquisition apparatus 10 and the server 100 are connected by a communication network.
- the network is, for example, Ethernet or WIMAX (provided by IEEE 802.16), WIBRO (provided by IEEE 802.16e) (also referred to as 'mobile WIMAX'), WIFI (provided by IEEE 802.11), and high-speed packets that extend WCDMA. It may be connected to a wired or wireless communication network including communication standards HSDPA, EVDO rev.A, and HSUPA (High Speed Uplink Packet Access).
- HSDPA High Speed Uplink Packet Access
- the server 200 and the user terminal may be connected to the communication network described above.
- the user terminal 300 may receive, store, transmit and play data from the server 200. In addition, the user terminal 300 may receive data directly from the terminal 100, not from the server 200.
- the user terminal 300 may include, for example, a PC, a PDA, a mobile phone, a PMP, a navigation device, a TV, a DTV, a broadcast station, and an IPTV.
- the user terminal 300 may be connected to another user terminal 300.
- Each configuration of the live broadcast system 1 may be connected as follows.
- the image acquisition apparatus 10 may obtain an image and / or an audio signal and transmit the image and / or audio signal to the terminal 100.
- the terminal 100 may encode video and audio signals.
- the terminal 100 may transmit the encoded video and / or audio signal to the server 200 through a communication network.
- the server 200 may generate a control signal for controlling the operation of the terminal 100 as necessary.
- the server 200 may transmit the transmitted video and / or audio signal to the user terminal 300 through a communication network.
- the server 200 may store the transmitted video and / or audio signal.
- the terminal 100, the server 200, and the user terminal 300 may include a modem for data communication through the communication network.
- the modem may be built in the terminal 100, the server 200, and the user terminal 300, or may be connected by a connection terminal provided in each terminal.
- the user terminal 300 may decode and play the transmitted video and / or audio signal.
- a control signal for controlling the operation of the terminal 100 may be generated as necessary.
- the control signal generated by the user terminal 300 may be transmitted by the server 200 to the corresponding terminal 100, and may be transmitted directly from the user terminal 300 to the terminal 100.
- FIG. 2 illustrates a system associated with one embodiment of the present invention.
- the live broadcasting system 1 may include a plurality of image acquisition apparatuses 1, a terminal 100, a server 200, and a user terminal 300, respectively. Since the plurality of image acquisition apparatuses 1 and the terminal 100 are included, a plurality of live broadcasts may be simultaneously provided to the server 200. By providing a plurality of the server 200, it is possible to distribute the reception, storage, and transmission functions.
- FIGS. 1 and 2 are not essential, such that a multimedia transmission system having more or fewer components may be implemented.
- FIG. 3 is a diagram illustrating a terminal and a connection device of the present invention.
- various external devices may be connected to the terminal 100.
- the image acquisition device 10 the Internet, a modem, a laptop and an external battery may be connected.
- FIGS. 4 and 5 are side views illustrating a terminal 100 according to an embodiment of the present invention.
- a display unit 104, an interface unit 130, and an input unit 170 that can be connected to the terminal 100 are illustrated.
- the display unit 104 displays various information about the terminal 100.
- the interface unit 130 has a USB port 102, a charging adapter connection unit 110, an SD card connection unit 118, an Internet connection unit 120, an A / V input unit 112, and an A / V output unit 114. May be included.
- the USB port 102 supports a connection to an external device through a USB interface. For example, it is used to connect WiFi modem, WIBRO modem, GPS device.
- the charging adapter connection unit 110 is an example of the power supply unit 160.
- the charging adapter connection unit 110 is connected to the charging adapter to supply power to the terminal 100.
- the SD card connection unit 118 is a slot to which an external SD memory can be connected.
- Internet connection 120 is a slot to connect the RJ45 Ethernet cable.
- the AV input unit 112 is a terminal for connecting an AV (audio / video) input cable
- the AV output unit 114 is a terminal for connecting an AV output cable.
- the input unit 170 provides a function for setting the terminal 100 and includes a key input unit.
- the key input unit includes a reset unit 106 for turning the terminal 100 off and on, and a switch 108 as a button for controlling the terminal 100.
- the switch 108 may be configured, for example, of a wheel type.
- FIG. 6 is a block diagram of a terminal 100 according to an embodiment of the present invention.
- the terminal 100 may include a display unit 104, an interface unit 130, an encoding unit 140, a communication unit 150, a power supply unit 160, an input unit 170, and a controller 190.
- the display unit 104 may display various types of information related to the operation of the terminal. For example, the display unit 104 may determine the parameters such as the bit rate, the number of frames per second, the resolution, the length of the image set and other terminal states, whether to compress audio, the audio bit rate, the sample rate, and the network connection state. Can be represented.
- the interface unit 130 receives a video signal consisting of one or both of video and audio from the image acquisition apparatus 10 through the S-Video and RCA terminals, the NTSC (National Television System (s) Committee) method and the PAL ( Phase-Alternating Line, Phase Alternation by Line, or Phase Alternation Line). There are many other ways to support it.
- NTSC National Television System (s) Committee
- PAL Phase-Alternating Line, Phase Alternation by Line, or Phase Alternation Line.
- Audio is received via the RCA jack, with analog (stereo) audio using two RCAs and analog (mono) audio using one RCA.
- an additional optical cable may be used.
- the video may be received by a composite method of receiving an image signal with one RCA strand, a component method consisting of three RCA strands, and S-Video, HDMI, component, SDI, etc., which are called S terminals or S-VHS.
- the encoder 140 converts the analog data received from the image acquisition apparatus 10 into a digital signal and compresses the converted digital data.
- an image may use an H.264 (Advanced Video Coding) codec
- voice may be compressed using an AAC (Advanced Audio Coding) codec.
- H.264 Advanced Video Coding
- AAC Advanced Audio Coding
- Parameters used when encoding may include a bitrate associated with an image, a frame per second (fps), a resolution, and a length of a group of picture (GOP). It may also include sample rates, bitrates, and channels associated with speech. The parameters are examples only and other parameter values may be added.
- the bit rate may be defined as the number of bits processed for each specific time unit (seconds).
- the number of frames per second may be defined as the number of screens displayed for one second.
- the resolution may be defined as the number of pixels used to represent one frame, which is usually expressed in the form of multiplying the number of pixels by the number of pixels by the number of pixels by the width.
- the length of the image set may be expressed as an interval between an I frame and an I frame, which is an anchor frame.
- the parameters may be set in advance, by the controller 190 of the terminal 100 according to the environment of the communication network, or by remote control in the server 200 or the user terminal 300.
- the communicator 150 may include a memory 152, a wired communication module 154, and a wireless communication module 156.
- the memory 152 may be, for example, a buffer in which encoded data is temporarily stored before being transmitted to the server 200.
- the memory 152 is not limited to being located in the communication unit 150.
- the memory 152 may constitute the terminal as an independent component of the communication unit 150.
- the wired communication module 154 and the wireless communication module 156 may have a function of transmitting encoded data to the outside of the terminal 100 and receiving a signal from the outside.
- the encoded data is a Real Time Streaming Protocol (RTSP, RFC 2326) and a Real-time Transport Protocol (RTP) or Real Time Messaging protocol. Protocol (RTMP), and to the server 200 via its own protocol.
- RTSP Real Time Streaming Protocol
- RTP Real-time Transport Protocol
- RTMP Real Time Messaging protocol. Protocol
- the power supply unit 160 supplies power to the terminal 100.
- the terminal 100 may itself have a built-in battery.
- the input unit 170 may make settings related to the parameters and the other terminal 100.
- the controller 190 described below through the input setting value may generate a control operation for controlling each component.
- the controller 190 includes all components including the interface unit 130, the encoding unit 140, the communication unit 150, the display unit 104, the power supply unit 160, and the input unit 170 of the terminal 100. And control the overall operation.
- the encoding unit 140 and the communication unit 150 may be controlled according to the communication environment of the communication network.
- FIG. 7 is a block diagram of a server 200 related to an embodiment of the present invention.
- the server 200 may include a communication unit 210, a control unit 250, and a storage unit 260.
- the communication unit 210 may include a wired communication module 212 and a wireless communication module 214.
- the communication unit 210 performs a reception and transmission function. That is, based on a plurality of parameters, encoded data is received from the terminal 100.
- the communication unit 210 may transmit a control signal to the terminal 100 and may transmit the multimedia stream to the user terminal 300.
- the multimedia stream here refers to encoded video and / or audio signals.
- the controller 250 may control all components of the server 200 and may control a control signal to be transmitted to the terminal 100. In this case, accessing the terminal 100 may be performed anywhere if a public IP is assigned. However, it may be convenient to connect through a virtual private network (VPN) because the private IP is required in an environment such as EVDO or WIFI.
- VPN virtual private network
- the controller 250 may also convert the received data into various protocols.
- the received data may be converted into RTSP and RTP protocols for an IPTV service, and converted into RTSP and HTTP protocols for a mobile service and transmitted to the user terminal 300 through the communication unit 210.
- the storage unit 260 may store the multimedia stream transmitted from the terminal 100 in the form of a media file.
- the stored multimedia stream can be directly played online through a VOD server without a separate format conversion.
- the played multimedia stream may be stored in a format that can be played in a general media player.
- the server 200 may further include an input unit 240 and an output unit 230 to control the terminal 100 and / or the server 200.
- the components of the server 200 described above are not essential components in this case, may be omitted as necessary, and another component may be added.
- FIG. 8 is a block diagram illustrating a user terminal associated with one embodiment of the present invention.
- the user terminal 300 may include a communication unit 310, a decoding unit 320, an output unit 330, an input unit 340, a control unit 350, and a storage unit 360.
- the user terminal 300 may be connected to the server 200 through a communication network.
- the communication unit 310 may access the server 200 and receive a multimedia stream through the RTSP / RTP protocol.
- a control signal generated by the controller 350 may be transmitted to the terminal 100 through the server 200.
- the control unit 250 of the server 200 may perform a function of finding and transmitting a corresponding terminal 100.
- the decoder 320 may receive the multimedia stream from the communication unit 310, decode the received data through a codec filter, and convert the received data into data that can be processed by a renderer (not shown).
- the output unit 330 may include a playback unit.
- the playback unit may play the decoded multimedia stream video and audio through a renderer. At this time, the synchronization is performed so that the video and audio do not deviate so that a delay does not occur. Through this, the multimedia stream can be reproduced optimally even in a deteriorated communication network.
- the output unit 330 transmits the reproduced multimedia stream to the outside of the workstation through the DVI-D port, and the transmitted multimedia stream can be broadcasted through a scan converter (SD-SDI, HD-). SDI).
- SD-SDI scan converter
- the input unit 340 may control the user terminal 300 and generate a control signal necessary for controlling the terminal 100.
- the storage unit 360 may store the transmitted multimedia stream.
- the operating method of the live broadcasting system according to an embodiment of the present invention may be implemented in the live broadcasting system according to the embodiment of the present invention described above, or may be implemented by a system having a different configuration. However, for convenience of description, in describing the operation method, reference is made to the configuration shown in FIGS. 1 to 8.
- the video signal receiver or external device described below may include the server 200 and the user terminal 300.
- FIG. 9 is a flowchart illustrating a video signal transmission method according to an embodiment of the present invention.
- the interface unit 130 of the terminal 100 receives a video signal from the image acquisition apparatus 10 (S810), and the encoding unit 140 encodes the received video signal.
- the communication unit 150 transmits the converted multimedia stream to an external device.
- FIG. 10 is a flowchart illustrating a video signal transmission control method according to an embodiment of the present invention.
- the communication environment of the communication network between the terminal 100 and the external devices 200 and 300 is variable. Therefore, in order to transmit / receive a multimedia stream without interruption, it is necessary to control the data size per second according to the state of the communication network.
- the embodiment of FIG. 10 further includes a control method in the flowchart of FIG. 9.
- the communication environment of the communication network between the terminal 100 and the external devices 200 and 300 is checked (S910).
- the communication environment may be calculated by the data size of the multimedia stream waiting to be stored in the memory 152 of the terminal 100 or the signal strength of the communication network, and the calculated result may be monitored in real time.
- the multimedia stream is temporarily stored in the memory 152 according to the transmission state, and the goodness of the communication environment can be known through the data size of the stored multimedia stream or the empty memory 152.
- the signal strength may also be known through round trip time or Received Signal Strength Indication (RSSI).
- RSSI Received Signal Strength Indication
- the communication environment may be confirmed by the display unit 104 of the terminal and the output units 230 and 330 of the external devices 200 and 300.
- the next process is to set the parameters in real time (S920). This is to set the parameters to a predetermined value corresponding to the communication environment. That is, the bitrate, resolution, length of the image set, and frames per second optimized for each communication environment are prepared in advance.
- the bitrate and resolution may adjust the data size of the multimedia stream per second, and the length of the image set and the number of frames per second may provide a function for protecting image quality even if the data size per second is reduced.
- the controller 190 performs a first control operation for controlling the size of data required for playing the multimedia stream 1 second.
- the first control operation can be, for example, reducing or increasing the bit rate and resolution.
- the controller 190 may control the encoder 140 to set the parameter value.
- the controller 190 may control the encoding unit 140 to adjust the length of the image set and the number of frames per second. .
- the parameter values may be automatically generated by the controller 190 or directly input through the input unit 170.
- the bit rate can be set from 64kbps to 10000kbps and can be adjusted in 50kbps units, and resolution is divided into 320x240, 320x480, 352x240, 352x288, 352x480, 426x240, 480x320, 640x240, 640x480, 720x240, 720x480 It can be adjusted, the number of frames per second can be adjusted to 10 fps, 15 fps, 25 fps, 30 fps, for example, and the length of the image set can be set from 15 to 600, for example.
- Each of the parameters may be sequentially controlled according to various combination orders. For example, when the communication state deteriorates, the parameter values may be controlled in order of controlling the bit rate first and then controlling the resolution. Conversely, it is also possible to control the resolution first and then control the bit rate.
- the image signal received by the image acquisition apparatus 10 may be encoded by the changed parameter value (S930).
- the next process is to perform frame dropping (S940).
- Frame dropping is for responding to a worsened communication environment by not transmitting P frames or B frames of a multimedia stream waiting to be transmitted.
- B frames may be dropped first and P frames may be dropped.
- I frames can also be dropped.
- the drop order between B, P, and I frames is not limited to the above-described order, and may be based on another example.
- a concept of frame dropping will be described in detail with reference to FIG. 12.
- the length of the image set is 10
- frame dropping is performed, all P frames after the dropped P frame are dropped, thereby reducing the size of data required for playing the multimedia stream 1 second. Therefore, even if the communication state deteriorates, the multimedia stream can be transmitted without delay.
- the image quality may deteriorate when the data size is reduced by frame dropping, the length of the image set and the number of frames per second may be controlled to compensate for this.
- the controller 190 controls the communication unit 150 through a second control operation for performing frame dropping.
- the encoded multimedia stream may be transmitted to the external devices 200 and 300 (S950).
- the parameter setting step S920 and the frame dropping S940 may be selectively performed.
- the second control operation may be performed first, and the first control operation may be performed. Detailed description thereof will be described with reference to FIG. 13.
- FIG. 13 shows an example of parameter values and frame dropping set according to the confirmed communication state.
- the case in which the communication state is displayed as an image may be regarded as a case where the maximum data size is transmitted.
- the second control operation for dropping the frame is not necessary.
- the intermediate process may be omitted and the process may be immediately proceeded to the transmitting step (S950).
- the bit rate and the resolution of the parameter values may be lowered.
- a2 and b2 are smaller than a1 and b1, respectively.
- the length of the image set and the number of frames per second may be reduced from c1 and d1 to c2 and d2 without changing the bit rate and resolution. In this case, image quality may be improved.
- the above process describes a case in which the communication environment deteriorates downward from the top.
- the reverse process may be performed in real time to correspond to a changing communication environment.
- an audio signal may also be controlled at the time of encoding.
- channel control consisting of sample rate, bit rate, and stereo (STEREO) or mono (MONO) is possible.
- FIG. 11 is a flowchart illustrating a video signal transmission control method according to another embodiment of the present invention.
- the embodiment of FIG. 10 prepares a predetermined parameter value and a degree of frame dropping according to a communication environment
- the embodiment of FIG. 11 compares a parameter value and a frame in real time by comparing a data size per second of a multimedia stream transmitted with a communication environment in real time. The difference is that the degree of dropping varies.
- a step of calculating a transmission speed (S1020) and a step of comparing the transmission speed and the data size per second of the encoded video signal (S1030) are further performed. Including is different.
- the controller 190 checks the communication environment and calculates a transmission speed of the communication network (S1020).
- the controller 190 compares the calculated transmission rate with the data size per second of the encoded video signal (S1030).
- the data size per second of the encoded video signal refers to the size of data required to reproduce one second of the multimedia stream.
- control unit 190 is connected to the encoding unit 140 as follows.
- the communication unit 150 may be controlled.
- each parameter value setting and frame dropping may be performed separately, and may be superimposed according to the transmission speed of the communication network.
- control unit 190 may control the encoding unit 140 to increase the bit rate and resolution.
- the number of frames dropped by the communicator 150 may be reduced.
- the controller 190 controls the encoder 140 to maintain the set parameter value, and the controller 190 controls the communicator 150 to maintain the degree of dropping the frame. ) Can be controlled.
- FIG. 14 illustrates a terminal 100 and a server 200 that control the terminal 100 through the server 200.
- the communication unit 150 of the terminal transmits the encoded multimedia stream, the state information displayed on the display unit 104 of the terminal, and information on the terminal communication environment (S1310), and the communication unit 210 of the server receives it. (S1312).
- the next process is to determine the communication environment (S1314).
- the communication environment may be confirmed through information on the communication environment of the transmitted terminal.
- An IP address assigned to each terminal 100 may be input to the input unit 240 of the server to access information about a communication environment of the corresponding terminal 100.
- the user generates a first control signal and a second control signal through the input unit 240 of the server.
- the first control signal is a signal capable of controlling a plurality of parameter values used when encoding analog data received by the encoding unit 140 of the terminal.
- the second control signal is a signal capable of controlling frame dropping in the communication unit 150 of the terminal.
- the user may generate the control signal as described above to correspond to the case where the communication environment is deteriorated and the case where the communication environment is improved. Only the first control signal may be generated or only the second control signal may be generated.
- the generated control signal is transmitted to the communication unit 150 of the terminal through the communication unit 210 of the server (S1316).
- the controller 250 of the server controls the communication unit 210 of the server so that the first and / or second control signals can be transmitted to a corresponding terminal through an IP address among a plurality of terminals.
- the control unit 150 of the terminal controls the encoding unit 140 and the communication unit 150 based on the received control signal (S1318, S1320).
- the encoding unit 140 performs a first control operation of controlling a plurality of parameter values used in encoding based on the first control signal, and the communication unit 150 drops the number of dropped frames based on the second control signal. Perform a second control operation to control.
- Step S1310 to S1320 may be repeated in real time.
- FIG. 15 illustrates a terminal 100 and a user terminal 300 that control the terminal 100 through the user terminal 300.
- the difference from FIG. 14 is that the encoded video signal is transmitted from the terminal 100 directly to the user terminal 300. Therefore, although the subject was the server 200 in FIG. 14, in the embodiment of FIG. 15, the subject is changed to the user terminal 300, and each step for implementing remote control is the same. Hereinafter, the difference steps will be described.
- the encoded video signal and the terminal communication environment information are received through the communication unit 310 of the user terminal (S1332).
- the output unit 330 reproduces the received video signal (S1334). Therefore, the communication environment may be determined by reproducing the received communication environment information and the image signal. Other steps are the same as the embodiment described with reference to FIG.
- FIG. 16 illustrates a terminal 100, a server 200, and a user terminal 300, which controls the terminal 100 through the user terminal 300.
- the basic configuration is the same as the embodiment in FIG. 14 and FIG. 15.
- the encoded video signal and information on the terminal communication environment may be transmitted from the terminal 100 to the user terminal 300 through the server 200.
- the user terminal 300 may output the received video signal and generate a control signal based on information on the terminal communication environment.
- the generated control signal is transmitted to the server 200.
- the controller 250 of the server may transmit the received control signal to the terminal 100.
- the controller of the terminal 100 controls the encoding parameter value and the number of dropped frames based on the received control signal. Thereafter, the first step (S1350) can be repeated to perform in real time.
- FIG. 17 illustrates a terminal 100, a server 200, and a user terminal 300, which controls the terminal 100 through the server 200.
- the basic configuration is the same as the embodiment in FIG. 14, FIG. 15, and FIG.
- the video signal encoded from the terminal 100 and terminal communication environment information may be transmitted to the server 200.
- the received video signal may be transmitted to the user terminal 300.
- the server 200 may generate a control signal and transmit the control signal to the terminal 100.
- the controller 150 of the terminal may control the encoding parameter value and the number of dropped frames based on the received control signal. Thereafter, the first step (S1370) can be repeated again.
- 18, 19, and 20 illustrate a communication environment display unit and an input unit of a terminal.
- 18 to 20 are only examples of information that can be confirmed and expressed through the display unit 104 of the terminal, the output unit 230 of the server, and the output unit 330 of the user terminal.
- the above table expressed as video includes image selection whether to compress video, resolution expressed in frame size, frames per second expressed in frame rate, bit rate, length of picture set expressed in GOP size, and video timing. It can be seen that the information can be provided, and the user can directly set the above values.
- the following table, which consists of audio, provides information on voice signal compression selection, bit rate, channel, and sample rate, and can be configured by the user.
- information about a network such as a network search order, an IP address, and the like is provided.
- information about a terminal such as terminal ID information, a memory, a battery, and an operating system, is provided.
- FIGS. 18 to 20 are only examples, and any other information necessary for implementing an embodiment of the present invention may be added.
- a real-time data transmission control system and control method capable of transmitting the data without delay even when the communication environment of the communication network deteriorates. can be.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
The present invention relates to a real-time data transmission control system and a control method thereof, and more specifically, to a system and a control method for controlling the size of data per second in a multimedia stream transmitted according to the state of a varied communication network. The system comprises: an interface unit which receives an image signal from an external image acquisition device; an encoding unit which encodes the received image signal on the basis of a plurality of encoding parameters; a communication unit which transmits the encoded image signal to an external device through the communication network; and a controller which confirms the communication environment of the communication network, and performs at least one control operation among first and second control operations so that the data size of the transmitted image signal which has been encoded may be adjusted in real time according to the confirmed communication environment, wherein the first control operation controls the encoding unit by controlling at least one of the plurality of encoding parameters, and the second control operation controls the communication unit by controlling the number of frames that constitute the transmitted image signal which has been encoded, so that some of the frames that constitute the encoded image signal may be transmitted to the external device.
Description
본 발명은 실시간 데이터 전송 제어 시스템 및 그 제어 방법에 관한 것으로서, 특히 가변하는 통신망의 상태에 맞추어 전송되는 멀티미디어 스트림의 초당 데이터 크기를 제어하는 시스템 및 제어 방법에 관한 것이다.The present invention relates to a real-time data transmission control system and a control method thereof, and more particularly, to a system and a control method for controlling the data size per second of a multimedia stream transmitted according to the state of a variable communication network.
일반적으로, 통신망을 통하여 영상 및 음성을 포함하는 멀티미디어 스트림을 실시간으로 전송하는 생방송 서비스와 같은 경우에, 중계차를 이용하는 방법, 유선 통신을 이용하는 방법, 및 무선 통신을 이용하는 방법이 사용된다. 여기서 상기 멀티미디어 스트림은 영상 및/또는 음성을 실시간으로 재생할 수 있는 데이터의 한 형태이다.In general, in the case of a live broadcast service for transmitting a multimedia stream including video and audio in real time through a communication network, a method using a relay car, a method using wired communication, and a method using wireless communication are used. In this case, the multimedia stream is a form of data capable of reproducing video and / or audio in real time.
그러나 중계차를 이용하여 취재 현장에서 실시간 멀티미디어 스트림을 방송국으로 전송하여야 하는 경우에, 중계차가 들어가지 못하는 지역에 취재 현장이 있는 경우에 접근이 용이하지 않고, 기동성이 떨어져서 긴급한 생방송을 다루기에 어려움이 많았다. 또한 취재 현장에서 유선 통신을 활용하기에는 유선 통신망이 제한되어 있어서 생방송을 다루기에는 부적절하다.However, when a real time multimedia stream must be transmitted to a broadcasting station at a coverage site using a relay car, it was difficult to deal with an urgent live broadcast due to lack of maneuverability and lack of maneuverability when there is a coverage site in an area where the relay car cannot enter. . In addition, the wired network is limited to use wired communication at the coverage site, which is inappropriate for handling live broadcasting.
따라서, 최근 무선 통신망 기술이 발전함에 따라 무선 통신망을 이용하여 실시간으로 멀티미디어 스트림을 전송하는 방법이 사용되지만, 대역폭 문제, 지터(jitter) 발생에 따른 전송 불안, 전파음영에 따른 연결상태 변화가 여전히 해결하여야 할 문제로 남아있다.Therefore, as the wireless communication network technology has been recently developed, a method of transmitting a multimedia stream in real time using a wireless communication network is used. However, bandwidth problems, transmission instability due to jitter, and connection state change due to radio wave shading are still solved. It remains a problem to be done.
본 발명의 과제는 가변적인 통신망의 통신 환경하에서 실시간으로 데이터를 전송하는 경우에, 데이터가 지연되지 않고 전송될 수 있도록 전송되는 데이터의 크기를 제어하는 것이다.An object of the present invention is to control the size of data to be transmitted so that data can be transmitted without delay in the case of transmitting data in real time under a communication environment of a variable communication network.
본 발명의 과제는 데이터의 크기가 작아지더라도 전송되는 데이터의 품질을 확보하는 것이다.An object of the present invention is to ensure the quality of data to be transmitted even if the size of the data is small.
본 발명의 또 다른 과제는 사용자가 원격으로 단말기의 데이터 전송을 제어하는 것이다.Another object of the present invention is to allow the user to remotely control the data transmission of the terminal.
상기 목적을 달성하기 위하여, 본 발명의 단말기는, 외부의 영상획득장치로부터 영상신호를 수신하는 인터페이스부; 복수 개의 인코딩(encoding) 파라미터(parameter)들에 기반하여, 상기 수신된 영상신호를 인코딩하는 인코딩부; 상기 인코딩된 영상신호를 통신망을 통해 외부 장치(external device)로 전송하는 통신부; 및 상기 통신망의 통신 환경을 확인하고, 상기 확인된 통신 환경에 따라 상기 인코딩되어 전송되는영상신호의 데이터 크기가 실시간으로 조절되도록, 제 1 제어동작 및 제 2 제어동작 중 적어도 하나의 제어동작을 수행하는 제어부를 포함하되, 상기 제 1 제어동작은, 상기 복수 개의 인코딩 파라미터들 중 적어도 하나를 제어함으로써 상기 인코딩부를 제어하며, 상기 제 2 제어동작은, 상기 인코딩된 영상신호를 구성하는 프레임들 중 일부만 상기 외부 장치로 전송되도록 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임 수를 제어함으로써 상기 통신부를 제어하는 것으로 이루어진다.In order to achieve the above object, the terminal of the present invention, the interface unit for receiving a video signal from an external image acquisition device; An encoding unit encoding the received video signal based on a plurality of encoding parameters; A communication unit for transmitting the encoded video signal to an external device through a communication network; And confirming a communication environment of the communication network and performing at least one of a first control operation and a second control operation so that the data size of the encoded and transmitted video signal is adjusted in real time according to the identified communication environment. And a control unit, wherein the first control operation controls the encoding unit by controlling at least one of the plurality of encoding parameters, and the second control operation includes only some of the frames constituting the encoded video signal. And controlling the communication unit by controlling the number of frames constituting the encoded and transmitted video signal to be transmitted to the external device.
또한 상기 목적을 달성하기 위하여 본 발명의 영상신호 수신장치는, 복수 개의 인코딩 파라미터들에 기반하여 영상신호를 인코딩하는 단말기로부터, 통신망을 통하여, 상기 인코딩된 영상신호를 전송받는 통신부; 및 상기 통신망의 통신 환경을 확인하고, 상기 확인된 통신 환경에 따라 상기 단말기로부터 상기 인코딩되어 전송되는 영상신호의 데이터 크기가 조절되도록, 제 1 제어신호 및 제 2 제어신호 중 적어도 하나의 제어신호를 생성하며 상기 생성된 적어도 하나의 제어신호를, 상기 통신부를 통하여, 상기 단말기로 전송하는 제어부를 포함하며, 상기 제 1 제어신호는, 상기 복수 개의 인코딩 파라미터들 중 적어도 하나를 제어하며, 상기 제 2 제어신호는, 상기 단말기가 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임들 중 일부만 전송하도록, 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임 수를 제어하는 것을 특징으로 이루어진다.In order to achieve the above object, the video signal receiving apparatus of the present invention comprises: a communication unit for receiving the encoded video signal from a terminal for encoding a video signal based on a plurality of encoding parameters through a communication network; And identifying at least one control signal of the first control signal and the second control signal so that the data size of the encoded and transmitted video signal is adjusted from the terminal according to the identified communication environment. And a controller for generating and transmitting the generated at least one control signal to the terminal through the communication unit, wherein the first control signal controls at least one of the plurality of encoding parameters, and the second control signal. The control signal may be configured to control the number of frames constituting the encoded and transmitted video signal such that the terminal transmits only some of the frames constituting the encoded and transmitted video signal.
또한 상기 목적을 달성하기 위하여 본 발명의 영상신호 통신 시스템은, 영상신호 통신 시스템에 있어서, 상기 통신 시스템은 단말기 및 영상신호 수신장치를 포함하며, 상기 단말기는, 외부의 영상획득장치로부터 영상신호를 수신하는 인터페이스부; 복수 개의 인코딩 파라미터들에 기반하여, 상기 수신된 영상신호를 인코딩하는 인코딩부; 상기 인코딩된 영상신호를 통신망을 통해 상기 영상신호 수신장치로 전송하는 제 1 통신부; 및 상기 통신망의 통신 환경을 확인하고, 상기 확인된 통신 환경에 따라 상기 인코딩되어전송되는 영상신호의 데이터 크기가 실시간으로 조절되도록, 제 1 제어동작 및 제 2 제어동작 중 적어도 하나의 제어동작을 수행하는 제 1 제어부를 포함하며, 상기 영상신호 수신장치는, 상기 제 1 통신부로부터 상기 인코딩되어 전송되는 영상신호를 수신하는 제 2 통신부; 및 제 2 제어부를 포함하며, 상기 제 1 제어동작은, 상기 복수 개의 인코딩 파라미터들 중 적어도 하나를 제어함으로써, 상기 인코딩부를 제어하며, 상기 제 2 제어동작은, 상기 인코딩된 영상신호를 구성하는 프레임들 중 일부만 상기 영상신호 수신장치로 전송되도록 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임 수를 제어함으로써 상기 제 1 통신부를 제어하는 것을 특징으로 이루어진다.In addition, in order to achieve the above object, the video signal communication system of the present invention includes a video signal communication system, the communication system including a terminal and a video signal receiving device, wherein the terminal receives a video signal from an external video acquisition device. An interface unit for receiving; An encoding unit encoding the received video signal based on a plurality of encoding parameters; A first communication unit which transmits the encoded video signal to the video signal receiving apparatus through a communication network; And confirming a communication environment of the communication network and performing at least one of a first control operation and a second control operation so that the data size of the encoded and transmitted video signal is adjusted in real time according to the confirmed communication environment. And a first control unit, wherein the video signal receiving apparatus comprises: a second communication unit receiving the encoded and transmitted video signal from the first communication unit; And a second control unit, wherein the first control operation controls the encoding unit by controlling at least one of the plurality of encoding parameters, and the second control operation comprises: a frame constituting the encoded video signal. The first communication unit is controlled by controlling the number of frames constituting the encoded and transmitted video signal such that only a part of them is transmitted to the video signal receiving apparatus.
본 발명에 따르면, 통신망의 통신 환경이 악화되는 경우에도 데이터가 지연되지 않고 전송될 수 있는 효과를 제공한다.According to the present invention, it provides the effect that data can be transmitted without delay even when the communication environment of the communication network is deteriorated.
본 발명에 따르면, 전송되는 데이터의 크기가 줄어들더라도 화질을 보호하는 효과를 제공한다.According to the present invention, it provides an effect of protecting the image quality even if the size of the transmitted data is reduced.
본 발명에 따르면, 사용자가 전송되는 데이터의 품질을 원격으로 설정할 수 있는 효과를 제공한다.According to the present invention, it provides the effect that the user can remotely set the quality of the transmitted data.
도 1은 본 발명의 일 실시예와 관련된 시스템을 도시한다.1 illustrates a system associated with one embodiment of the present invention.
도 2는 본 발명의 일 실시예와 관련된 시스템을 도시한다.2 illustrates a system associated with one embodiment of the present invention.
도 3은 본 발명의 단말기와 연결 기기를 도시하는 도면이다.3 is a diagram illustrating a terminal and a connection device of the present invention.
도 4 및 도 5는 본 발명의 단말기를 도시하는 측면도이다.4 and 5 are side views illustrating the terminal of the present invention.
도 6은 본 발명의 일 실시예와 관련된 단말기의 블록 구성도(block diagram)이다.6 is a block diagram of a terminal related to an embodiment of the present invention.
도 7은 본 발명의 일 실시예와 관련된 서버의 블록 구성도이다.7 is a block diagram of a server related to an embodiment of the present invention.
도 8은 본 발명의 일 실시예와 관련된 사용자 단말기의 블록 구성도이다.8 is a block diagram illustrating a user terminal associated with one embodiment of the present invention.
도 9는 본 발명의 일 실시예에 의한 영상신호 전송 방법의 흐름도이다.9 is a flowchart illustrating a video signal transmission method according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따른 영상신호 전송 제어 방법의 흐름도이다.10 is a flowchart illustrating a video signal transmission control method according to an embodiment of the present invention.
도 11은 본 발명의 다른 실시예에 따른 영상신호 전송 제어 방법의 흐름도이다.11 is a flowchart illustrating a video signal transmission control method according to another embodiment of the present invention.
도 12는 본 발명의 영상신호 전송 제어 방법을 설명하기 위한 도면이다.12 is a view for explaining a video signal transmission control method of the present invention.
도 13은 본 발명의 영상신호 전송 제어 방법을 설명하기 위한 도면이다.13 is a view for explaining a video signal transmission control method of the present invention.
도 14, 도 15, 도 16, 및 도 17은 본 발명의 일 실시예에 관련된 영상신호 전송 원격 제어 방법의 흐름도이다.14, 15, 16, and 17 are flowcharts of a video signal transmission remote control method according to an embodiment of the present invention.
도 18, 19. 및 20은 단말기의 통신 환경 디스플레이부 및 입력부를 도시한다.18, 19, and 20 illustrate a communication environment display unit and an input unit of a terminal.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like numbers refer to like elements throughout. In addition, when it is determined that the detailed description of the known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
먼저, 도 1 및 도 2를 참조하여, 본 발명의 일 실시예에 따르는 생방송 시스템의 개략적인 구성에 대해 설명하기로 한다. 도 1은 본 발명의 일 실시예와 관련된 시스템을 도시한다.First, referring to Figures 1 and 2, a schematic configuration of a live broadcast system according to an embodiment of the present invention will be described. 1 illustrates a system associated with one embodiment of the present invention.
도 1에 도시된 바와 같이, 상기 생방송 시스템(1)은 영상획득장치(10), 단말기(100), 서버(200) 및 사용자 단말기(300)를 포함할 수 있다.As shown in FIG. 1, the live broadcasting system 1 may include an image acquisition device 10, a terminal 100, a server 200, and a user terminal 300.
상기 영상획득장치(10)는 캠코더, 카메라와 같은 일반적인 동영상 획득에 사용되는 장치를 포함할 수 있다. 상기 영상획득장치(10)는 동영상을 획득할 수 있을 뿐만 아니라, 음성정보를 획득할 수 있다.The image acquisition device 10 may include a device used to acquire a general video such as a camcorder and a camera. The image acquisition apparatus 10 may not only acquire a video, but also obtain audio information.
상기 서버(200)는 데이터를 수신, 저장 및 전송할 수 있는 일반적인 서버로 구성될 수 있다. 데이터는 영상 및 음성 신호 모두를 포함할 수 있다.The server 200 may be configured as a general server capable of receiving, storing, and transmitting data. The data may include both video and audio signals.
상기 영상획득장치(10)와 서버(100)는 통신망에 의하여 연결된다. 상기 통신망은 예를 들어, Ethernet 또는 WIMAX(IEEE 802.16에 규약됨), WIBRO(IEEE 802.16e에 규약 ('모바일 WIMAX'라고도 함)), WIFI(IEEE 802.11에 규약됨), WCDMA를 확장한 고속패킷통신규격인 HSDPA, EVDO rev.A, 및 HSUPA(High Speed Uplink Packet Access)을 포함하는 유무선 통신망으로 연결될 수 있다. 또한 본 발명의 기술적 사상은 장래 사용되는 어떠한 유무선 통신망에도 적용될 수 있음은 당연하다.The image acquisition apparatus 10 and the server 100 are connected by a communication network. The network is, for example, Ethernet or WIMAX (provided by IEEE 802.16), WIBRO (provided by IEEE 802.16e) (also referred to as 'mobile WIMAX'), WIFI (provided by IEEE 802.11), and high-speed packets that extend WCDMA. It may be connected to a wired or wireless communication network including communication standards HSDPA, EVDO rev.A, and HSUPA (High Speed Uplink Packet Access). In addition, it is a matter of course that the technical idea of the present invention can be applied to any wired or wireless communication network used in the future.
상기 서버(200)와 사용자 단말기는 상기 설명된 통신망으로 연결될 수 있다.The server 200 and the user terminal may be connected to the communication network described above.
사용자 단말기(300)는 상기 서버(200)로부터 데이터를 수신, 저장, 전송 및 재생할 수 있다. 또한, 상기 사용자 단말기(300)는 상기 서버(200)로부터가 아니라 상기 단말기(100)로부터 직접 데이터를 수신할 수 있다. 사용자 단말기(300)는 예를 들어 PC, PDA, 모바일폰, PMP, 네비게이션 장치, TV, DTV, 방송국 스테이션, 및 IPTV 등을 포함할 수 있다. 사용자 단말기(300)는 또 다른 사용자 단말기(300)와 연결될 수 있다. The user terminal 300 may receive, store, transmit and play data from the server 200. In addition, the user terminal 300 may receive data directly from the terminal 100, not from the server 200. The user terminal 300 may include, for example, a PC, a PDA, a mobile phone, a PMP, a navigation device, a TV, a DTV, a broadcast station, and an IPTV. The user terminal 300 may be connected to another user terminal 300.
상기 생방송 시스템(1)의 각각의 구성은 다음과 같이 연결될 수 있다.Each configuration of the live broadcast system 1 may be connected as follows.
영상획득장치(10)가 영상 및/또는 음성 신호를 획득하여 단말기(100)로 전송할 수 있다.The image acquisition apparatus 10 may obtain an image and / or an audio signal and transmit the image and / or audio signal to the terminal 100.
단말기(100)는 영상 및 음성 신호를 인코딩할 수 있다. 상기 단말기(100)는 상기 인코딩된 영상 및/또는 음성 신호를, 통신망을 통하여, 상기 서버(200)로 전송할 수 있다. The terminal 100 may encode video and audio signals. The terminal 100 may transmit the encoded video and / or audio signal to the server 200 through a communication network.
상기 서버(200)는, 필요에 따라, 상기 단말기(100)의 동작을 제어할 수 있는 제어 신호를 생성할 수 있다. 상기 서버(200)는 전송된 영상 및/또는 음성신호를 접속해 있는 사용자 단말기(300)로, 통신망을 통하여, 전송할 수 있다. 상기 서버(200)는 전송된 영상 및/또는 음성신호를 저장할 수 있다.The server 200 may generate a control signal for controlling the operation of the terminal 100 as necessary. The server 200 may transmit the transmitted video and / or audio signal to the user terminal 300 through a communication network. The server 200 may store the transmitted video and / or audio signal.
단말기(100), 서버(200) 그리고 사용자 단말기(300)는 상기 통신망을 통하여 데이터 통신을 하기 위한 모뎀을 포함할 수 있다. 상기 모뎀은 단말기(100), 서버(200) 그리고 사용자 단말기(300)에 내장될 수도 있고, 각각에 구비된 접속 단자에 의하여 연결될 수 있다.The terminal 100, the server 200, and the user terminal 300 may include a modem for data communication through the communication network. The modem may be built in the terminal 100, the server 200, and the user terminal 300, or may be connected by a connection terminal provided in each terminal.
사용자 단말기(300)는 상기 전송된 영상 및/또는 음성신호를 디코딩하여 재생할 수 있다. 또한, 필요에 따라 상기 단말기(100)의 동작을 제어할 수 있는 제어 신호를 생성할 수 있다. 이때 사용자 단말기(300)에 의하여 생성된 제어 신호는 상기 서버(200)가 해당 단말기(100)로 전송할 수 있고, 상기 사용자 단말기(300)로부터 직접 단말기(100)로 전송될 수 있다.The user terminal 300 may decode and play the transmitted video and / or audio signal. In addition, a control signal for controlling the operation of the terminal 100 may be generated as necessary. In this case, the control signal generated by the user terminal 300 may be transmitted by the server 200 to the corresponding terminal 100, and may be transmitted directly from the user terminal 300 to the terminal 100.
도 2는 본 발명의 일 실시예와 관련된 시스템을 도시한다.2 illustrates a system associated with one embodiment of the present invention.
생방송 시스템(1)은 각각 복수 개의 영상획득장치(1), 단말기(100), 서버(200), 및 사용자 단말기(300)를 포함할 수 있다. 상기 영상획득장치(1) 및 상기 단말기(100)가 복수 개 포함되므로 복수 개의 생방송을 서버(200)에 동시에 제공할 수 있다. 상기 서버(200)가 복수 개 구비됨으로써, 수신, 저장, 전송 기능을 분산할 수 있다.The live broadcasting system 1 may include a plurality of image acquisition apparatuses 1, a terminal 100, a server 200, and a user terminal 300, respectively. Since the plurality of image acquisition apparatuses 1 and the terminal 100 are included, a plurality of live broadcasts may be simultaneously provided to the server 200. By providing a plurality of the server 200, it is possible to distribute the reception, storage, and transmission functions.
도 1 및 도 2에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 멀티미디어 전송 시스템이 구현될 수도 있다. The components shown in FIGS. 1 and 2 are not essential, such that a multimedia transmission system having more or fewer components may be implemented.
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
도 3은 본 발명의 단말기와 연결 기기를 도시하는 도면이다. 도 3을 참조하면, 단말기(100)에는 다양한 외부 장치들이 연결될 수 있다. 예를 들어, 영상획득장치(10), 인터넷, 모뎀, 노트북 및 외장 배터리 등이 연결될 수 있다.3 is a diagram illustrating a terminal and a connection device of the present invention. Referring to FIG. 3, various external devices may be connected to the terminal 100. For example, the image acquisition device 10, the Internet, a modem, a laptop and an external battery may be connected.
도 4 및 도 5는 본 발명의 일 실시예에 따르는 단말기(100)를 도시하는 측면도들이다. 상기 단말기(100)에 연결될 수 있는 디스플레이부(104), 인터페이스부(130), 및 입력부(170)를 도시하고 있다.4 and 5 are side views illustrating a terminal 100 according to an embodiment of the present invention. A display unit 104, an interface unit 130, and an input unit 170 that can be connected to the terminal 100 are illustrated.
예를 들어 상기 디스플레이부(104)에는 단말기(100)에 대한 각종 정보가 표시된다.For example, the display unit 104 displays various information about the terminal 100.
상기 인터페이스부(130)에는 USB 포트(102), 충전용 어댑터 연결부(110), SD카드 연결부(118), 인터넷 연결부(120), A/V 입력부(112) 및 A/V 출력부(114)가 포함될 수 있다. 상기 USB 포트(102)는 USB인터페이스를 통해 외부장치에 대한 연결을 지원한다. 예를 들어, WiFi모뎀이나 WIBRO모뎀, GPS장치등을 연결할 때 사용된다. 충전용 어댑터 연결부(110)는 전원 공급부(160)의 일 예이다. 상기 충전용 어댑터 연결부(110)는 충전용 어댑터와 연결되어 상기 단말기(100)에 전원을 공급한다. SD카드 연결부(118)는 외장형 SD 메모리가 연결될 수 있는 슬롯이다. 인터넷 연결부(120)는 RJ45 이더넷 케이블을 연결할 수 있는 슬롯이다. AV 입력부(112)는 AV(audio/video) 입력 케이블 연결을 위한 단자이고, AV 출력부(114)는 AV 출력 케이블 연결을 위한 단자이다.The interface unit 130 has a USB port 102, a charging adapter connection unit 110, an SD card connection unit 118, an Internet connection unit 120, an A / V input unit 112, and an A / V output unit 114. May be included. The USB port 102 supports a connection to an external device through a USB interface. For example, it is used to connect WiFi modem, WIBRO modem, GPS device. The charging adapter connection unit 110 is an example of the power supply unit 160. The charging adapter connection unit 110 is connected to the charging adapter to supply power to the terminal 100. The SD card connection unit 118 is a slot to which an external SD memory can be connected. Internet connection 120 is a slot to connect the RJ45 Ethernet cable. The AV input unit 112 is a terminal for connecting an AV (audio / video) input cable, and the AV output unit 114 is a terminal for connecting an AV output cable.
상기 입력부(170)는 상기 단말기(100)를 설정하기 위한 기능을 제공하는 것으로, 키 입력부가 포함된다.The input unit 170 provides a function for setting the terminal 100 and includes a key input unit.
상기 키 입력부에는 단말기(100)를 끄고 켤 수 있는 리셋부(106) 및 단말기(100)를 제어할 수 있는 버튼으로 스위치(108)가 포함된다. 상기 스위치(108)는 예를 들어 휠 타입으로 구성될 수 있다.The key input unit includes a reset unit 106 for turning the terminal 100 off and on, and a switch 108 as a button for controlling the terminal 100. The switch 108 may be configured, for example, of a wheel type.
도 6은 본 발명의 일 실시예와 관련된 단말기(100)의 블록 구성도(block diagram)이다.6 is a block diagram of a terminal 100 according to an embodiment of the present invention.
단말기(100)는 디스플레이부(104), 인터페이스부(130), 인코딩부(140), 통신부(150), 전원공급부(160), 입력부(170), 및 제어부(190)를 포함할 수 있다.The terminal 100 may include a display unit 104, an interface unit 130, an encoding unit 140, a communication unit 150, a power supply unit 160, an input unit 170, and a controller 190.
디스플레이부(104)는 상기 단말기의 동작과 관련된 각종 정보를 표시할 수 있다. 예를 들어, 디스플레이부(104)는 상기 파라미터들인 비트레이트, 초당 프레임 수, 해상도, 및 화상 집합의 길이와 그 외 단말기 상태, 오디오 압축 여부 선택, 오디오 비트레이트, 샘플레이트, 및 통신망 연결 상태 등을 나타낼 수 있다.The display unit 104 may display various types of information related to the operation of the terminal. For example, the display unit 104 may determine the parameters such as the bit rate, the number of frames per second, the resolution, the length of the image set and other terminal states, whether to compress audio, the audio bit rate, the sample rate, and the network connection state. Can be represented.
인터페이스부(130)는 영상획득장치(10)로부터 S-Video, RCA단자를 통하여 비디오 및 오디오 중 하나 또는 모두로 이루어진 영상신호를 수신하며, NTSC(National Television System(s) Committee) 방식과 PAL(Phase-Alternating Line, Phase Alternation by Line 혹은 Phase Alternation Line 의 약어) 방식을 지원할 수 있다. 그 외 다양한 방식을 지원할 수 있다.The interface unit 130 receives a video signal consisting of one or both of video and audio from the image acquisition apparatus 10 through the S-Video and RCA terminals, the NTSC (National Television System (s) Committee) method and the PAL ( Phase-Alternating Line, Phase Alternation by Line, or Phase Alternation Line). There are many other ways to support it.
오디오는 RCA단자를 통하여 수신되며, 2가닥의 RCA를 사용하는 아날로그(스테레오) 오디오와 1가닥의 RCA를 쓰는 아날로그(모노) 오디오가 있다. RCA 외의 형태로 추가적으로 광 케이블이 사용될 수 있다. 비디오는 RCA 한 가닥으로 영상 신호를 수신하는 컴포지트(composite) 방식과 RCA 3가닥으로 이루어진 컴포넌트 방식과 S 단자 또는 S-VHS라고 불리는 S-Video, HDMI 및 component, SDI 등으로 수신될 수 있다.Audio is received via the RCA jack, with analog (stereo) audio using two RCAs and analog (mono) audio using one RCA. In addition to RCA, an additional optical cable may be used. The video may be received by a composite method of receiving an image signal with one RCA strand, a component method consisting of three RCA strands, and S-Video, HDMI, component, SDI, etc., which are called S terminals or S-VHS.
인코딩부(140)는 상기 영상획득장치(10)로부터 수신된 아날로그 데이터를 디지털 신호로 변환 후 압축한다. 예를 들어, 화상은 H.264(Advanced Video Coding; AVC) 코덱을 이용할 수 있으며, 음성은 AAC(Advanced Audio Coding) 코덱으로 압축할 수 있다.The encoder 140 converts the analog data received from the image acquisition apparatus 10 into a digital signal and compresses the converted digital data. For example, an image may use an H.264 (Advanced Video Coding) codec, and voice may be compressed using an AAC (Advanced Audio Coding) codec.
인코딩할 때 사용되는 파라미터들에는 영상과 관련된 비트레이트(bitrate), 초당 프레임 수(Frame per Second; fps), 해상도(resolution), 화상 집합(Group of picture; GOP)의 길이가 포함될 수 있다. 또한 음성과 관련된 샘플레이트, 비트레이트, 및 채널이 포함될 수 있다. 상기 파라미터들은 예일 뿐이고 다른 파라미터 값들이 추가될 수 있다.Parameters used when encoding may include a bitrate associated with an image, a frame per second (fps), a resolution, and a length of a group of picture (GOP). It may also include sample rates, bitrates, and channels associated with speech. The parameters are examples only and other parameter values may be added.
상기 비트레이트는 특정한 시간 단위(초 단위)마다 처리하는 비트의 수로 정의될 수 있다. 상기 초당 프레임 수는 1초 동안 보여주는 화면의 수로 정의될 수 있다. 상기 해상도는 한 프레임을 표현하는데 사용되는 화소(Pixel)의 수로 정의될 수 있는데 대개 가로의 픽셀수로 세로의 픽셀수를 곱하기 형태로 표시된다. 상기 화상 집합의 길이는 앵커 프레임(anchor frame)인 I프레임과 I프레임 사이의 간격으로 표현될 수 있다.The bit rate may be defined as the number of bits processed for each specific time unit (seconds). The number of frames per second may be defined as the number of screens displayed for one second. The resolution may be defined as the number of pixels used to represent one frame, which is usually expressed in the form of multiplying the number of pixels by the number of pixels by the number of pixels by the width. The length of the image set may be expressed as an interval between an I frame and an I frame, which is an anchor frame.
상기 파라미터들은 미리 설정되거나, 통신망의 환경에 따라 상기 단말기(100)의 제어부(190)에 의하여 설정되거나, 서버(200) 또는 사용자 단말기(300)에서 원격 제어를 통하여 설정될 수 있다.The parameters may be set in advance, by the controller 190 of the terminal 100 according to the environment of the communication network, or by remote control in the server 200 or the user terminal 300.
통신부(150)는 메모리(152), 유선통신모듈(154), 및 무선통신모듈(156)을 포함할 수 있다. The communicator 150 may include a memory 152, a wired communication module 154, and a wireless communication module 156.
상기 메모리(152)는 예를 들어 인코딩된 데이터가 서버(200)로 전송되기 전에 일시적으로 저장되는 버퍼일 수 있다. 상기 메모리(152)는 통신부(150) 내에 위치되는 것으로 한정되는 것은 아니다. 예를 들어, 상기 메모리(152)는 상기 통신부(150)와 독립적인 구성요소로써, 상기 단말기를 구성할 수 있다.The memory 152 may be, for example, a buffer in which encoded data is temporarily stored before being transmitted to the server 200. The memory 152 is not limited to being located in the communication unit 150. For example, the memory 152 may constitute the terminal as an independent component of the communication unit 150.
상기 유선통신모듈(154) 및 무선통신모듈(156)은 상기 단말기(100) 외부로 인코딩된 데이터를 전송하고, 외부로부터 신호를 수신하는 기능을 가질 수 있다. 이때 상기 인코딩된 데이터는 표준 영상 전송 프로토콜인 실시간 스트리밍 프로토콜(Real Time Streaming Protocol; RTSP, RFC 2326에 규약됨)과 실시간 전송 프로토콜(Real-time Transport Protocol; RTP) 또는 리얼 타임 메시징 프로토콜(Real Time Messaging Protocol; RTMP), 그리고 독자적인 프로토콜을 통해 서버(200)로 전송된다.The wired communication module 154 and the wireless communication module 156 may have a function of transmitting encoded data to the outside of the terminal 100 and receiving a signal from the outside. In this case, the encoded data is a Real Time Streaming Protocol (RTSP, RFC 2326) and a Real-time Transport Protocol (RTP) or Real Time Messaging protocol. Protocol (RTMP), and to the server 200 via its own protocol.
전원공급부(160)는 단말기(100)에 전원을 공급한다. 단말기(100)는 자체적으로 내장 배터리를 구비할 수 있다. The power supply unit 160 supplies power to the terminal 100. The terminal 100 may itself have a built-in battery.
입력부(170)는 상기 파라미터들 및 기타 단말기(100)에 관련된 설정을 할 수 있게 한다. 입력된 설정 값을 통하여 이하에서 설명되는 제어부(190)는 각 구성요소를 제어하는 제어 동작을 생성할 수 있다.The input unit 170 may make settings related to the parameters and the other terminal 100. The controller 190 described below through the input setting value may generate a control operation for controlling each component.
제어부(190)는 단말기(100)의 인터페이스부(130), 인코딩부(140), 통신부(150), 디스플레이부(104), 전원공급부(160), 및 입력부(170)가 포함된 전체 구성요소 및 전반적인 동작을 총괄하여 제어한다. 특히, 통신망의 통신 환경에 따라서 인코딩부(140) 및 통신부(150)를 제어할 수 있다.The controller 190 includes all components including the interface unit 130, the encoding unit 140, the communication unit 150, the display unit 104, the power supply unit 160, and the input unit 170 of the terminal 100. And control the overall operation. In particular, the encoding unit 140 and the communication unit 150 may be controlled according to the communication environment of the communication network.
도 7은 본 발명의 일 실시예와 관련된 서버(200)의 블록 구성도이다.7 is a block diagram of a server 200 related to an embodiment of the present invention.
서버(200)는 통신부(210), 제어부(250), 저장부(260)를 포함할 수 있다.The server 200 may include a communication unit 210, a control unit 250, and a storage unit 260.
통신부(210)는 유선통신모듈(212) 및 무선통신모듈(214)을 포함할 수 있다.The communication unit 210 may include a wired communication module 212 and a wireless communication module 214.
상기 통신부(210)는 수신 및 송신 기능을 수행한다. 즉, 복수 개의 파라미터들에 기반하여, 인코딩된 데이터를 상기 단말기(100)로부터 수신한다. 상기 통신부(210)는 상기 단말기(100)로 제어 신호를 송신할 수 있고, 사용자 단말기(300)로 상기 멀티미디어 스트림을 송신할 수 있다. 여기서 멀티미디어 스트림은 인코딩된 영상 및/또는 음성신호를 말하는 것이다.The communication unit 210 performs a reception and transmission function. That is, based on a plurality of parameters, encoded data is received from the terminal 100. The communication unit 210 may transmit a control signal to the terminal 100 and may transmit the multimedia stream to the user terminal 300. The multimedia stream here refers to encoded video and / or audio signals.
제어부(250)는 상기 서버(200)의 전체 구성 요소를 제어하며, 단말기(100)로 전송되어야 하는 제어 신호를 제어할 수 있다. 이때 단말기(100)에 접속하는 것은 공인 IP를 할당받은 경우에는 어디에서든지 가능하다. 그러나 EVDO나 WIFI등의 환경에서는 사설 IP가 필요하기 때문에 VPN(virtual private network)를 통하여 접속하는 것이 편리할 수 있다.The controller 250 may control all components of the server 200 and may control a control signal to be transmitted to the terminal 100. In this case, accessing the terminal 100 may be performed anywhere if a public IP is assigned. However, it may be convenient to connect through a virtual private network (VPN) because the private IP is required in an environment such as EVDO or WIFI.
제어부(250)는 또한 상기 수신된 데이터를 다양한 프로토콜로 변환할 수 있다. 예를 들어 상기 수신된 데이터는 IPTV 서비스를 위하여 RTSP, RTP 프로토콜로 변환되고, 모바일 서비스를 위하여 RTSP, HTTP 프로토콜로 변환되어 상기 통신부(210)를 통하여 사용자 단말기(300)로 전송될 수 있다.The controller 250 may also convert the received data into various protocols. For example, the received data may be converted into RTSP and RTP protocols for an IPTV service, and converted into RTSP and HTTP protocols for a mobile service and transmitted to the user terminal 300 through the communication unit 210.
저장부(260)는 단말기(100)로부터 전송된 멀티미디어 스트림을 미디어 파일 형태로 저장할 수 있다. 상기 저장된 멀티미디어 스트림은 별도의 포맷 변환 없이도 VOD 서버를 통해 온라인 상에서 바로 재생이 가능하다. 또한 상기 재생되는 멀티미디어 스트림도 일반 미디어 재생기에서 재생 가능한 포맷으로 저장이 가능할 수 있다.The storage unit 260 may store the multimedia stream transmitted from the terminal 100 in the form of a media file. The stored multimedia stream can be directly played online through a VOD server without a separate format conversion. Also, the played multimedia stream may be stored in a format that can be played in a general media player.
또한 서버(200)는 단말기(100) 및/또는 서버(200)를 제어하기 위하여 입력부(240) 및 출력부(230)를 더 포함할 수 있다. In addition, the server 200 may further include an input unit 240 and an output unit 230 to control the terminal 100 and / or the server 200.
상기 설명된 서버(200)의 구성요소는 경우에 필수 구성요소는 아니며, 필요에 따라서 생략될 수 있으며, 또 다른 구성요소가 추가될 수도 있다.The components of the server 200 described above are not essential components in this case, may be omitted as necessary, and another component may be added.
도 8은 본 발명의 일 실시예와 관련된 사용자 단말기의 블록 구성도이다.8 is a block diagram illustrating a user terminal associated with one embodiment of the present invention.
사용자 단말기(300)는 통신부(310), 디코딩부(320), 출력부(330), 입력부(340), 제어부(350), 및 저장부(360)를 포함할 수 있다.The user terminal 300 may include a communication unit 310, a decoding unit 320, an output unit 330, an input unit 340, a control unit 350, and a storage unit 360.
상기 사용자 단말기(300)는 상기 서버(200)와 통신망을 통하여 연결될 수 있다. The user terminal 300 may be connected to the server 200 through a communication network.
통신부(310)는 서버(200)에 접속하여 RTSP/RTP 프로토콜을 통해 멀티미디어 스트림을 수신할 수 있다. 또한 제어부(350)에 의해 생성되는 제어 신호를 상기 서버(200)를 통하여 단말기(100)로 전송할 수 있다. 여기서 상기 서버(200)의 제어부(250)는 해당하는 단말기(100)를 찾아내서 전송하는 기능을 수행할 수 있다.The communication unit 310 may access the server 200 and receive a multimedia stream through the RTSP / RTP protocol. In addition, a control signal generated by the controller 350 may be transmitted to the terminal 100 through the server 200. Herein, the control unit 250 of the server 200 may perform a function of finding and transmitting a corresponding terminal 100.
디코딩부(320)는 상기 통신부(310)에서 멀티미디어 스트림을 수신하여, 코덱 필터를 통해 상기 수신된 데이터를 디코딩하여 렌더러(도면 미도시)에서 처리 가능한 데이터로 변환할 수 있다. The decoder 320 may receive the multimedia stream from the communication unit 310, decode the received data through a codec filter, and convert the received data into data that can be processed by a renderer (not shown).
출력부(330)는 재생부를 포함할 수 있다.The output unit 330 may include a playback unit.
상기 재생부는 상기 디코딩된 멀티미디어 스트림을 렌더러를 통해 영상 및 음성을 재생할 수 있다. 이때 영상 및 음성이 어긋나지 않도록 동기화를 수행하여 지연이 발생하지 않게 한다. 이를 통하여 악화된 통신망에서도 최적의 상태로 멀티미디어 스트림이 재생될 수 있다.The playback unit may play the decoded multimedia stream video and audio through a renderer. At this time, the synchronization is performed so that the video and audio do not deviate so that a delay does not occur. Through this, the multimedia stream can be reproduced optimally even in a deteriorated communication network.
출력부(330)는 방송을 하는 경우 상기 재생되는 멀티미디어 스트림을 DVI-D 포트를 통해 워크스테이션 외부로 송출하고, 상기 송출되는 멀티미디어 스트림은 스캔 컨버터를 통해 방송 가능한 영상신호(SD-SDI, HD-SDI)로 변환될 수 있다.The output unit 330 transmits the reproduced multimedia stream to the outside of the workstation through the DVI-D port, and the transmitted multimedia stream can be broadcasted through a scan converter (SD-SDI, HD-). SDI).
입력부(340)는 사용자 단말기(300)를 제어할 수 있고, 상기 단말기(100)를 제어하기 위하여 필요한 제어 신호를 생성할 수 있게 한다.The input unit 340 may control the user terminal 300 and generate a control signal necessary for controlling the terminal 100.
저장부(360)는 전송된 멀티미디어 스트림을 저장할 수 있다.The storage unit 360 may store the transmitted multimedia stream.
이하에서는, 본 발명의 일 실시예에 따르는 생방송 시스템의 동작방법에 대해 구체적으로 설명하기로 한다. 본 발명의 일 실시예에 따르는 생방송 시스템의 동작방법은 앞서 설명한 본 발명의 일 실시예에 의한 생방송 시스템에서 구현되는 것일 수 있으며, 또는 이와 다른 구성의 시스템에 의해서도 구현될 수 있다. 하지만, 설명의 편의를 위해, 동작방법을 설명함에 있어서, 도 1 내지 도 8에 도시된 구성을 참조한다. 이하에서 설명하는 영상신호 수신장치 또는 외부 장치는 서버(200) 및 사용자 단말기(300)를 포함하는 것일 수 있다.Hereinafter, an operation method of a live broadcasting system according to an embodiment of the present invention will be described in detail. The operating method of the live broadcasting system according to an embodiment of the present invention may be implemented in the live broadcasting system according to the embodiment of the present invention described above, or may be implemented by a system having a different configuration. However, for convenience of description, in describing the operation method, reference is made to the configuration shown in FIGS. 1 to 8. The video signal receiver or external device described below may include the server 200 and the user terminal 300.
도 9는 본 발명의 일 실시예에 의한 영상신호 전송 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a video signal transmission method according to an embodiment of the present invention.
본 발명에 의한 영상신호 전송 방법은, 단말기(100)의 인터페이스부(130)는 영상획득장치(10)로부터 영상신호를 수신하고(S810), 인코딩부(140)는 상기 수신된 영상신호를 인코딩하여 멀티미디어 스트림으로 변환하고(S820), 통신부(150)는 상기 변환된 멀티미디어 스트림을 외부 장치로 전송하는 단계(S830)를 포함한다. In the video signal transmission method according to the present invention, the interface unit 130 of the terminal 100 receives a video signal from the image acquisition apparatus 10 (S810), and the encoding unit 140 encodes the received video signal. In step S820, the communication unit 150 transmits the converted multimedia stream to an external device.
도 10은 본 발명의 일 실시예에 따른 영상신호 전송 제어 방법을 나타내는 흐름도이다. 단말기(100)와 외부 장치(200,300) 사이의 통신망의 통신 환경은 가변적이다. 그러므로 끊김없이 멀티미디어 스트림을 송/수신하기 위해서는 초당 데이터 크기를 가변하는 통신망의 상태에 맞추어 제어할 수 있어야 한다. 도 10의 실시예는 도 9의 흐름도에 제어 방법을 더 포함하는 것이다.10 is a flowchart illustrating a video signal transmission control method according to an embodiment of the present invention. The communication environment of the communication network between the terminal 100 and the external devices 200 and 300 is variable. Therefore, in order to transmit / receive a multimedia stream without interruption, it is necessary to control the data size per second according to the state of the communication network. The embodiment of FIG. 10 further includes a control method in the flowchart of FIG. 9.
먼저 단말기(100)와 외부 장치(200,300) 사이의 통신망의 통신 환경을 확인한다(S910).First, the communication environment of the communication network between the terminal 100 and the external devices 200 and 300 is checked (S910).
상기 통신 환경은 단말기(100)의 메모리(152)에 저장된 전송 대기 중인 멀티미디어 스트림의 데이터 크기 또는 통신망의 신호 세기에 의하여 산출될 수 있으며, 상기 산출된 결과는 실시간으로 감시될 수 있다. The communication environment may be calculated by the data size of the multimedia stream waiting to be stored in the memory 152 of the terminal 100 or the signal strength of the communication network, and the calculated result may be monitored in real time.
즉, 전송 상태에 따라 메모리(152)에 일시적으로 멀티 미디어 스트림이 저장되게 되는데, 저장되는 멀티 미디어 스트림의 데이터 크기 또는 비어있는 메모리(152) 부분을 통하여 통신 환경의 양호도를 알 수 있다. That is, the multimedia stream is temporarily stored in the memory 152 according to the transmission state, and the goodness of the communication environment can be known through the data size of the stored multimedia stream or the empty memory 152.
또한 상기 신호 세기는 왕복 시간(round trip time) 또는 수신신호강도(Received Signal Strength Indication; RSSI)를 통하여 알 수 있다. 상기 통신 환경은 단말기의 디스플레이부(104), 외부 장치(200, 300)의 출력부(230,330)에서 확인 가능하다. The signal strength may also be known through round trip time or Received Signal Strength Indication (RSSI). The communication environment may be confirmed by the display unit 104 of the terminal and the output units 230 and 330 of the external devices 200 and 300.
그 다음 과정은 파라미터들을 실시간으로 설정하는 것이다(S920). 이는 통신 환경에 상응하도록 미리 정해진 값으로 상기 파라미터들을 설정하는 것이다. 즉, 각각의 통신 환경에 최적화된 비트레이트, 해상도, 화상 집합의 길이, 초당 프레임 수를 미리 준비한다. 상기 비트레이트 및 해상도는 초당 멀티미디어 스트림의 데이터 크기를 조절하고, 화상 집합의 길이 및 초당 프레임 수는 초당 데이터 크기가 감소하더라도 화질을 보호하기 위한 기능을 제공할 수 있다. The next process is to set the parameters in real time (S920). This is to set the parameters to a predetermined value corresponding to the communication environment. That is, the bitrate, resolution, length of the image set, and frames per second optimized for each communication environment are prepared in advance. The bitrate and resolution may adjust the data size of the multimedia stream per second, and the length of the image set and the number of frames per second may provide a function for protecting image quality even if the data size per second is reduced.
제어부(190)는 멀티미디어 스트림 1초를 재생하기 위해 필요한 데이터의 크기를 제어하기 위한 제 1 제어동작을 수행한다. 상기 제 1 제어동작은 예를 들어 비트레이트 및 해상도를 줄이거나 늘리는 것일 수 있다. 상기 제어부(190)는 상기 인코딩부(140)를 제어하여 상기 파라미터 값을 설정할 수 있다. The controller 190 performs a first control operation for controlling the size of data required for playing the multimedia stream 1 second. The first control operation can be, for example, reducing or increasing the bit rate and resolution. The controller 190 may control the encoder 140 to set the parameter value.
통신 환경이 악화된 경우에 비트레이트 및 해상도가 낮아지게 되면 화질이 떨어지게 되는데 이를 보완하기 위하여 상기 제어부(190)는 상기 인코딩부(140)을 제어하여 화상 집합의 길이 및 초당 프레임 수를 조절할 수 있다. If the bitrate and resolution are reduced when the communication environment is deteriorated, the image quality is deteriorated. To compensate for this, the controller 190 may control the encoding unit 140 to adjust the length of the image set and the number of frames per second. .
즉, 화상 집합의 길이를 짧게 함으로써, 멀티미디어 스트림을 구성하는 프레임 중 전송되지 않는 프레임의 수를 줄일 수 있다. 이로써 영상이 프레임 드랍핑에 의하여 지나치게 끊기는 현상을 방지할 수 있다.That is, by shortening the length of the image set, it is possible to reduce the number of frames not transmitted among the frames constituting the multimedia stream. This can prevent the image from being excessively cut off by dropping the frame.
또한 초당 프레임 수를 줄임으로써 같은 비트레이트일 때 전송이 성공되는 프레임당 화질을 향상시킬 수 있다. 따라서, 비트레이트 및 해상도를 설정할 때 적절히 화상 집합의 길이 및 초당 프레임 수를 제어하여 전송되는 초당 데이터 크기를 줄이면서, 동시에 화질을 개선할 수 있다.In addition, by reducing the number of frames per second, it is possible to improve the image quality per frame in which transmission is successful at the same bit rate. Therefore, when setting the bitrate and resolution, it is possible to appropriately control the length of the image set and the number of frames per second to reduce the size of data transmitted per second and to improve the image quality at the same time.
상기 파라미터 값들은 제어부(190)에 의하여 자동적으로 생성될 수도 있고 입력부(170)를 통하여 직접 입력할 수도 있다. 예를 들어 다음과 같이 할 수 있다. 비트레이트는 64kbps부터 10000kbps까지 설정 가능하며 50kbps단위로 조정이 가능하게 할 수 있고, 해상도는 예를 들어 320x240, 320x480, 352x240, 352x288, 352x480, 426x240, 480x320, 640x240, 640x480, 720x240, 720x480로 구분하여 조정 가능하도록 할 수 있고, 초당 프레임 수는 예를 들어 10fps, 15fps, 25fps, 30fps로 조정할 수 있고, 화상 집합의 길이는 예를 들어 15부터 600까지 설정할 수 있다.The parameter values may be automatically generated by the controller 190 or directly input through the input unit 170. For example, you can do The bit rate can be set from 64kbps to 10000kbps and can be adjusted in 50kbps units, and resolution is divided into 320x240, 320x480, 352x240, 352x288, 352x480, 426x240, 480x320, 640x240, 640x480, 720x240, 720x480 It can be adjusted, the number of frames per second can be adjusted to 10 fps, 15 fps, 25 fps, 30 fps, for example, and the length of the image set can be set from 15 to 600, for example.
상기 각각의 파라미터는 다양하게 조합된 순서에 따라 순차적으로 제어될 수 있다. 예를 들어, 통신상태가 악화된 경우, 비트레이트를 먼저 제어하고 이어서 해상도를 제어하는 순서로 파라미터값들이 제어될 수 있다. 반대로 해상도를 먼저 제어하고 비트레이트를 제어하는 것도 가능하다.Each of the parameters may be sequentially controlled according to various combination orders. For example, when the communication state deteriorates, the parameter values may be controlled in order of controlling the bit rate first and then controlling the resolution. Conversely, it is also possible to control the resolution first and then control the bit rate.
영상획득장치(10)에 의하여 수신된 영상신호는 변경된 파라미터 값에 의하여 인코딩될 수 있다(S930).The image signal received by the image acquisition apparatus 10 may be encoded by the changed parameter value (S930).
그 다음 과정은 프레임 드랍핑을 수행하는 것이다(S940). 프레임 드랍핑은 전송 대기중인 멀티미디어 스트림의 P프레임 또는 B프레임을 전송하지 않음으로써, 악화된 통신 환경에 대응하기 위한 것이다. 프레임 드랍핑 시에는 일반적으로 B프레임을 먼저 드랍하고 P프레임을 드랍할 수 있다. 나아가 I프레임도 드랍할 수 있다. 그러나, B,P,I 프레임 간의 드랍되는 순서는 앞서 설명한 순서에만 국한되는 것은 아니며, 또 다른 예에 의할 수 있다.The next process is to perform frame dropping (S940). Frame dropping is for responding to a worsened communication environment by not transmitting P frames or B frames of a multimedia stream waiting to be transmitted. In the case of dropping frames, B frames may be dropped first and P frames may be dropped. I frames can also be dropped. However, the drop order between B, P, and I frames is not limited to the above-described order, and may be based on another example.
도 12를 참조하여 프레임 드랍핑의 개념을 상세히 설명한다. 화상 집합의 길이가 10인 경우에, 프레임 드랍핑 전에는 단말기(100)로부터 서버(200)로 모든 프레임이 전송되고 있는 것을 도시하고 있다. 그러나 프레임 드랍핑이 수행되면 드랍되는 P프레임 이후의 모든 P프레임이 드랍되게 되어 멀티미디어 스트림 1초를 재생하기 위해 필요한 데이터의 크기를 줄일 수 있게 된다. 따라서 통신 상태가 악화된 경우에도 멀티미디어 스트림이 지연되지 않고 전송될 수 있다. 한편, 데이터 크기가 프레임 드랍핑에 의하여 줄어들면 화질이 악화될 수 있으므로, 이를 보완하기 위하여 상기 설명한 화상 집합의 길이 및 초당 프레임 수를 제어할 수 있다.A concept of frame dropping will be described in detail with reference to FIG. 12. When the length of the image set is 10, it shows that all the frames are transmitted from the terminal 100 to the server 200 before the frame dropping. However, when frame dropping is performed, all P frames after the dropped P frame are dropped, thereby reducing the size of data required for playing the multimedia stream 1 second. Therefore, even if the communication state deteriorates, the multimedia stream can be transmitted without delay. On the other hand, since the image quality may deteriorate when the data size is reduced by frame dropping, the length of the image set and the number of frames per second may be controlled to compensate for this.
상기 제어부(190)는 프레임 드랍핑을 수행하는 제 2 제어동작을 통하여 상기 통신부(150)를 제어한다.The controller 190 controls the communication unit 150 through a second control operation for performing frame dropping.
이를 통하여 인코딩된 멀티미디어 스트림은 외부 장치(200,300)로 전송될 수 있다(S950).Through this, the encoded multimedia stream may be transmitted to the external devices 200 and 300 (S950).
통신 환경을 확인한 후에, 파라미터 설정 단계(S920) 및 프레임 드랍핑(S940)은 선택적으로 수행할 수 있다. 상기 제 2 제어동작을 먼저 수행하고 상기 제 1 제어동작을 수행할 수 있다. 이에 대한 상세한 설명은 도 13을 참조하여 설명하기로 한다.After checking the communication environment, the parameter setting step S920 and the frame dropping S940 may be selectively performed. The second control operation may be performed first, and the first control operation may be performed. Detailed description thereof will be described with reference to FIG. 13.
도 13은 확인된 통신상태에 따라서 설정되는 파라미터 값과 프레임 드랍핑에 대한 한 예를 표로 나타낸 것이다.FIG. 13 shows an example of parameter values and frame dropping set according to the confirmed communication state.
먼저 통신 상태가 상으로 표시되는 경우를 데이터 크기를 최대로 전송하는 경우로 볼 수 있다. 이때는 프레임 드랍핑을 위한 제 2 제어동작도 필요하지 않다. 이 경우는 통신 환경 확인 단계(S910) 이후 중간 과정을 생략하고 바로 전송 단계(S950)로 진행하는 것으로 볼 수 있다.First, the case in which the communication state is displayed as an image may be regarded as a case where the maximum data size is transmitted. In this case, the second control operation for dropping the frame is not necessary. In this case, after the communication environment checking step (S910), the intermediate process may be omitted and the process may be immediately proceeded to the transmitting step (S950).
다음, 확인된 통신 상태가 중상으로 나빠지게 되었을 때는 파라미터 값은 그대로 두고 프레임 드랍핑만 우선적으로 실행할 수 있다. 이 경우는 통신 환경 확인 단계(S910) 이후 파라미터 설정 단계(S920) 및 영상신호 인코딩(S930)단계를 수행하지 않고 바로 프레임 드랍핑 단계(S94)로 진행하는 것으로 볼 수 있다. 반대로 프레임 드랍핑은 하지 않고 파라미터 값만 변경하는 방법을 사용할 수도 있다.Next, when the confirmed communication state is severely damaged, only the frame dropping may be executed with the parameter value as it is. In this case, it may be regarded as proceeding to the frame dropping step S94 without performing the parameter setting step S920 and the video signal encoding step S930 after the communication environment checking step S910. Conversely, you can use a method of changing only parameter values without dropping frames.
다음, 확인된 통신 상태가 중하로 나빠지게 되었을 때는 파라미터 값 중 비트레이트 및 해상도를 낮출 수 있다. 여기서 a2, b2는 각각 a1, b1보다 작은 값이다. 동시에 프레임 드랍핑을 수행한다. 다른 실시예로서 프레임 드랍핑을 수행하면서 비트레이트 및 해상도는 그대로 두고 화상 집합의 길이 및 초당 프레임 수를 각각 c1 및 d1에서 c2 및 d2로 작게 할 수도 있다. 이 경우 화질이 개선될 수 있다.Next, when the confirmed communication state becomes medium, the bit rate and the resolution of the parameter values may be lowered. Where a2 and b2 are smaller than a1 and b1, respectively. Perform frame dropping at the same time. As another example, while the frame dropping is performed, the length of the image set and the number of frames per second may be reduced from c1 and d1 to c2 and d2 without changing the bit rate and resolution. In this case, image quality may be improved.
다음, 확인된 통신 상태가 하로 나빠지게 되었을 때는 통신 상태가 상인 경우에 비하여 모든 파라미터 값인 비트레이트 해상도, 화상 집합의 길이, 및 초당 프레임 수를 작게 할 수 있다. 또한 프레임 드랍핑을 수행한다. 즉, 비트레이트, 해상도를 작게 하고 수행되는 프레임 드랍핑에 의하여 화질이 훼손되더라도 화상 집합의 길이 및 초당 프레임 수를 설정하여 화질을 적절히 보호할 수 있다.Next, when the confirmed communication state is lowered, all the parameter values, the bit rate resolution, the length of the image set, and the number of frames per second, can be made smaller than when the communication state is higher. It also performs frame dropping. That is, even if image quality is degraded due to the bit rate and resolution being dropped and frame dropping is performed, the image quality can be appropriately protected by setting the length of the image set and the number of frames per second.
상기 과정은 통신 환경이 상에서 하로 악화되는 경우를 설명한 것이며, 반대로 통신 환경이 하에서 상으로 개선되는 경우에는 반대 과정을 실시간으로 진행하여 변화하는 통신 환경에 대응할 수 있다. The above process describes a case in which the communication environment deteriorates downward from the top. On the contrary, when the communication environment improves in phase below, the reverse process may be performed in real time to correspond to a changing communication environment.
상기 전송되는 영상신호 제어 방법에 있어서, 설명되지는 않았으나 음성신호도 인코딩시 제어될 수 있다. 예를 들어, 샘플레이트, 비트레이트, 및 스테레오(STEREO) 또는 모노(MONO)로 이루어진 채널 제어가 가능하다.In the transmitted video signal control method, although not described, an audio signal may also be controlled at the time of encoding. For example, channel control consisting of sample rate, bit rate, and stereo (STEREO) or mono (MONO) is possible.
도 11은 본 발명의 다른 실시예에 따른 영상신호 전송 제어 방법의 흐름도이다. 도 10의 실시예는 통신 환경에 따라서 미리 지정된 파라미터 값 및 프레임 드랍핑 정도를 준비하고 있지만, 도 11의 실시예는 통신 환경과 전송되는 멀티미디어 스트림의 초당 데이터 크기를 실시간으로 비교하여 파라미터 값과 프레임 드랍핑 정도를 달리한다는 점이 차이점이다.11 is a flowchart illustrating a video signal transmission control method according to another embodiment of the present invention. Although the embodiment of FIG. 10 prepares a predetermined parameter value and a degree of frame dropping according to a communication environment, the embodiment of FIG. 11 compares a parameter value and a frame in real time by comparing a data size per second of a multimedia stream transmitted with a communication environment in real time. The difference is that the degree of dropping varies.
도 10의 실시예와 통신 환경 확인 단계(S1010)와 파라미터 설정 단계(S1040) 사이에 전송 속도 산출 단계(S1020)와 전송속도와 인코딩된 영상신호의 초당 데이터 크기를 비교하는 단계(S1030)을 더 포함하는 것이 다른 점이다.Between the embodiment of FIG. 10 and the communication environment checking step (S1010) and the parameter setting step (S1040), a step of calculating a transmission speed (S1020) and a step of comparing the transmission speed and the data size per second of the encoded video signal (S1030) are further performed. Including is different.
제어부(190)는 통신 환경을 확인하여 통신망의 전송 속도를 산출한다(S1020).The controller 190 checks the communication environment and calculates a transmission speed of the communication network (S1020).
제어부(190)는 상기 산출된 전송 속도와 인코딩된 영상신호의 초당 데이터 크기를 비교한다(S1030). 인코딩된 영상신호의 초당 데이터 크기는 멀티미디어 스트림 1초를 재생하기 위해 필요한 데이터의 크기를 말하는 것이다.The controller 190 compares the calculated transmission rate with the data size per second of the encoded video signal (S1030). The data size per second of the encoded video signal refers to the size of data required to reproduce one second of the multimedia stream.
먼저, 통신망의 통신 환경이 악화되어 멀터미디어 스트림 1초를 재생하기 위해 필요한 데이터 크기가 통신망의 전송 속도보다 커서 실시간으로 재생 할 수 없는 경우에는 다음과 같이 제어부(190)가 인코딩부(140)와 통신부(150)를 제어할 수 있다.First, when the communication environment of the communication network is deteriorated and the data size required to play the multi-media stream for one second is larger than the transmission speed of the communication network and thus cannot be reproduced in real time, the control unit 190 is connected to the encoding unit 140 as follows. The communication unit 150 may be controlled.
즉 인코딩 파라미터 값 중에서 비트레이트와 해상도를 줄이고 프레임 드랍핑을 더 많이 함으로써, 멀티미디어 스트림 1초를 재생하기 위해 필요한 데이터 크기를 줄일 수 있다. 또한 데이터 크기가 줄어듬으로써 악화된 화질은 화상 집합의 길이와 초당 프레임 수를 줄임으로써 보완할 수 있다. 상기 각각의 파라미터 값 설정과 프레임 드랍핑은 각각 별개로 수행될 수 있고, 통신망의 전송 속도에 따라서 중첩적으로 수행될 수 있다.In other words, by reducing the bit rate and resolution among the encoding parameter values and increasing the amount of frame dropping, it is possible to reduce the data size required to play one second of the multimedia stream. In addition, image quality deteriorated by decreasing data size can be compensated by reducing the length of the image set and the frames per second. Each parameter value setting and frame dropping may be performed separately, and may be superimposed according to the transmission speed of the communication network.
한편, 통신 환경이 개선되어 전송되는 멀티미디어 스트림의 초당 데이터 크기를 증가시켜도 되는 경우에, 비트레이트, 해상도를 늘리도록 제어부(190)가 인코딩부(140)를 제어할 수 있다. 또한 이와 별개로 통신부(150)에서 드랍핑되는 프레임 수를 줄일 수 있다. Meanwhile, when the communication environment is improved and the data size per second of the transmitted multimedia stream may be increased, the control unit 190 may control the encoding unit 140 to increase the bit rate and resolution. In addition, the number of frames dropped by the communicator 150 may be reduced.
그리고, 현재의 멀티미디어 스트림의 초당 데이터 크기가 적절한 경우에는, 설정된 파라미터 값을 유지하도록 제어부(190)가 인코딩부(140)를 제어하고, 프레임 드랍핑 정도를 유지하도록 제어부(190)가 통신부(150)를 제어할 수 있다.When the data size per second of the current multimedia stream is appropriate, the controller 190 controls the encoder 140 to maintain the set parameter value, and the controller 190 controls the communicator 150 to maintain the degree of dropping the frame. ) Can be controlled.
도 14, 도 15, 도 16, 및 도 17은 본 발명의 일 실시예에 관련된 영상신호 전송 원격제어 방법의 흐름도이다. 상기 설명된 영상신호 제어 방법을 단말기(100)에서 자동적으로 수행하거나 단말기(100)의 입력부(170)를 통하여 구현하는 것이 아니라 멀티미디어 스트림 수신자가 원거리에서 편리하게 영상신호 전송을 제어할 수 있다.14, 15, 16, and 17 are flowcharts of a video signal transmission remote control method according to an embodiment of the present invention. Instead of automatically performing the above-described video signal control method in the terminal 100 or through the input unit 170 of the terminal 100, the multimedia stream receiver can conveniently control the video signal transmission from a long distance.
도 14는 단말기(100)와 서버(200)로 구성되며, 상기 서버(200)를 통하여 상기 단말기(100)를 제어하는 것을 도시한다.14 illustrates a terminal 100 and a server 200 that control the terminal 100 through the server 200.
먼저, 단말기의 통신부(150)는 인코딩된 멀티미디어 스트림, 단말기의 디스플레이부(104)에 표시되는 상태정보, 및 단말기 통신 환경에 대한 정보를 전송하고(S1310), 서버의 통신부(210)는 이를 수신한다(S1312).First, the communication unit 150 of the terminal transmits the encoded multimedia stream, the state information displayed on the display unit 104 of the terminal, and information on the terminal communication environment (S1310), and the communication unit 210 of the server receives it. (S1312).
그 다음 과정은 통신 환경을 판단하는 것이다(S1314). 상기 통신 환경은 전송된 단말기의 통신 환경에 대한 정보를 통하여 확인할 수 있다. 각각의 단말기(100)에 지정된 IP 주소를 서버의 입력부(240)에 입력하여 해당 단말기(100)의 통신 환경에 대한 정보에 접속할 수 있다. The next process is to determine the communication environment (S1314). The communication environment may be confirmed through information on the communication environment of the transmitted terminal. An IP address assigned to each terminal 100 may be input to the input unit 240 of the server to access information about a communication environment of the corresponding terminal 100.
사용자는 서버의 입력부(240)를 통하여 제 1 제어신호 및 제 2 제어신호를 생성한다. 상기 제 1 제어신호는 상기 단말기의 인코딩부(140)에서 수신된 아날로그 데이터를 인코딩할 때 사용되는 복수 개의 파라미터 값을 제어할 수 있는 신호이다. 상기 제 2 제어신호는 상기 단말기의 통신부(150)에서의 프레임 드랍핑을 제어할 수 있는 신호이다. 사용자는 제 1 제어신호 및 제 2 제어신호를 생성함에 있어서, 통신 환경이 악화된 경우와 통신 환경이 개선된 경우 각각에 상응하도록 상기 설명된 바와 같이 제어신호를 생성할 수 있다. 제 1 제어신호만 생성할 수도 있고 제 2 제어신호만 생성할 수도 있다.The user generates a first control signal and a second control signal through the input unit 240 of the server. The first control signal is a signal capable of controlling a plurality of parameter values used when encoding analog data received by the encoding unit 140 of the terminal. The second control signal is a signal capable of controlling frame dropping in the communication unit 150 of the terminal. In generating the first control signal and the second control signal, the user may generate the control signal as described above to correspond to the case where the communication environment is deteriorated and the case where the communication environment is improved. Only the first control signal may be generated or only the second control signal may be generated.
생성된 제어신호는 서버의 통신부(210)를 통하여 단말기의 통신부(150)로 송신된다(S1316). 이때 서버의 제어부(250)는 상기 제 1 및/또는 제 2 제어신호가 복수 개의 단말기 중에서 IP 주소를 통하여 해당하는 단말기로 전송될 수 있도록 상기 서버의 통신부(210)를 제어한다. The generated control signal is transmitted to the communication unit 150 of the terminal through the communication unit 210 of the server (S1316). In this case, the controller 250 of the server controls the communication unit 210 of the server so that the first and / or second control signals can be transmitted to a corresponding terminal through an IP address among a plurality of terminals.
수신된 제어신호를 기초로 상기 단말기의 제어부(150)는 인코딩부(140)와 통신부(150)를 제어한다(S1318, S1320). 인코딩부(140)에서는 제 1 제어신호에 기반하여 인코딩 시 사용되는 복수 개의 파라미터 값을 제어하는 제 1 제어동작을 수행하고, 통신부(150)에서는 제 2 제어신호에 기반하여 드랍핑되는 프레임의 수를 제어하는 제 2 제어동작을 수행한다.The control unit 150 of the terminal controls the encoding unit 140 and the communication unit 150 based on the received control signal (S1318, S1320). The encoding unit 140 performs a first control operation of controlling a plurality of parameter values used in encoding based on the first control signal, and the communication unit 150 drops the number of dropped frames based on the second control signal. Perform a second control operation to control.
그 다음 과정은 수신된 아날로그 데이터를 재설정된 인코딩 파라미터 값으로 인코딩하여 서버로 전송하는 것이다. S1310 내지 S1320 단계는 실시간으로 반복될 수 있다. The next step is to encode the received analog data with the reset encoding parameter values and send them to the server. Steps S1310 to S1320 may be repeated in real time.
원격제어를 수행함으로써 가변하는 통신망의 환경에 능동적으로 대응할 수 있다.By performing the remote control, it is possible to actively respond to the environment of the variable communication network.
도 15는 단말기(100)와 사용자 단말기(300)로 구성되며, 상기 사용자 단말기(300)를 통하여 상기 단말기(100)를 제어하는 것을 도시한다. 도 14와 다른 점은 단말기(100)로부터 직접 사용자 단말기(300)로 인코딩된 영상신호가 전송된다는 것이다. 그러므로 도 14에서는 주체가 서버(200)였으나 도 15의 실시예에서는 사용자 단말기(300)로 변경되는 것이 다를 뿐, 그 외 원격제어를 구현하기 위한 각각의 단계는 동일하다. 이하에서는 차이가 있는 단계에 대해서 설명한다.FIG. 15 illustrates a terminal 100 and a user terminal 300 that control the terminal 100 through the user terminal 300. The difference from FIG. 14 is that the encoded video signal is transmitted from the terminal 100 directly to the user terminal 300. Therefore, although the subject was the server 200 in FIG. 14, in the embodiment of FIG. 15, the subject is changed to the user terminal 300, and each step for implementing remote control is the same. Hereinafter, the difference steps will be described.
인코딩된 영상신호 및 단말기 통신 환경 정보가 사용자 단말기의 통신부(310)를 통하여 수신된다(S1332). 상기 출력부(330)는 수신된 영상신호를 재생한다(S1334). 따라서 수신된 통신 환경 정보 및 영상신호를 재생하여 통신 환경을 판단할 수 있다. 그 외의 단계는 도 14를 참조하여 설명한 실시예와 동일하다.The encoded video signal and the terminal communication environment information are received through the communication unit 310 of the user terminal (S1332). The output unit 330 reproduces the received video signal (S1334). Therefore, the communication environment may be determined by reproducing the received communication environment information and the image signal. Other steps are the same as the embodiment described with reference to FIG.
도 16은 단말기(100), 서버(200), 사용자 단말기(300)로 구성되며, 상기 사용자 단말기(300)를 통하여 상기 단말기(100)를 제어하는 것을 도시한다. 기본적인 구성은 상기 도 14 및 도 15에서의 실시예와 동일하다.FIG. 16 illustrates a terminal 100, a server 200, and a user terminal 300, which controls the terminal 100 through the user terminal 300. The basic configuration is the same as the embodiment in FIG. 14 and FIG. 15.
즉, 인코딩된 영상신호 및 단말기 통신 환경에 대한 정보가 단말기(100)로부터 서버(200)를 통하여 사용자 단말기(300)로 전송될 수 있다.That is, the encoded video signal and information on the terminal communication environment may be transmitted from the terminal 100 to the user terminal 300 through the server 200.
사용자 단말기(300)에서는 수신된 영상신호를 출력하고, 단말기 통신 환경에 대한 정보를 바탕으로 제어신호를 생성할 수 있다. 상기 생성된 제어신호는 상기 서버(200)로 전송된다. 서버의 제어부(250)는 수신된 제어신호를 해당 단말기(100)로 전송할 수 있다. 단말기(100)의 제어부는 수신된 제어신호를 기초로 인코딩 파라미터 값 및 드랍핑되는 프레임 수를 제어한다. 이후 다시 처음 단계(S1350)를 반복하여 실시간으로 수행할 수 있다.The user terminal 300 may output the received video signal and generate a control signal based on information on the terminal communication environment. The generated control signal is transmitted to the server 200. The controller 250 of the server may transmit the received control signal to the terminal 100. The controller of the terminal 100 controls the encoding parameter value and the number of dropped frames based on the received control signal. Thereafter, the first step (S1350) can be repeated to perform in real time.
도 17은 단말기(100), 서버(200), 사용자 단말기(300)로 구성되며, 상기 서버(200)를 통하여 상기 단말기(100)를 제어하는 것을 도시한다. 기본적인 구성은 상기 도 14, 도 15, 및 도 16에서의 실시예와 동일하다.FIG. 17 illustrates a terminal 100, a server 200, and a user terminal 300, which controls the terminal 100 through the server 200. The basic configuration is the same as the embodiment in FIG. 14, FIG. 15, and FIG.
단말기(100)로부터 인코딩된 영상신호 및 단말기 통신 환경 정보가 서버(200)로 전송될 수 있다. 수신된 영상신호는 사용자 단말기(300)로 전송될 수 있다. 서버(200)에서 제어 신호를 생성하여 단말기(100)로 전송할 수 있다. 단말기의 제어부(150)는 수신된 제어신호를 기초로 인코딩 파라미터 값 및 드랍핑되는 프레임 수를 제어할 수 있다. 이후 다시 처음 단계(S1370)를 반복하여 수행할 수 있다.The video signal encoded from the terminal 100 and terminal communication environment information may be transmitted to the server 200. The received video signal may be transmitted to the user terminal 300. The server 200 may generate a control signal and transmit the control signal to the terminal 100. The controller 150 of the terminal may control the encoding parameter value and the number of dropped frames based on the received control signal. Thereafter, the first step (S1370) can be repeated again.
도 14 내지 도 17를 참조하여 설명된 실시예를 통하여 통신망의 환경에 따라 사용자가 원격에서 직접 제어하는 것이 가능하며, 통신망의 환경 변화를 예측할 수 있는 경우에 더욱 효율적이다. 또한 상기의 실시예에서는 영상신호에 대하여 다루었으나, 필요한 경우에 음성 신호에 대하여도 인코딩 파라미터 값을 제어할 수 있다.According to the embodiments described with reference to FIGS. 14 to 17, it is possible to directly control the user remotely according to the environment of the communication network, and more efficient when the environment change of the communication network can be predicted. In addition, although the above embodiments deal with video signals, encoding parameter values may also be controlled for audio signals when necessary.
도 18, 19. 및 20은 단말기의 통신 환경 디스플레이부 및 입력부를 도시한다. 도 18 내지 도 20은 단말기의 디스플레이부(104), 서버의 출력부(230), 사용자 단말기의 출력부(330)을 통하여 확인할 수 있으며 표현할 수 있는 정보의 일 예일 뿐이다.18, 19, and 20 illustrate a communication environment display unit and an input unit of a terminal. 18 to 20 are only examples of information that can be confirmed and expressed through the display unit 104 of the terminal, the output unit 230 of the server, and the output unit 330 of the user terminal.
도 18을 참조하면, 비디오라고 표현된 위의 테이블은 영상 압축 여부 선택, 프레임 사이즈로 표현된 해상도, 프레임 레이트로 표현된 초당 프레임 수, 비트레이트, GOP size로 표현된 화상 집합의 길이, 비디오 타이밍 등에 대한 정보를 제공하고, 사용자가 직접 상기 값들을 설정할 수 있음을 알 수 있다. 오디오로 되어 있는 아래의 테이블은 음성 신호 압축 여부 선택, 비트레이트, 채널, 샘플레이트에 대한 정보를 제공하고, 사용자가 직접 설정할 수 있도록 구성되어 있음을 볼 수 있다. Referring to FIG. 18, the above table expressed as video includes image selection whether to compress video, resolution expressed in frame size, frames per second expressed in frame rate, bit rate, length of picture set expressed in GOP size, and video timing. It can be seen that the information can be provided, and the user can directly set the above values. The following table, which consists of audio, provides information on voice signal compression selection, bit rate, channel, and sample rate, and can be configured by the user.
도 19를 참조하면, 통신망 탐색 순서, IP 주소, 등 네트워크에 대한 정보를 제공하고 있음을 알 수 있다.Referring to FIG. 19, it can be seen that information about a network, such as a network search order, an IP address, and the like is provided.
도 20을 참조하면, 단말기 ID 정보, 메모리, 배터리, 운영 체제 등 단말기에 대한 정보를 제공하고 있음을 알 수 있다.Referring to FIG. 20, it can be seen that information about a terminal, such as terminal ID information, a memory, a battery, and an operating system, is provided.
도 18 내지 도 20에 도시된 화면은 일 예일 뿐이고 본 발명의 실시예를 구현함에 있어서 필요한 다른 어떠한 정보도 추가될 수 있다.The screens shown in FIGS. 18 to 20 are only examples, and any other information necessary for implementing an embodiment of the present invention may be added.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 또한 본 문서에서 설명된 실시예들은 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those of ordinary skill in the art to which the present invention pertains, as described above and the accompanying examples. It is not limited by the drawings. In addition, the embodiments described in this document may not be limitedly applied, but may be configured by selectively combining all or part of the embodiments so that various modifications may be made.
본 발명에 따르면, 가변적인 통신망의 통신 환경 하에서 전송되는 데이터의 크기를 조절함으로써, 통신망의 통신 환경이 악화되는 경우에도 데이터를 지연하지 않고 전송할 수 있는 실시간 데이터 전송 제어 시스템 및 그 제어방법을 제공할 수 있다.According to the present invention, by adjusting the size of the data transmitted in the communication environment of the variable communication network, a real-time data transmission control system and control method capable of transmitting the data without delay even when the communication environment of the communication network deteriorates. Can be.
Claims (19)
- 외부의 영상획득장치로부터 영상신호를 수신하는 인터페이스부;An interface unit for receiving an image signal from an external image acquisition device;복수 개의 인코딩(encoding) 파라미터(parameter)들에 기반하여, 상기 수신된 영상신호를 인코딩하는 인코딩부;An encoding unit encoding the received video signal based on a plurality of encoding parameters;상기 인코딩된 영상신호를 통신망을 통해 외부 장치(external device)로 전송하는 통신부; 및A communication unit for transmitting the encoded video signal to an external device through a communication network; And상기 통신망의 통신 환경을 확인하고, 상기 확인된 통신 환경에 따라 상기 인코딩되어 전송되는영상신호의 데이터 크기가 실시간으로 조절되도록, 제 1 제어동작 및 제 2 제어동작 중 적어도 하나의 제어동작을 수행하는 제어부를 포함하되,Verifying a communication environment of the communication network and performing at least one control operation of the first control operation and the second control operation so that the data size of the encoded and transmitted video signal is adjusted in real time according to the confirmed communication environment; Including a control unit,상기 제 1 제어동작은,The first control operation,상기 복수 개의 인코딩 파라미터들 중 적어도 하나를 제어함으로써 상기 인코딩부를 제어하며,Controlling the encoding unit by controlling at least one of the plurality of encoding parameters,상기 제 2 제어동작은,The second control operation,상기 인코딩된 영상신호를 구성하는 프레임들 중 일부만 상기 외부 장치로 전송되도록 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임 수를 제어함으로써 상기 통신부를 제어하는 것을 특징으로 하는 단말기.And controlling the communication unit by controlling the number of frames constituting the encoded and transmitted video signal such that only some of the frames constituting the encoded video signal are transmitted to the external device.
- 제 1 항에 있어서, The method of claim 1,상기 인코딩된 영상신호가 전송되기 전에, 상기 인코딩된 영상신호를 일시적으로 저장하는 버퍼를Before the encoded video signal is transmitted, a buffer for temporarily storing the encoded video signal더 포함하며,More,상기 제어부는,The control unit,상기 통신 환경을 확인하기 위하여,In order to confirm the communication environment,상기 버퍼의 저장상태 및 상기 통신망의 신호세기 중 적어도 하나를 감시하는Monitoring at least one of a storage state of the buffer and a signal strength of the communication network단말기.terminal.
- 제 1 항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit,상기 복수 개의 파라미터들 및 상기 프레임 수의 가변정도를, 상기 통신 환경의 양호도에 따라 미리 정의된 설정값들로 설정하는The degree of variability of the plurality of parameters and the number of frames is set to predefined settings according to the goodness of the communication environment.단말기.terminal.
- 제 1 항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit,상기 확인된 통신 환경의 양호도에 기반하여, 상기 제 1 및 제 2 제어동작을 미리 정해진 순서에 따라 순차적으로 수행하는Based on the goodness of the confirmed communication environment, sequentially performing the first and second control operations in a predetermined order;단말기.terminal.
- 제 1 항에 있어서,The method of claim 1,상기 복수 개의 인코딩 파라미터들은 비트레이트(bitrate), 해상도(resolution), 화상 집합의 길이(Group of Pictures length) 및 초당 프레임 수(Frame per second) 중 적어도 하나를 포함하는The plurality of encoding parameters include at least one of bitrate, resolution, group of pictures length, and frame per second.단말기.terminal.
- 제 1 항에 있어서,The method of claim 1,영상신호는 음성신호를 포함하며, 상기 복수 개의 인코딩 파라미터들에 샘플레이트 및 음성 비트레이트가 포함되는The video signal includes an audio signal and includes a sample rate and an audio bit rate in the plurality of encoding parameters.단말기.terminal.
- 제 5 항에 있어서, 상기 제어부는,The method of claim 5, wherein the control unit,상기 인코딩되어 전송되는 영상신호의 영상품질을 실시간으로 조절하기 위하여, 상기 화상 집합의 길이 및 초당 프레임 수 중 적어도 하나를 제어하는 단말기.A terminal for controlling at least one of the length of the image set and the number of frames per second in order to adjust in real time the video quality of the video signal encoded and transmitted.
- 제 5 항에 있어서, 상기 제어부는,The method of claim 5, wherein the control unit,상기 통신 환경이 악화되는 경우,If the communication environment deteriorates,상기 제 1 제어동작은 상기 비트레이트, 해상도, 화상 집합의 길이 및 초당 프레임 수 중 적어도 하나의 크기를 감소시키는 동작을 포함하고,The first control operation includes reducing the size of at least one of the bitrate, the resolution, the length of the image set, and the number of frames per second;상기 제 2 제어동작은 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임 수를 감소시키는 동작을 포함하는 단말기.The second control operation includes reducing the number of frames that make up the encoded and transmitted video signal.
- 제 5 항에 있어서, 상기 제어부는,The method of claim 5, wherein the control unit,상기 통신 환경이 회복되는 경우,When the communication environment is restored,상기 제 1 제어동작은 상기 비트레이트, 해상도, 화상 집합의 길이 및 초당 프레임 수 중 적어도 하나의 크기를 증가시키는 동작을 포함하고,The first control operation includes increasing at least one of the bit rate, the resolution, the length of the image set, and the number of frames per second;상기 제 2 제어동작은 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임 수를 증가시키는 동작을 포함하는 단말기.The second control operation includes increasing the number of frames that make up the encoded and transmitted video signal.
- 제 5 항에 있어서, 상기 제어부는,The method of claim 5, wherein the control unit,상기 확인된 통신 환경의 양호도에 기반하여, 상기 비트레이트, 상기 해상도, 상기 초당 프레임 수 및 화상 집합의 길이 중 적어도 하나를 미리 정해진 순서에 따라 순차적으로 제어하는Based on the goodness of the confirmed communication environment, sequentially controlling at least one of the bit rate, the resolution, the number of frames per second, and the length of the image set in a predetermined order;단말기.terminal.
- 복수 개의 인코딩 파라미터들에 기반하여 영상신호를 인코딩하는 단말기로부터, 통신망을 통하여, 상기 인코딩된 영상신호를 전송받는 통신부; 및A communication unit for receiving the encoded video signal from a terminal encoding a video signal based on a plurality of encoding parameters through a communication network; And상기 통신망의 통신 환경을 확인하고, 상기 확인된 통신 환경에 따라 상기 단말기로부터 상기 인코딩되어 전송되는 영상신호의 데이터 크기가 조절되도록, 제 1 제어신호 및 제 2 제어신호 중 적어도 하나의 제어신호를 생성하며 상기 생성된 적어도 하나의 제어신호를, 상기 통신부를 통하여, 상기 단말기로 전송하는 제어부를 포함하며,Generating a control signal of at least one of a first control signal and a second control signal to identify a communication environment of the communication network and to adjust a data size of the encoded and transmitted video signal from the terminal according to the identified communication environment; And a control unit for transmitting the generated at least one control signal to the terminal through the communication unit.상기 제 1 제어신호는,The first control signal,상기 단말기가 상기 복수 개의 인코딩 파라미터들 중 적어도 하나를 제어하도록 하고,Allow the terminal to control at least one of the plurality of encoding parameters,상기 제 2 제어신호는,The second control signal,상기 단말기가 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임들 중 일부만 전송하도록, 상기 단말기가 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임 수를 제어하도록 것을 특징으로 하는,Characterized in that the terminal controls the number of frames constituting the encoded and transmitted video signal so that the terminal transmits only some of the frames constituting the encoded and transmitted video signal,영상신호 수신장치.Video signal receiver.
- 제 11 항에 있어서,The method of claim 11,사용자 입력부를 더 포함하며,Further comprising a user input unit,상기 제어부는,The control unit,상기 사용자 입력부를 통하여 입력된 값들에 따라, 상기 제 1 제어신호 및 상기 제 2 제어신호 중 적어도 하나를 생성하는Generating at least one of the first control signal and the second control signal according to values input through the user input unit;영상신호 수신장치.Video signal receiver.
- 제 11 항에 있어서,The method of claim 11,상기 통신부는, 상기 단말기에 구비된 버퍼의 저장상태 및 상기 통신망의 신호세기 중 적어도 하나에 대한 정보를 수신하고,The communication unit receives information on at least one of the storage state of the buffer provided in the terminal and the signal strength of the communication network,상기 제어부는, 상기 수신된 정보에 기반하여 상기 통신망의 통신 환경을 확인하는The controller checks a communication environment of the communication network based on the received information.영상신호 수신장치.Video signal receiver.
- 영상신호 통신 시스템에 있어서,In a video signal communication system,상기 통신 시스템은 단말기 및 영상신호 수신장치를 포함하며,The communication system includes a terminal and a video signal receiving device,상기 단말기는,The terminal,외부의 영상획득장치로부터 영상신호를 수신하는 인터페이스부;An interface unit for receiving an image signal from an external image acquisition device;복수 개의 인코딩 파라미터들에 기반하여, 상기 수신된 영상신호를 인코딩하는 인코딩부;An encoding unit encoding the received video signal based on a plurality of encoding parameters;상기 인코딩된 영상신호를 통신망을 통해 상기 영상신호 수신장치로 전송하는 제 1 통신부; 및A first communication unit which transmits the encoded video signal to the video signal receiving apparatus through a communication network; And상기 통신망의 통신 환경을 확인하고, 상기 확인된 통신 환경에 따라 상기 인코딩되어전송되는 영상신호의 데이터 크기가 실시간으로 조절되도록, 제 1 제어동작 및 제 2 제어동작 중 적어도 하나의 제어동작을 수행하는 제 1 제어부를 포함하며,Confirming a communication environment of the communication network and performing at least one control operation of the first control operation and the second control operation so that the data size of the encoded and transmitted video signal is adjusted in real time according to the confirmed communication environment; A first control unit,상기 영상신호 수신장치는,The video signal receiver,상기 제 1 통신부로부터 상기 인코딩되어 전송되는 영상신호를 수신하는 제 2 통신부; 및A second communication unit receiving the encoded and transmitted video signal from the first communication unit; And제 2 제어부를 포함하며,A second control unit;상기 제 1 제어동작은,The first control operation,상기 복수 개의 인코딩 파라미터들 중 적어도 하나를 제어함으로써, 상기 인코딩부를 제어하며, Controlling the encoding unit by controlling at least one of the plurality of encoding parameters,상기 제 2 제어동작은, The second control operation,상기 인코딩된 영상신호를 구성하는 프레임들 중 일부만 상기 영상신호 수신장치로 전송되도록 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임 수를 제어함으로써 상기 제 1 통신부를 제어하는 것을 특징으로 하는, And controlling the first communication unit by controlling the number of frames constituting the encoded and transmitted video signal such that only some of the frames constituting the encoded video signal are transmitted to the video signal receiving apparatus.영상신호 통신 시스템.Video signal communication system.
- 제 14 항에 있어서, 상기 제 2 제어부는,The method of claim 14, wherein the second control unit,상기 통신망의 통신 환경을 확인하고, 상기 제 1 제어동작을 제어하기 위한 제 1 제어신호 및 상기 제 2 제어동작을 제어하기 위한 제 2 제어신호 중 적어도 하나를 생성하고, 상기 생성된 제어신호를, 상기 제 2 통신부를 통하여, 상기 단말기로 전송하는Identifying a communication environment of the communication network, generating at least one of a first control signal for controlling the first control operation and a second control signal for controlling the second control operation, and generating the generated control signal, Transmitted to the terminal through the second communication unit영상신호 통신 시스템.Video signal communication system.
- 제 15 항에 있어서, 상기 제 1 제어부는,The method of claim 15, wherein the first control unit,상기 제 1 제어신호에 기반하여, 상기 제 1 제어동작을 수행하고, 상기 제 2 제어신호에 기반하여, 상기 제 2 제어동작을 수행하는Performing the first control operation based on the first control signal, and performing the second control operation based on the second control signal.영상신호 통신 시스템.Video signal communication system.
- 영상신호를 인코딩하여 전송하는 단말기를 제어하는 제어방법에 있어서,In the control method for controlling a terminal for encoding and transmitting a video signal,외부 영상획득장치로부터 영상신호를 수신하는 단계;Receiving an image signal from an external image acquisition device;복수 개의 인코딩 파라미터들에 기반하여, 상기 수신된 영상신호를 인코딩하는 단계;Encoding the received video signal based on a plurality of encoding parameters;상기 인코딩된 영상신호를 통신망을 통해 외부 장치(external device)로 전송하는 단계;Transmitting the encoded video signal to an external device through a communication network;상기 통신망의 통신 환경을 확인하는 단계; 및Confirming a communication environment of the communication network; And상기 확인된 통신 환경에 따라 상기 인코딩되어 전송되는 영상신호의 데이터 크기가 실시간으로 조절되도록, 제 1 제어동작 및 제 2 제어동작 중 적어도 하나의 제어동작을 수행하는 단계;를 포함하되,And performing at least one of a first control operation and a second control operation so that the data size of the encoded and transmitted video signal is adjusted in real time according to the identified communication environment.상기 제 1 제어동작은,The first control operation,상기 복수 개의 인코딩 파라미터들 중 적어도 하나를 제어하며,Control at least one of the plurality of encoding parameters,상기 제 2 제어동작은,The second control operation,상기 인코딩된 영상신호를 구성하는 프레임들 중 일부만 상기 통신망을 통해 상기 외부 장치로 전송되도록 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임 수를 제어하는 것을 특징으로 하는 단말기 제어방법.And controlling the number of frames constituting the encoded and transmitted video signal such that only some of the frames constituting the encoded video signal are transmitted to the external device through the communication network.
- 영상신호를 인코딩하여 전송하는 단말기를 원격 제어하는 방법에 있어서, In the method of remotely controlling a terminal for encoding and transmitting a video signal,상기 단말기로부터 통신망을 통해 복수의 인코딩 파라미터들에 기반하여 인코딩된 영상신호를 전송받는 단계;Receiving a video signal encoded based on a plurality of encoding parameters from the terminal through a communication network;상기 통신망의 통신 환경을 확인하는 단계;Confirming a communication environment of the communication network;상기 확인된 통신 환경에 따라, 상기 단말기로부터 전송되는 상기 인코딩된 영상신호의 데이터 크기가 조절되도록, 제 1 제어신호 및 제 2 제어신호 중 적어도 하나의 제어신호를 생성하는 단계; 및Generating at least one control signal of a first control signal and a second control signal such that the data size of the encoded video signal transmitted from the terminal is adjusted according to the identified communication environment; And상기 생성된 적어도 하나의 제어신호를 상기 통신망을 통해 상기 단말기로 전송하는 단계를 포함하되,And transmitting the generated at least one control signal to the terminal through the communication network.상기 제 1 제어신호는,The first control signal,상기 복수의 인코딩 파라미터들 중 적어도 하나를 제어하며,Control at least one of the plurality of encoding parameters,상기 제 2 제어신호는,The second control signal,상기 인코딩되어 전송되는 영상신호를 구성하는 프레임들 중 일부만, 상기 단말기로부터 상기 통신망을 통하여 전송되도록, 상기 프레임의 수를 제어하는 것을 특징으로 하는 단말기 원격 제어 방법.And controlling the number of the frames such that only some of the frames constituting the encoded video signal are transmitted from the terminal through the communication network.
- 단말기와 영상신호 수신장치 사이의 영상신호 통신 제어 방법에 있어서,In the video signal communication control method between a terminal and a video signal receiving apparatus,상기 단말기가, 외부의 영상획득장치로부터 영상신호를 수신하는 단계;Receiving, by the terminal, a video signal from an external image acquisition device;상기 단말기가, 복수 개의 인코딩 파라미터들에 기반하여, 상기 수신된 영상신호를 인코딩하는 단계;Encoding, by the terminal, the received video signal based on a plurality of encoding parameters;상기 단말기가, 상기 인코딩된 영상신호를 통신망을 통해 상기 영상신호 수신장치로 전송하는 단계;Transmitting, by the terminal, the encoded video signal to the video signal receiving apparatus through a communication network;상기 단말기가, 상기 통신망의 통신 환경을 확인하고, 상기 확인된 통신 환경에 따라 상기 인코딩되어 전송되는 영상신호의 데이터 크기가 실시간으로 조절되도록, 제 1 제어동작 및 제 2 제어동작 중 적어도 하나의 제어동작을 수행하는 단계; 및At least one of a first control operation and a second control operation so that the terminal identifies the communication environment of the communication network and adjusts the data size of the encoded and transmitted video signal in real time according to the identified communication environment Performing an operation; And상기 영상신호 수신장치가, 상기 인코딩되어 전송되는 영상신호를 수신하는 단계;를 포함하되,And receiving, by the apparatus for receiving video signals, the video signals that are encoded and transmitted.상기 제 1 제어동작은, The first control operation,상기 복수 개의 인코딩 파라미터들 중 적어도 하나를 제어하며,Control at least one of the plurality of encoding parameters,상기 제 2 제어동작은,The second control operation,상기 인코딩되어 전송되는 영상신호를 구성하는 프레임들 중 일부만 상기 통신망을 통해 상기 영상신호 수신장치로 전송되도록 상기 인코딩되어 전송되는 영상신호를 구성하는 프레임 수를 제어하는 것을 특징으로 하는 영상신호 통신 제어 방법.And controlling the number of frames constituting the encoded and transmitted video signal such that only some of the frames constituting the encoded and transmitted video signal are transmitted to the video signal receiver through the communication network. .
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090103009A KR100968266B1 (en) | 2009-10-28 | 2009-10-28 | Controlling system for transmitting data of real time and method for transmitting data of real time |
KR10-2009-0103009 | 2009-10-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
WO2011052960A2 true WO2011052960A2 (en) | 2011-05-05 |
WO2011052960A3 WO2011052960A3 (en) | 2011-09-01 |
Family
ID=42645236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2010/007361 WO2011052960A2 (en) | 2009-10-28 | 2010-10-26 | Real-time data transmission control system and control method thereof |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR100968266B1 (en) |
WO (1) | WO2011052960A2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015119337A1 (en) * | 2014-02-06 | 2015-08-13 | 엘지전자 주식회사 | Method for performing wi-fi display service and device for same |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101782997B1 (en) * | 2011-05-17 | 2017-09-28 | 삼성전자주식회사 | A digital photographing apparatus and method for saving power of the digital photographing apparatus |
KR101339835B1 (en) | 2011-12-13 | 2013-12-11 | 엠앤서비스 주식회사 | Real time screen clone apparatus of mobile terminal, the system and method thereof |
KR101827427B1 (en) * | 2016-06-20 | 2018-02-08 | 한국항공대학교산학협력단 | Video signal transmitting apparatus and method thereof |
KR101795958B1 (en) * | 2016-08-09 | 2017-12-01 | 연세대학교 산학협력단 | Adaptive control method, apparatus and user device for providing video in real time network cameras |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060131699A (en) * | 1998-09-18 | 2006-12-20 | 엘지전자 주식회사 | Method for processing image data |
KR20080037145A (en) * | 2006-10-25 | 2008-04-30 | 삼성전자주식회사 | System for providing image service, and method and apparatus therefor |
KR20090018527A (en) * | 2007-08-17 | 2009-02-20 | 삼성전자주식회사 | Method and apparatus for bit rate control |
KR20090077869A (en) * | 2008-01-12 | 2009-07-16 | (주) 이노티브잉크코리아 | Video processing system, video processing method and video transfer method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4465827B2 (en) | 2000-07-13 | 2010-05-26 | ソニー株式会社 | Video signal recording / reproducing apparatus and method, and recording medium |
JP2006279926A (en) | 2005-03-01 | 2006-10-12 | Omron Corp | Wireless communication apparatus, wireless communication system, wireless communication method, program, and recording medium with the program recorded thereon |
KR100817055B1 (en) | 2006-08-23 | 2008-03-26 | 삼성전자주식회사 | Method and apparatus of Image Processing using feedback route |
KR20080113325A (en) * | 2008-11-18 | 2008-12-30 | 이동수 | Apparatus of transmitting real time moving picture using wireless multiple access, apparatus of receiving real time moving picture using wireless multiple access, apparatus of transmitting/receiving real time moving picture using wireless multiple access and method thereof |
-
2009
- 2009-10-28 KR KR1020090103009A patent/KR100968266B1/en not_active IP Right Cessation
-
2010
- 2010-10-26 WO PCT/KR2010/007361 patent/WO2011052960A2/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060131699A (en) * | 1998-09-18 | 2006-12-20 | 엘지전자 주식회사 | Method for processing image data |
KR20080037145A (en) * | 2006-10-25 | 2008-04-30 | 삼성전자주식회사 | System for providing image service, and method and apparatus therefor |
KR20090018527A (en) * | 2007-08-17 | 2009-02-20 | 삼성전자주식회사 | Method and apparatus for bit rate control |
KR20090077869A (en) * | 2008-01-12 | 2009-07-16 | (주) 이노티브잉크코리아 | Video processing system, video processing method and video transfer method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015119337A1 (en) * | 2014-02-06 | 2015-08-13 | 엘지전자 주식회사 | Method for performing wi-fi display service and device for same |
AU2014382177B2 (en) * | 2014-02-06 | 2017-03-16 | Lg Electronics Inc. | Method for performing Wi-Fi display service and device for same |
Also Published As
Publication number | Publication date |
---|---|
WO2011052960A3 (en) | 2011-09-01 |
KR100968266B1 (en) | 2010-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100975311B1 (en) | I-picture insertion on request | |
US9955212B2 (en) | Media content shifting | |
US20020170067A1 (en) | Method and apparatus for broadcasting streaming video | |
US10200633B2 (en) | Camera system, video selection apparatus and video selection method | |
WO2013025032A1 (en) | Receiving apparatus and receiving method thereof | |
US20140281999A1 (en) | Display device, two-way communication system and display information using method | |
WO2012128563A2 (en) | Heterogeneous network-based linked broadcast content transmitting/receiving device and method | |
US20110304739A1 (en) | Camera system, video selection apparatus and video selection method | |
JP2008507898A (en) | High-speed channel switching in digital media systems | |
WO2011052960A2 (en) | Real-time data transmission control system and control method thereof | |
JP2009502073A (en) | System for live television broadcasting from mobile phones | |
JP2007215069A (en) | Transmission apparatus, transmission method, receiving apparatus, receiving method, and transmission reception system | |
KR20080086262A (en) | Method and apparatus for sharing digital contents, and digital contents sharing system using the method | |
WO2016056804A1 (en) | Content processing apparatus and content processing method thereof | |
CA2303326C (en) | Receiver and transmitter-receiver | |
WO2012144795A2 (en) | Apparatus for outputting broadcast recorded by schedule recording and control method thereof | |
JP4665007B2 (en) | Surveillance video transmission apparatus and method | |
JP2010258489A (en) | Video display device, reception device, transmission and reception system, and video display method | |
US20110321106A1 (en) | Transmitter, receiver, communication equipment, communication system, transmission method and reception method | |
JP2003189278A (en) | Device for storing monitor video and method for monitoring video | |
US8872971B2 (en) | Video display apparatus, video processing method, and video display system | |
JP6468663B2 (en) | Video content distribution device | |
US20240305843A1 (en) | Information processing device, information processing method, and program | |
WO2015046854A1 (en) | Image display apparatus, server, method for operating the image display apparatus, and method for operating the server | |
WO2020166759A1 (en) | Method and apparatus for playing back video in accordance with requested video playback time |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10827044 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10827044 Country of ref document: EP Kind code of ref document: A2 |