WO2011071229A1 - 실감 통신 단말 장치 및 이를 이용한 실감 통신 방법 - Google Patents

실감 통신 단말 장치 및 이를 이용한 실감 통신 방법 Download PDF

Info

Publication number
WO2011071229A1
WO2011071229A1 PCT/KR2010/004990 KR2010004990W WO2011071229A1 WO 2011071229 A1 WO2011071229 A1 WO 2011071229A1 KR 2010004990 W KR2010004990 W KR 2010004990W WO 2011071229 A1 WO2011071229 A1 WO 2011071229A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensory
sensory information
communication
data
information
Prior art date
Application number
PCT/KR2010/004990
Other languages
English (en)
French (fr)
Inventor
김영일
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to CN2010800636375A priority Critical patent/CN102754519A/zh
Priority to US13/515,112 priority patent/US20120281770A1/en
Publication of WO2011071229A1 publication Critical patent/WO2011071229A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42607Internal components of the client ; Characteristics thereof for processing the incoming bitstream
    • H04N21/42615Internal components of the client ; Characteristics thereof for processing the incoming bitstream involving specific demultiplexing arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4343Extraction or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation

Definitions

  • the present invention relates to a sensory communication terminal device and a sensory communication method using the same.
  • Data transmitted and received through mobile phones is mainly composed of broadband multimedia data from messages to video.
  • various wired and wireless transmission technologies are being developed to transmit and receive broadband multimedia data.
  • the present invention is to provide a sensory communication terminal device for transmitting sensory information in the form of metadata in an Internet Protocol Television (IPTV) network and a sensory communication method using the same.
  • IPTV Internet Protocol Television
  • a sensory communication method comprising: sensing sensory information for sensory communication from a sensor for sensory communication when generating image data in the sensory communication terminal device; Converting the received sensory information into a stream form, converting the received sensory information into a metadata form of a transport stream, and encoding the image data according to the transport stream; And multiplexing the sensory information in the metadata form and the encoded image data to a base station.
  • a sensory communication method comprising: extracting a transport stream from packet data received from a base station; Separating the extracted transport stream into image data and metadata and then separating the sensor data into sensory information and image data; And converting the sensory information into a sensory communication signal and outputting the sensory signal so that a user can feel it, and decoding and outputting the image data.
  • Sensory communication terminal device in accordance with a feature of the present invention includes a sensor for sensory communication for sensing sensory information for sensory communication; Sensory communication signal conversion device for converting the sensory information into sensory communication signals; A meta data processor converting the sensory communication signal into meta data of a transport stream; A video data processor which receives video data and encodes the video data according to the transport stream; And a multiplexer processor for multiplexing the encoded image data and the sensory communication signal in the form of meta data and transmitting the multiplexed signal to a base station.
  • the present invention can implement sensory broadcasting by transmitting and receiving sensory information to implement sensory communication.
  • the present invention When the present invention is applied to the IPTV terminal, the present invention can generate an IPTV profit model through IPTV activation.
  • the present invention can deliver sensory information for personal broadcasting as well as receiving sensory information, so that personalized emotional communication can be provided.
  • FIG. 1 is a block diagram showing an internal configuration of a sensory communication terminal device according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an operation of a downlink for transmitting sensory information from a base station to a sensory communication terminal according to an exemplary embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating an operation of an uplink for transmitting sensory information from a sensory communication terminal device to a base station according to an exemplary embodiment of the present invention.
  • PES packetized elementary stream
  • FIG. 1 is a block diagram showing an internal configuration of a sensory communication terminal device according to an embodiment of the present invention.
  • the sensory communication terminal device 100 includes a physical layer / baseband processor 102, a mobile terminal MAC (Media Access Control) layer processor 104, a media demultiplexer (Media DEMUX) processor 106, Image data processing unit 108, video and audio output unit 110, in band metadata processing unit 112, out band metadata processing unit 114, sensory communication signal converter 116, sensory signal output device 118,
  • the mobile terminal application layer processor 120 and the user interface 122 are included.
  • the physical layer / baseband processor 102 demodulates a radio signal received from the base station and transmits the video signal and data to the mobile terminal MAC layer processor 104.
  • the mobile terminal MAC layer processing unit 104 extracts a packet from data received from the physical layer / baseband processing unit 102 and restores the MPEG video data transport stream (TS).
  • TS MPEG video data transport stream
  • the media demultiplexer processor 106 receives the MPEG video data transport stream (TS) from the mobile terminal MAC layer processor 104 and separates the metadata into video data.
  • TS MPEG video data transport stream
  • metadata refers to data and other application data necessary for reproducing video and audio data in an IPTV system.
  • TS cuts the packetized elementary stream (PES) 200, which is a transmission form of video and audio MPEG (MovIng Picture Experts Group), in units of 184 bytes, adds 4 bytes of headers, and then converts one or more audio and video into one stream.
  • PES packetized elementary stream
  • MPEG MovIng Picture Experts Group
  • the media demultiplexer processor 106 extracts the in-band metadata present in the TS and transmits the in-band metadata to the in-band metadata processor 112 and extracts the out-band metadata from the other channel to the out-band metadata processor 114
  • the image data is extracted and transmitted to the image data processor 108.
  • the in band metadata is data included in a TS composed of a video and an audio in an IPTV broadcast program and includes control information necessary for reproducing the video and the audio of the broadcast program.
  • the out band metadata means data transmitted through the TS of the channel other than the TS of the broadcast program.
  • the image data processor 108 decodes the image data extracted by the media demultiplexer processor 106.
  • the video / audio output unit 110 outputs the decoded video data and the audio of the video data processor 108.
  • the in-band metadata processing unit 112 separates the sensory information from the in-band metadata received from the media demultiplexer processing unit 106 into a tactile signal, an olfactory signal, a taste signal, and a visual signal, respectively, and then converts the signal converter for sensory communication (116). To send).
  • the out band metadata processing unit 114 separates the sensory information from the out band metadata received from the media demultiplexer processing unit 106 into a tactile signal, an olfactory signal, a taste signal, and a visual signal, and then outputs a sensory communication signal converter 116. To send).
  • the sensory communication signal converter 116 converts sensory information received by the in-band metadata processing unit 112 or the out-band metadata processing unit 114 into a sensory communication signal.
  • the sensory signal output device 118 outputs the converted sensory communication signal as a sensory signal so that a user can feel it.
  • the video signal generated by the sensory communication terminal device 100 is input to the video-audio input unit 128, encoded by the video data processor 108 according to TS, transmitted to the multiplexer processor 124, and converted into meta data. Multiplexed data is transmitted to the mobile station MAC layer processing unit 104 and then transmitted to the base station via the physical layer / baseband processing unit 102.
  • the sensory communication signal extracted by the sensory communication signal converter 116 is converted into metadata in the in-band metadata processing unit 112 or the out-band metadata processing unit 114 and then transmitted to the multiplexer processing unit 124.
  • the mobile terminal application layer processor 120 performs control of the mobile communication physical layer and the MAC layer and performs control functions related to the IPTV service for receiving the IPTV service.
  • the user interface 122 performs a user interface function between the user and the sensory communication terminal device 100.
  • FIG. 2 is a flowchart illustrating an operation of a downlink for transmitting sensory information from a base station to a sensory communication terminal according to an exemplary embodiment of the present invention.
  • the radio signal received from the base station is subjected to a demodulation process, a channel decoding process, a MAC protocol process through the physical layer / baseband processor 102 and the mobile terminal MAC layer processor 104 (S100 and S102).
  • the media demultiplexer processor 106 receives an MPEG video data transport stream (TS) from the mobile terminal MAC layer processor 104.
  • TS MPEG video data transport stream
  • the TS is separated into image data and meta data by the media demultiplexer processing unit 106 (S104), and then the image data is decoded by the image data processing unit 108 and output by the image audio output unit 110 (S106, S108). , S110).
  • the TS is restored from the in-band metadata processing unit 112 or the out-band metadata processing unit 114 to a packetized elementary stream (PES) 200, which is a transmission form of a MoVIng Picture Experts Group (MPEG).
  • PES packetized elementary stream
  • MPEG MoVIng Picture Experts Group
  • the sensory information is converted into sensory communication signals by the sensory communication signal converter 116 and output as sensory signals that a user can feel through the sensory signal output device 118 (S112, S116, and S118).
  • the video and audio data are used by the video data processor 108 to perform a video and audio decoding process (S112 and S114).
  • FIG. 3 is a flowchart illustrating an operation of an uplink for transmitting sensory information from a sensory communication terminal device to a base station according to an exemplary embodiment of the present invention.
  • the video data generated by the sensory communication terminal device 100 is input through the video audio input unit 128 and encoded by the video data processing unit 108 into video data and audio data according to TS (S200 and S202).
  • the sensory signal After the sensory signal is input from the sensory communication sensor 126, it is converted into a sensory communication signal via the sensory communication signal converter 116 (S204, S206).
  • the in-band metadata processing unit 112 or the out-band metadata processing unit 114 converts the sensory communication signals into data and mounts them in a packetized elementary stream (PES) 200, which is a transmission form of a MovIng Picture Experts Group (MPEG).
  • PES packetized elementary stream
  • MPEG MovIng Picture Experts Group
  • the data is converted into a meta data form of TS for transmission to the multiplexer processing unit 124 (S208).
  • the multiplexer processor 124 multiplexes the meta data of the TS, the encoded image data, and the audio data (S210).
  • the signal that has undergone the multiplexing process is processed by the mobile terminal MAC layer processing unit 104 according to the mobile communication MAC protocol and then transmitted to the base station via the physical layer / baseband processing unit 102 (S212, S214, S216).
  • PES packetized elementary stream
  • the PES 200 designates the presence or absence of the sensory information 206 by utilizing the bits 1111 1100,... 1111 1110 reserved in the stream id 202.
  • the stream id 202 is set to (1111 1100, ... 1111 1110) and the sensory type 204 may be generated from the PES packet data.
  • the sensory information 206 is specified in bitmap form and transmitted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

실감 통신 단말 장치는 실감 통신을 위해 실감 정보를 센싱하는 실감 통신용 센서와, 실감 정보를 실감용 통신 신호로 변환하는 실감 통신용 신호 변환 장치와, 실감용 통신 신호를 전송 스트림(Transport Stream)의 메타 데이터로 변환하는 메타 데이터 처리부와, 영상 데이터를 입력받아 전송 스트림에 맞게 인코딩하는 영상 데이터 처리부 및 인코딩된 영상 데이터와 메타 데이터 형태의 실감용 통신 신호를 다중화하여 기지국으로 전송하는 멀티플렉서 처리부를 포함한다.

Description

실감 통신 단말 장치 및 이를 이용한 실감 통신 방법
본 발명은 실감 통신 단말 장치 및 이를 이용한 실감 통신 방법에 관한 것이다.
현대인의 필수품인 휴대전화는 어디서나 필요한 영상 및 데이터 정보를 송수신해주는 중요한 장치로 광범위하게 사용되고 있다.
휴대전화를 통해 송수신 되는 데이터는 메시지부터 영상까지의 광대역 멀티미디어 데이터가 주류를 이루고 있다. 이러한 휴대전화는 광대역 멀티미디어 데이터를 송수신하기 위해 다양한 유무선 전송 기술이 개발되고 있다.
최근의 휴대전화는 광대역 멀티미디어 데이터를 송수신 기술에서 더 나아가 개인 방송을 위한 촉각, 후각, 미각, 촉각 등의 실감 정보를 전달하는 실감 통신이 시도되고 있다.
그러나 현재까지 실감 통신은 개인이 휴대하고 통신하는 휴대단말에서 적용되고 있지 않고 있다.
이와 같은 문제점을 해결하기 위하여, 본 발명은 인터넷 프로토콜 텔레비젼(Internet Protocol Television, IPTV) 망에서 실감 정보를 메타 데이터 형태로 전송하는 실감 통신 단말 장치 및 이를 이용한 실감 통신 방법을 제공하기 위한 것이다.
이러한 기술적 과제를 달성하기 위한 본 발명의 특징에 따른 실감 통신 방법은 상기 실감 통신 단말 장치에서 영상 데이터를 생성하는 경우 실감 통신용 센서로부터 실감 통신을 위해 실감 정보를 센싱하여 수신하는 단계; 상기 수신한 실감 정보를 데이터화하여 스트림 형태에 탑재하고 전송 스트림(Transport Stream)의 메타 데이터 형태로 변환하며 상기 영상 데이터를 상기 전송 스트림에 맞게 인코딩하는 단계; 및 상기 메타 데이터 형태의 실감 정보와 상기 인코딩된 영상 데이터를 다중화하여 기지국으로 전송하는 단계를 포함한다.
본 발명의 특징에 따른 실감 통신 방법은 기지국으로부터 수신한 패킷 데이터에서 전송 스트림(Transport Stream)을 추출하는 단계; 상기 추출한 전송 스트림에서 영상 데이터와 메타 데이터로 분리한 후 실감 정보와 영상 데이터로 분리하는 단계; 및 상기 실감 정보를 실감 통신용 신호로 변환한 후 사용자가 느낄 수 있도록 실감 신호로 출력하고 상기 영상 데이터를 디코딩하여 출력하는 단계를 포함한다.
본 발명의 특징에 따른 실감 통신 단말 장치는 실감 통신을 위해 실감 정보를 센싱하는 실감 통신용 센서; 상기 실감 정보를 실감용 통신 신호로 변환하는 실감 통신용 신호 변환 장치; 상기 실감용 통신 신호를 전송 스트림(Transport Stream)의 메타 데이터로 변환하는 메타 데이터 처리부; 영상 데이터를 입력받아 상기 전송 스트림에 맞게 인코딩하는 영상 데이터 처리부; 및 상기 인코딩된 영상 데이터와 상기 메타 데이터 형태의 실감용 통신 신호를 다중화하여 기지국으로 전송하는 멀티플렉서 처리부를 포함한다.
전술한 구성에 의하여, 본 발명은 실감 정보를 송수신하여 실감 통신을 구현함으로써 실감 방송을 구현할 수 있다.
본 발명은 실감 통신을 IPTV 단말에 적용하는 경우, IPTV 활성화를 통해 IPTV 수익 모델을 창출할 수 있다.
본 발명은 실감 정보의 수신뿐 아니라 개인 방송을 위한 실감 정보를 전달할 수 있어 개인화된 감정 통신을 제공받을 수 있다.
도 1은 본 발명의 실시예에 따른 실감 통신 단말 장치의 내부 구성을 나타낸 블록 구성도이다.
도 2는 본 발명의 실시예에 따른 기지국에서 실감 통신 단말 장치로 실감 정보를 전송하는 하향 링크에 대한 동작 흐름도를 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 실감 통신 단말 장치에서 기지국으로 실감 정보를 전송하는 상향 링크에 대한 동작 흐름도를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 실감 정보를 포함하는 PES(Packetized Elementary Stream)을 나타낸 도면이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 발명의 실시예에 따른 실감 통신 단말 장치의 내부 구성을 나타낸 블록 구성도이다.
본 발명의 실시예에 따른 실감 통신 단말 장치(100)는 물리계층/기저대역 처리부(102), 이동단말 MAC(Media Access Control) 계층 처리부(104), 미디어 디멀티플렉서(Media DEMUX) 처리부(106), 영상 데이터 처리부(108), 영상 음성 출력부(110), In band 메타 데이터 처리부(112), Out band 메타 데이터 처리부(114), 실감 통신용 신호 변환 장치(116), 실감 신호 출력 장치(118), 이동단말 응용 계층 처리부(120) 및 사용자 인터페이스부(122)를 포함한다.
물리계층/기저대역 처리부(102)는 기지국으로부터 수신한 무선 신호를 복조하여 영상 신호 및 데이터를 이동단말 MAC 계층 처리부(104)로 전송한다.
이동단말 MAC 계층 처리부(104)는 물리계층/기저대역 처리부(102)로부터 수신한 데이터에서 패킷을 추출하여 MPEG 영상 데이터 트랜스포트 스트림(Transport Stream, TS)를 복원한다.
미디어 디멀티플렉서 처리부(106)는 이동단말 MAC 계층 처리부(104)로부터 MPEG 영상 데이터 트랜스포트 스트림(Transport Stream, TS)을 수신하여 메타 데이터와 영상 데이터로 분리한다. 이하에서, MPEG 영상 데이터 트랜스포트 스트림은 설명의 편의를 위해 TS로 나타낸다. 또한, 메타 데이터는 IPTV 시스템에서 영상 및 음성 데이터를 재생하는데 필요한 데이터 및 기타 응용 데이터를 의미한다.
여기서, TS는 영상 및 음성 MPEG(MovIng Picture Experts Group)의 전송 형태인 PES(Packetized Elementary Stream)(200)를 184byte 단위로 자른 후 4byte의 헤더를 추가한 후 하나 이상의 음성, 영상을 하나의 스트림으로 구성한다.
미디어 디멀티플렉서 처리부(106)는 TS에 존재하는 In band 메타 데이터를 추출하여 In band 메타 데이터 처리부(112)로 전송하고 다른 채널에서 Out band 메타 데이터를 추출하여 Out band 메타 데이터 처리부(114)로 전송하며, 영상 데이터를 추출하여 영상 데이터 처리부(108)로 전송한다. 여기서, In band 메타 데이터는 IPTV 방송 프로그램에서 영상 및 음성으로 구성된 TS에 포함되는 데이터로서 해당 방송 프로그램의 영상 및 음성을 재생할 때 필요한 제어 정보를 포함한다. 여기서, Out band 메타 데이터는 해당 방송 프로그램의 TS 이외에 다른 채널의 TS를 통해서 전송되는 데이터를 의미한다.
영상 데이터 처리부(108)는 미디어 디멀티플렉서 처리부(106)에서 추출한 영상 데이터를 디코딩한다.
영상 음성 출력부(110)는 영상 데이터 처리부(108)의 디코딩된 영상 데이터및 음성을 출력한다.
In band 메타 데이터 처리부(112)는 미디어 디멀티플렉서 처리부(106)로부터 수신한 In band 메타 데이터에서 실감 정보를 각각 촉각 신호, 후각 신호, 미각 신호, 시각 신호로 분리한 후, 실감 통신용 신호 변환 장치(116)로 전송한다.
Out band 메타 데이터 처리부(114)는 미디어 디멀티플렉서 처리부(106)로부터 수신한 Out band 메타 데이터에서 실감 정보를 각각 촉각 신호, 후각 신호, 미각 신호, 시각 신호로 분리한 후, 실감 통신용 신호 변환 장치(116)로 전송한다.
실감 통신용 신호 변환 장치(116)는 In band 메타 데이터 처리부(112) 또는 Out band 메타 데이터 처리부(114)에서 수신한 실감 정보를 실감 통신용 신호로 변환한다.
실감 신호 출력 장치(118)는 변환된 실감 통신용 신호를 사용자가 느낄 수 있도록 실감 신호로 출력한다.
실감 통신 단말 장치(100)에서 생성한 영상 신호는 영상 음성 입력부(128)로 입력되고 영상 데이터 처리부(108)에서 TS에 맞게 인코딩되어 멀티플렉서 처리부(124)로 전송되며 메타 데이터로 변환된 실감 정보와 다중화되어 이동단말 MAC 계층 처리부(104)로 전송된 후 물리계층/기저대역 처리부(102)를 거쳐 기지국으로 송신된다.
실감 통신용 신호 변환 장치(116)에서 추출된 실감 통신용 신호는 In band 메타 데이터 처리부(112) 또는 Out band 메타 데이터 처리부(114)에서 메타 데이터 형태로 변환된 후 멀티플렉서 처리부(124)로 전송된다.
이동단말 응용 계층 처리부(120)는 이동통신 물리계층 및 MAC 계층에 대한 제어와 IPTV 서비스를 제공받기 위한 IPTV 서비스 관련 제어 기능을 수행한다.
사용자 인터페이스부(122)는 사용자와 실감 통신 단말 장치(100) 간의 사용자 인터페이스 기능을 수행한다.
도 2는 본 발명의 실시예에 따른 기지국에서 실감 통신 단말 장치로 실감 정보를 전송하는 하향 링크에 대한 동작 흐름도를 나타낸 도면이다.
기지국으로부터 수신된 무선 신호는 물리계층/기저대역 처리부(102), 이동단말 MAC 계층 처리부(104)를 거쳐 복조 과정, 채널 디코딩 과정, MAC 프로토콜 처리 과정을 거친다(S100, S102).
미디어 디멀티플렉서 처리부(106)는 이동단말 MAC 계층 처리부(104)로부터 MPEG 영상 데이터 트랜스포트 스트림(Transport Stream, TS)을 수신한다.
TS는 미디어 디멀티플렉서 처리부(106)에서 영상 데이터와 메타 데이터로 분리된 후(S104), 영상 데이터를 영상 데이터 처리부(108)에서 디코딩 과정을 거치고 영상 음성 출력부(110)에서 출력한다(S106, S108, S110). 또한, TS는 메타 데이터의 경우 In band 메타 데이터 처리부(112) 또는 Out band 메타 데이터 처리부(114)에서 MPEG(MovIng Picture Experts Group)의 전송 형태인 PES(Packetized Elementary Stream)(200)로 복원된 후, 실감 정보와 영상 및 음성 데이터로 분리한다(S112).
실감 정보는 실감 통신용 신호 변환 장치(116)에서 실감 통신용 신호로 변환하고 실감 신호 출력 장치(118)를 통해 사용자가 느낄 수 있는 실감 신호로 출력한다(S112, S116, S118).
영상 및 음성 데이터는 영상 데이터 처리부(108)에서 영상 음성 디코딩 과정을 수행하는데 이용된다(S112, S114).
도 3은 본 발명의 실시예에 따른 실감 통신 단말 장치에서 기지국으로 실감 정보를 전송하는 상향 링크에 대한 동작 흐름도를 나타낸 도면이다.
실감 통신 단말 장치(100)에서 생성된 영상 데이터는 영상 음성 입력부(128)를 통해 입력되고 영상 데이터 처리부(108)에서 TS에 맞게 영상 데이터, 음성 데이터로 각각 인코딩된다(S200, S202).
실감 신호는 실감 통신용 센서(126)로부터 입력된 후, 실감 통신용 신호 변환 장치(116)를 거쳐 실감 통신용 신호로 변환된다(S204, S206).
In band 메타 데이터 처리부(112) 또는 Out band 메타 데이터 처리부(114)는 실감 통신용 신호를 데이터화하여 MPEG(MovIng Picture Experts Group)의 전송 형태인 PES(Packetized Elementary Stream)(200)에 탑재하고, 실감 통신을 위한 TS의 메타 데이터 형태로 변환 처리하여 멀티플렉서 처리부(124)로 전송한다(S208).
멀티플렉서 처리부(124)는 TS의 메타 데이터와 인코딩된 영상 데이터, 음성 데이터를 다중화 과정을 거친다(S210).
다중화 과정을 거친 신호는 이동단말 MAC 계층 처리부(104)에서 이동 통신용 MAC 프로토콜에 맞게 처리된 후 물리계층/기저대역 처리부(102)를 거쳐 기지국으로 송신된다(S212, S214, S216).
도 4는 본 발명의 실시예에 따른 실감 정보를 포함하는 PES(Packetized Elementary Stream)을 나타낸 도면이다.
본 발명의 실시예에 따른 PES(200)는 스트림 id(202) 중 유보되어 있는 비트(1111 1100, ... 1111 1110)를 활용하여 실감 정보(206)의 유무를 지정해준다.
PES(200)는 실감 정보(206)가 포함되어 있는 경우, 스트림 id(202)가 (1111 1100, ... 1111 1110)로 셋팅이 되며 PES 패킷 데이터에서 실감 형태(Sense Type)(204)과 실감 정보(206)를 비트맵 형태로 지정하여 전송해준다.
이상에서 설명한 본 발명의 실시예는 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.

Claims (10)

  1. 실감 통신 단말 장치에서의 실감 정보를 전송하는 실감 통신 방법에 있어서,
    상기 실감 통신 단말 장치에서 영상 데이터를 생성하는 경우 실감 통신용 센서로부터 실감 통신을 위해 실감 정보를 센싱하여 수신하는 단계;
    상기 수신한 실감 정보를 데이터화하여 스트림 형태에 탑재하고 전송 스트림(Transport Stream)의 메타 데이터 형태로 변환하며 상기 영상 데이터를 상기 전송 스트림에 맞게 인코딩하는 단계; 및
    상기 메타 데이터 형태의 실감 정보와 상기 인코딩된 영상 데이터를 다중화하여 기지국으로 전송하는 단계
    를 포함하는 실감 통신 방법.
  2. 제1항에 있어서,
    상기 인코딩하는 단계는,
    상기 수신한 실감 정보를 데이터화하여 MPEG(MovIng Picture Experts Group)의 전송 형태인 PES(Packetized Elementary Stream)에 탑재하는 실감 통신 방법.
  3. 제2항에 있어서,
    상기 PES는 스트림 아이디 중 유보되어 있는 비트를 이용하여 상기 실감 정보의 유무를 나타내고 패킷 데이터 영역을 이용하여 상기 실감 정보를 포함하는 실감 통신 방법.
  4. 실감 통신 단말 장치에서의 실감 정보를 전송하는 실감 통신 방법에 있어서,
    기지국으로부터 수신한 패킷 데이터에서 전송 스트림(Transport Stream)을 추출하는 단계;
    상기 추출한 전송 스트림에서 영상 데이터와 메타 데이터로 분리한 후 실감 정보와 영상 데이터로 분리하는 단계; 및
    상기 실감 정보를 실감 통신용 신호로 변환한 후 사용자가 느낄 수 있도록 실감 신호로 출력하고 상기 영상 데이터를 디코딩하여 출력하는 단계
    를 포함하는 실감 통신 방법.
  5. 제4항에 있어서,
    상기 실감 정보는 MPEG(MovIng Picture Experts Group)의 전송 형태인 PES(Packetized Elementary Stream)에서 실감 형태의 식별자를 통해 분류하여 페이로드에 탑재되는 실감 통신 방법.
  6. 제4항에 있어서,
    상기 스트림 형태는 PEG(MovIng Picture Experts Group)의 전송 형태인 PES(Packetized Elementary Stream)이며, 상기 PES는 스트림 아이디 중 유보되어 있는 비트를 이용하여 상기 실감 정보의 유무를 나타내고 패킷 데이터 영역을 이용하여 상기 실감 정보를 포함하는 실감 통신 방법.
  7. 실감 통신 서비스를 제공하는 실감 통신 단말 장치에 있어서,
    실감 통신을 위해 실감 정보를 센싱하는 실감 통신용 센서;
    상기 실감 정보를 실감용 통신 신호로 변환하는 실감 통신용 신호 변환 장치;
    상기 실감용 통신 신호를 전송 스트림(Transport Stream)의 메타 데이터로 변환하는 메타 데이터 처리부;
    영상 데이터를 입력받아 상기 전송 스트림에 맞게 인코딩하는 영상 데이터 처리부; 및
    상기 인코딩된 영상 데이터와 상기 메타 데이터 형태의 실감용 통신 신호를 다중화하여 기지국으로 전송하는 멀티플렉서 처리부
    를 포함하는 실감 통신 단말 장치.
  8. 제7항에 있어서,
    기지국으로부터 수신한 패킷 데이터에서 상기 전송 스트림(Transport Stream)을 추출하고 상기 전송 스트림에서 상기 영상 데이터와 상기 메타 데이터를 분리하는 미디어 디멀티플렉서 처리부
    를 더 포함하는 실감 통신 단말 장치.
  9. 제7항에 있어서,
    상기 메타 데이터 처리부는 상기 메타 데이터를 PES(Packetized Elementary Stream)로 복원한 후, 상기 실감 정보와 영상 및 음성 데이터로 분리하는 실감 통신 단말 장치.
  10. 제9항에 있어서,
    상기 PES는 스트림 아이디 중 유보되어 있는 비트를 이용하여 상기 실감 정보의 유무를 나타내고 패킷 데이터 영역을 이용하여 상기 실감 정보를 포함하는 실감 통신 단말 장치.
PCT/KR2010/004990 2009-12-11 2010-07-29 실감 통신 단말 장치 및 이를 이용한 실감 통신 방법 WO2011071229A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2010800636375A CN102754519A (zh) 2009-12-11 2010-07-29 真实通信终端装置和使用其的真实通信方法
US13/515,112 US20120281770A1 (en) 2009-12-11 2010-07-29 Real-sense communication terminal and real-sense communication method using the same

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20090123310 2009-12-11
KR10-2009-0123310 2009-12-11
KR10-2010-0029301 2010-03-31
KR1020100029301A KR101328173B1 (ko) 2009-12-11 2010-03-31 실감 통신 단말 장치 및 이를 이용한 실감 통신 방법

Publications (1)

Publication Number Publication Date
WO2011071229A1 true WO2011071229A1 (ko) 2011-06-16

Family

ID=44399581

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/004990 WO2011071229A1 (ko) 2009-12-11 2010-07-29 실감 통신 단말 장치 및 이를 이용한 실감 통신 방법

Country Status (4)

Country Link
US (1) US20120281770A1 (ko)
KR (1) KR101328173B1 (ko)
CN (1) CN102754519A (ko)
WO (1) WO2011071229A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013181036A1 (en) * 2012-05-31 2013-12-05 Magnum Semiconductor, Inc. Transport stream multiplexers and methods for providing packets on a transport stream

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050045700A (ko) * 2003-11-12 2005-05-17 한국전자통신연구원 오감 데이터 동기화 전송 장치 및 그 방법과 그를 이용한실감형 멀티미디어 데이터 제공 시스템 및 그 방법
KR20070105770A (ko) * 2006-04-27 2007-10-31 성균관대학교산학협력단 감각 데이터의 가공 시스템 및 그 가공 방법
KR20080053175A (ko) * 2006-12-08 2008-06-12 한국전자통신연구원 비실시간 기반의 디지털 실감방송 송수신 시스템 및 그방법
KR20090038835A (ko) * 2007-10-16 2009-04-21 한국전자통신연구원 실감 미디어 생성 및 소비 방법 및 그 장치 및 실감 미디어메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체
KR20090057873A (ko) * 2007-12-03 2009-06-08 한국전자통신연구원 멀티미디어 메타데이터 관리 장치 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4662085B2 (ja) * 2006-03-27 2011-03-30 日本電気株式会社 動画像蓄積システム、動画像蓄積方法および動画像蓄積プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050045700A (ko) * 2003-11-12 2005-05-17 한국전자통신연구원 오감 데이터 동기화 전송 장치 및 그 방법과 그를 이용한실감형 멀티미디어 데이터 제공 시스템 및 그 방법
KR20070105770A (ko) * 2006-04-27 2007-10-31 성균관대학교산학협력단 감각 데이터의 가공 시스템 및 그 가공 방법
KR20080053175A (ko) * 2006-12-08 2008-06-12 한국전자통신연구원 비실시간 기반의 디지털 실감방송 송수신 시스템 및 그방법
KR20090038835A (ko) * 2007-10-16 2009-04-21 한국전자통신연구원 실감 미디어 생성 및 소비 방법 및 그 장치 및 실감 미디어메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체
KR20090057873A (ko) * 2007-12-03 2009-06-08 한국전자통신연구원 멀티미디어 메타데이터 관리 장치 및 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013181036A1 (en) * 2012-05-31 2013-12-05 Magnum Semiconductor, Inc. Transport stream multiplexers and methods for providing packets on a transport stream
US9118425B2 (en) 2012-05-31 2015-08-25 Magnum Semiconductor, Inc. Transport stream multiplexers and methods for providing packets on a transport stream
US9277254B2 (en) 2012-05-31 2016-03-01 Magnum Semiconductor, Inc. Transport stream multiplexers and methods for providing packets on a transport stream
US10075749B2 (en) 2012-05-31 2018-09-11 Integrated Device Technology, Inc. Transport stream multiplexers and methods for providing packets on a transport stream

Also Published As

Publication number Publication date
KR101328173B1 (ko) 2013-11-13
US20120281770A1 (en) 2012-11-08
CN102754519A (zh) 2012-10-24
KR20110066828A (ko) 2011-06-17

Similar Documents

Publication Publication Date Title
CN1722801B (zh) 紧急告警消息数据结构、处理方法以及广播接收机
WO2012093846A2 (en) Apparatus and method for supporting variable length of transport packet in video and audio communication system
WO2009093292A1 (ja) 動画像送受信システム
WO2016129981A1 (ko) 미디어 데이터를 송수신하는 방법 및 장치
MX9601148A (es) Metodo y sistema de transmision para compresion de imagenes bajo la norma jpeg.
WO2015109904A1 (zh) 基于usb接口识别多路传输流的方法
WO2012023837A2 (en) Method and apparatus for encoding and decoding multilayer videos
JP2007006349A (ja) データ伝送システム、送信装置、受信装置、およびデータ伝送方法
RU2004125654A (ru) Усовершенствованная передача ассоциированных идентификаторов содержимого (crid) tv-anytime
KR20070080730A (ko) 디지털 멀티미디어 방송 제한 서비스 시스템 및 그 방법
EP2471259A2 (en) Method and system for wireless communication of audio in wireless networks
CN103733612A (zh) 用于在数字广播系统中发送和接收用于广播服务接收的信令信息的方法及装置
US8660123B2 (en) Broadcast-content transmission apparatus, and broadcast-content transmission method
WO2017043702A1 (ko) 통신 시스템의 암호화 패킷 전송 방법
EP1936884A1 (en) Relay unit, communication terminal and communication method
WO2011071229A1 (ko) 실감 통신 단말 장치 및 이를 이용한 실감 통신 방법
WO2015023124A1 (en) Transmitting apparatus, receiving apparatus, and data processing method thereof
US11838099B2 (en) Reception apparatus and data processing method
KR102153991B1 (ko) 재난 방송 메시지 프레임을 모니터링 및 분석하는 검증장치, 자동인지 재난방송 송신 시스템 및 자동인지 재난방송 수신 장치
WO2015105342A1 (ko) 디지털 방송 시스템에서 시그널링 정보를 송수신하는 장치 및 방법
KR102514752B1 (ko) 송신 장치, 수신 장치 및 데이터 처리 방법
CN101102509A (zh) 一种移动多媒体广播系统的数据同步方法
WO2008022500A1 (fr) Procédé de transmission différenciée de l'information de commande et de l'information média d'une diffusion multimédia mobile
JP2016510534A (ja) Mpeg2−ts互換データストリームを無線で送信するための送信装置
WO2018016694A1 (ko) 복호 정보 고속 취득이 가능한 방송 송신기와 수신기 및 그 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080063637.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10836126

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13515112

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 10836126

Country of ref document: EP

Kind code of ref document: A1