KR20080049701A - 단말의 성능을 고려한 멀티미디어 서비스 제공방법 및 그에사용되는 단말기 - Google Patents

단말의 성능을 고려한 멀티미디어 서비스 제공방법 및 그에사용되는 단말기 Download PDF

Info

Publication number
KR20080049701A
KR20080049701A KR1020080045156A KR20080045156A KR20080049701A KR 20080049701 A KR20080049701 A KR 20080049701A KR 1020080045156 A KR1020080045156 A KR 1020080045156A KR 20080045156 A KR20080045156 A KR 20080045156A KR 20080049701 A KR20080049701 A KR 20080049701A
Authority
KR
South Korea
Prior art keywords
terminal
information
data
capability
multimedia
Prior art date
Application number
KR1020080045156A
Other languages
English (en)
Other versions
KR100896688B1 (ko
Inventor
서덕영
Original Assignee
경희대학교 산학협력단
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단, 삼성전자주식회사 filed Critical 경희대학교 산학협력단
Priority to KR1020080045156A priority Critical patent/KR100896688B1/ko
Publication of KR20080049701A publication Critical patent/KR20080049701A/ko
Application granted granted Critical
Publication of KR100896688B1 publication Critical patent/KR100896688B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

단말의 성능(capability)을 반영하여 멀티미디어 서비스를 제공하는 방법, 수신하는 방법 및 그에 사용되는 단말기가 개시된다. 본 발명에 따라, 멀티미디어 서비스 제공방법은 (a) 단말기의 성능(capability) 관련 정보를 수신하는 단계; 및 (b) 상기 수신한 정보에 따라 데이터를 가공하여 상기 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다. 이에 의해, 서버나 프락시 서버가 단말기의 가용 자원 정보를 알고 있기 때문에 단말기에서 처리할 수 없는 높은 품질의 데이터를 전송하거나, 단말기가 처리할 수 있는 품질보다 훨씬 낮은 품질의 데이터를 전송하거나 하는 것을 방지할 수 있다.

Description

단말의 성능을 고려한 멀티미디어 서비스 제공방법 및 그에 사용되는 단말기 {Multimedia service providing method considering a terminal capability, and terminal used therein}
본 발명은 멀티미디어 서비스에 관한 것으로, 보다 상세하게는 단말의 성능(capability)을 반영하여 멀티미디어 서비스를 제공하는 방법, 수신하는 방법 및 그에 사용되는 단말기에 관한 것이다.
이동통신 단말기의 보급이 증가함에 따라 이동통신망을 이용한 여러 가지 응용 서비스가 활성화되어 가는 추세에 있으며, 이에 따라 통신망 사업자는 음성통화 위주의 이동통신 서비스에서 인터넷 서비스 및 멀티미디어 서비스를 이동통신 단말기를 통해 제공하는 것에 대하여 중점을 두고 있다. 무선통신망을 이용한 멀티미디어 서비스는 휴대전화 이외에도 PDA(Personal Digital Assistance) 및 차량에 장착되는 무선 멀티미디어 단말기를 통하여 제공될 수 있다.
한편, 동영상 압축 기술에 관한 표준화 작업을 수행하고 있는 MPEG(Moving Picture Expert Group)-4 에서는 여러 제약 조건이 존재하는 단말기가 이러한 다양한 멀티미디어 서비스를 수용하기 위한 경응용 장면 표현(Lightweight Application Scene Representation, LASeR)에 대한 표준화를 진행중에 있다. 즉, 현재의 MPEG-4 표준을 확장하여, 이동통신 단말기와 같은 제한된 환경에 적합한 장면표현 방법을 표준화하는 것을 목표로 한다.
이동통신 서비스 시스템에서는 통신채널과 단말기의 자원이 제한적이다. 채널의 대역폭, 손실, 지연이 주위환경과 시간에 따라 수시로 변하고, 단말기의 소비전력, CPU, 메모리 용량이 매우 제한적이다. 이러한 제한적인 환경에서 주어진 자원을 최대한 활용하기 위해서는 환경에 적응적으로 멀티미디어 컨텐츠를 제공할 수 있어야 하고, 그러기 위해서는 단말기의 가용 자원 및 상태를 알고 있어야 한다. 그러나 종래에는 이러한 정보를 고려하지 않았기 때문에 서비스의 수신중에 서비스가 끊기거나 단말기가 다운되는 등의 문제가 있었다.
따라서, 본 발명이 이루고자 하는 기술적 과제는 단말의 성능(capability)을 반영하여 멀티미디어 서비스를 제공하는 방법, 수신하는 방법 및 그에 사용되는 단말기를 제공하는 것이다.
상기 기술적 과제는 본 발명에 따라, (a) 단말기의 성능(capability) 관련 정보를 수신하는 단계; 및 (b) 상기 수신한 정보에 따라 데이터를 가공하여 상기 단말기로 전송하는 단계를 포함하는 것을 특징으로 하는 멀티미디어 서비스 제공방법에 의해서 달성된다.
상기 (a) 단계는, (a1) 단말기의 성능관련 정보를 문의하는 단계; (a2) 상기 정보를 적어도 하나의 센서를 통하여 측정하는 단계; 및 (a3) 측정된 값을 양자화한 값으로 변환한 값으로 수신하는 단계를 포함하는 것이 바람직하다.
또한, 상기 성능관련 정보는, 차량내부망으로부터 전송되는 차량의 가속도와 위치정보; 및 수신된 신호의 세기와 가용 비트율 정보를 포함하는 것이 바람직하다.
상기 (b) 단계는 상기 수신한 정보에 따라, 전송한 데이터의 서비스 품질(QoS)을 변경시켜 상기 단말기로 전송하는 것이 바람직하다.
또한, 상기 기술적 과제는 (a) 단말기의 성능(capability) 관련 정보를 전송하는 단계; 및 (b) 상기 전송한 정보에 따라 가공된 데이터를 수신하는 단계를 포 함하는 것을 특징으로 하는 멀티미디어 서비스 수신방법에 의해서도 달성된다.
상기 (a) 단계는, (a1) 단말기의 성능관련 정보를 문의받는 단계; (a2) 상기 정보를 적어도 하나의 센서를 통하여 측정하는 단계; 및 (a3) 상기 측정된 값을 양자화한 값으로 변환한 값으로 전송하는 단계를 포함하는 것이 바람직하다.
또한, 상기 (b) 단계는 상기 전송한 정보에 따라, 데이터의 서비스 품질(QoS)을 변경시킨 장면 정보를, 부호화된 객체들간의 가상 시공간상의 배치를 기술하는 언어로 표현하여 만들어진 데이터를 수신하는 것이 바람직하다.
한편, 본 발명의 다른 분야에 따르면, 상기 기술적 과제는 단말기의 성능관련정보를 측정하는 적어도 하나의 센서; 상기 측정된 정보를 소정의 포맷으로 변환하는 TermCap 핸들러; 및 상기 소정의 포맷으로 수신된 정보를 소정의 시간 간격 또는 상기 서버의 요청에 따라 수신하여 네트워크 접속부를 통하여 상기 서버로 전송하는 경응용 장면 기술엔진을 포함하는 것을 특징으로 하는 멀티미디어 단말기에 의해서도 달성된다.
상기 센서는, 차량 내부망으로부터의 차량관련정보를 수신하는 제1센서; 및 상기 단말기가 수신하는 데이터의 전송과 관련된 정보를 수신하는 제2센서를 포함하는 것이 바람직하다.
전술한 바와 같이 본 발명에 따르면, 서버나 프락시 서버가 단말기의 가용 자원 정보를 알고 있기 때문에 단말기에서 처리할 수 없는 높은 품질의 데이터를 전송하거나, 단말기가 처리할 수 있는 품질보다 훨씬 낮은 품질의 데이터를 전송하 거나 하는 것을 방지할 수 있어 효율적이다.
즉, 신호의 세기값을 이용하여 핸드오프가 시작됨을 감지하고, 이에 따라 비디오의 기본 계층만 전송하여 전송률을 크게 떨어뜨리면서도 비디오 서비스는 계속 유지될 수 있다. 앞으로 4세대 무선 통신망에서는 셀의 크기가 피코셀(직경 100m) 정도로 작아지므로 핸드오프에 대한 대비가 더욱 필요한 점을 고려할 때 매우 효과적이다.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대해 상세히 설명한다.
MPEG-4에서는 자연영상을 비디오 객체(Video Object, VO) 단위로 나누고, 여러개의 비디오 객체(VO)들이 모여 특정의 시간에 복수의 비디오 객체평면(VOP)을 구성한다. VOP는 MPEG-4에서 다루는 영상 데이터의 기본단위이며, 정형형상의 경우에 VOP는 MPEG-1과 MPEG-2의 프레임 또는 필드에 해당된다. 또한 합성영상의 객체로 얼굴 객체, 메쉬 객체, 텍스쳐 객체가 정의되어 있다. 정형형상 비디오 객체의 부호화를 프레임 기반 부호화라고 하고 임의형상 비디오 객체의 부호화를 객체기반 또는 내용기반 부호화라고 한다. 그리고, 비디오 객체는 형상과 텍스처로 나뉘어 부호화되고, 이 과정에서 움직임 보상 및 예측 부호화가 이용된다. MPEG-4는 이러한 다양한 객체들을 통합한 멀티미디어 부호화 표준이다.
도 1은 MPEG-4 단말의 구조를 도시한 도면이다.
도 1을 참조하면, MPEG-4 시스템은 장면기술(Scene description)과 다중 화(multiplexing)의 2계층으로 구성되고, 다중화 계층 아래에 기존의 전송방식(MPEG-4 시스템에서는 이것을 TransMux라고 부른다. 예를 들면 MPEG-2 TS와 ITU-T H.223 등)과의 인터페이스를 규정하는 DMIF (Delivery Multimedia Integration Framework)라 불리는 계층이 있다. 이와 같이 MPEG-4 시스템은 여러 미디어 객체(오디오, 동영상, 컴퓨터 그래픽 및 정지영상을 포함한 넓은 의미에서 미디어 객체)의 부호화 비트스트림의 다중화 및 동기뿐만 아니라, 장면기술에 따른 합성을 취급한다.
이를 위해 도 1에 도시한 바와 같이, 이미 정의된 다중화 스트림 포맷 이외에 각각의 미디어 객체의 시공간적인 관계를 기술한 장면기술 정보(Scene Description Information), 장면기술(Scene Description)과 미디어 객체의 관련성과 복호에 필요한 정보를 저장하는 객체기술자(Object Descriptor)가 포함되어 있다.
다시 말하면, MPEG-1, MPEG-2의 시스템 기술이 오디오와 비디오 정보를 혼합(multiplexing)하고 동기화(synchronization)하는 것에 대한 표준을 다루어왔던 것에 비해, MPEG-4 시스템 표준은 오디오, 비디오, 컴퓨터 그래픽스, 아바타(avatar) 등의 멀티미디어 객체를 가상 시공간에 배치하고, 사용자 상호작용을 지원하며, 저작권 보호 기술과 메타데이타(metadata) 기술을 통합하는 일반적인 멀티미디어 콘텐츠의 부호 표준을 다룬다. 멀티미디어 객체를 통합하여 하나의 멀티미디어 문서를 구성하는 표준은 VRML(Virtual Reality Modeling Language), MHEG(Multimedia and Hypermedia Expert Group), HTML(HyperText Markup Language), SMIL(Synchronized Multimedia Integration Language) 등의 다양한 표준이 있는데, 이에 해당하는 MPEG-4 시스템 분야의 표준으로 BIFS(Binary Format for Scene)가 있다.
BIFS는 인터넷 가상공간에서의 가상현실을 구성하는 언어인 VRML을 더욱 확장시킨 것으로서, 자연 또는 합성의 음성 및 영상으로 부호화된 객체들을 가상 시공간에 배치하고, 사용자가 이를 조작할 수 있는 상호작용을 기술하는 언어이다. BIFS는 이진(binary) 정보를 사용해서 장면 구성을 압축적으로 표현하며, 객체 기술자(Object Descriptor, OD)를 통해 실제 미디어 스트림들과의 연결관계를 기술한다.
한편, 사용자에게 보여지는 화면의 구성을 장면이라 하는데, MPEG-1, MPEG-2에서는 정형화된 비디오 부호화만을 취급해 왔기 때문에 장면이라는 개념이 없었다. 그러나 MPEG-4에서는 임의의 객체를 부호화할 수 있고, 압축 부호화한 비디오 이외에도 파라미터를 지정하여 생성되는 객체도 취급할 수 있다. 또한, 사용자에게 보여지는 화면은 복수의 객체를 합성한 것으로 볼 수 있기 때문에, MPEG-4 시스템에서는 객체의 표시방법과 특성을 지정하기 위해 장면을 기술하는 것이 필요하다.
즉, 장면이란 하나의 화면이라 할 수 있는데, 이 하나의 화면 안에는 정지영상, 텍스트, 동영상, 오디오 등 여러종류의 미디어 객체가 포함되어 있다. 따라서, 이러한 객체들 간의 공간적 위치와 시간적인 관계를 표현하는 장면 기술자(Scene Descriptor)가 필요하며, 이를 상술한 BIFS를 사용하여 표준화하고 있다. 즉, 장면 기술자는 장면내에서 미디어 객체들 간의 시간적, 공간적인 관계를 기술한다.
또한, 장면 기술자를 사용하여 객체들을 장면으로 구성하고 화면에 출력하는 것 이외에, 단말기의 성능(capability)을 표현하는 것도 BIFS에 포함되어 있다. 현재 MPEG-4 BIFS에는 단말기의 성능을 측정하는 센서에 대한 항목으로 SphereSensor, ProximitySensor, TimeSonsor, TouchSensor 등이 있으며, 단말기의 성능을 문의하는데(query) 사용하는 TermCap이 있다. TermCap은 단말의 성능을 서버로 전달하기 위한 인터페이스를 담당한다. TermCap의 항목에는 화면구성에 대한 항목들과 CPU 점유도, 메모리 점유도에 관한 항목을 포함하여 9가지 항목이 있다. 본 발명에서는 이동통신 시스템이라는 제한적인 환경을 최대한으로 이용하기 위해 단말기 성능을 측정하는 센서들과 이를 표현하는 변수를 추가한다. TermCap의 인터페이스는 다음과 같다.
TermCap{
eventIn SFTime eveluate
field SFInt32 capability
eventOut SFInt32 value
}
여기서 capability는 단말에게 문의하고자 하는 자원(resource)을 나타내는 것으로, 프레임 레이트(frame rate), 색도(color depth), 화면 크기(screen size), 그래픽 하드웨어(graphic hardware), 오디오 출력 포맷(audio output format), 오디오 샘플링 레이트의 최대값(maximum audio sampling rate), 공간 오디오 능력(spatial audio capability), CPU 로드(CPU load) 및 메모리 로드(memory load) 등 9가지 종류가 있다. 이러한 capability와 관련된 정보를 서버가 단말기에 문의하면(query) 단말기는 그 결과를 value라는 변수를 통해 서버에 알려준다.
도 2는 차량에 장착되어 이동하는 단말에서의 네트워크 대역폭과 데이터 전송지연의 변화를 차량의 이동속도에 대하여 도시한 그래프이다.
도 2에서는 단말기의 일예로 CDMA 1x EV-D0 단말기를 사용하였고, 차량이 10 분동안 이동하였을 때의 네트워크 대역폭과 데이터 전송지연의 변화를 도시한 그래프이다. 원래 CDMA 1x EV-DO 단말기의 통신채널은 최대 2Mbps까지 대역폭을 가지고 있지만, 도 2를 참조하면, 차량이 이동함에 따라 대역폭은 200kbps에서 800kbps까지 계속해서 변동하는 것을 알 수 있다. 또한, 대역폭과 함께 데이터의 전송지연도 마찬가지로 변동함을 알 수 있다. 여기서 지연은 단말에서 서버로의 데이터 왕복시간인 RTT(Round Trip Time)을 측정하였다.
이러한 대역폭 및 데이터 전송지연의 변화는 채널을 공유하는 사용자의 수, 단말기의 위치와 이동속도 등 여러 가지 요인에 따라 달라진다. 그러나, MPEG-4 BIFS에 포함된 장면 기술자(Scene Descriptor)에는 이러한 단말의 환경변화를 측정하고 표현하는 기술자가 없으므로 이러한 정보를 이용할 수 없다. 따라서, 서버는 단말기의 현재 상태를 알 수 없고, 단말기의 현재 가용 성능(capability)으로 처리할 수 있는 정도를 넘어서는 비트율의 데이터를 수신하면 단말기가 다운되거나 재생이 중간에 끊기는 등의 문제점이 발생할 수 있다.
도 3은 본 발명의 경응용 단말기를 통해 멀티미디어 서비스를 제공하는 시스템을 도시한 도면이다.
도 3을 참조하면, 단말기(330)는 유선 또는 무선 네트워크를 통하여 서버(310)나 프락시 서버(320)에 접속하여 멀티미디어 서비스를 제공받는다. 단말기(330)는 경응용 단말기로써, 휴대전화, PDA 및 차량에 장착되는 멀티미디어 기기를 포함한다. 단말기(330)는 현재 가용한 자원을 서버(310)나 프락시 서버(320)에 보고하여, 가용한 자원내에서 처리할 수 있는 최대 품질의 멀티미디어 데이터를 수신한다. 서버(310)나 프락시 서버(320)는 단말(330)로부터 수신한 가용자원정보에 따라 멀티미디어 데이터를 가공한다.
여기서, 데이터의 가공은 서비스의 품질(Quality of Service, QoS)을 변경하는 것을 말하며, QoS에는 비트율, 손실에 대한 강인성, 데이터의 품질(비디오의 경우에는 프레임의 크기, 초당 프레임 수 등) 등이 포함된다. 또한, 단말(330)의 자원이 매우 부족할 경우에는 특정 미디어의 전송은 수행하지 않는 미디어 필터링(media filtering)을 수행할 수도 있다. 예를 들어 네트워크의 상태가 매우 나빠지면 비디오 데이터는 전송하지 않고 오디오 데이터만을 전송하여 서비스가 끊기는 것을 방지할 수 있다.
이러한 데이터의 가공을 위한 데이터 가공부의 예로, MPEG-21 DIA(Digital Item Adaptation) 기능 수행부를 들 수 있다. MPEG-21 DIA는 여러 종류의 네트워크가 혼재된 네트워크에서 디지털 아이템(예를 들어, 비디오, 오디오가 각각 하나의 디지털 아이템이 될 수 있다.)을 네트워크 조건에 맞추어 적응하는 절차와 적응을 위해 전달되는 제어정보의 포맷을 정의한다.
도 4는 본 발명의 일실시예에 따른 단말기의 블록도이다.
단말기는 오브젝트 디코더(410), 장면 구성부(420), 경응용 장면 기술 엔진(430), TermCap 핸들러(440), 복수의 센서(450a - 450d) 및 네트워크 접속부(460)를 구비한다.
오브젝트 디코더(410)는 네트워크 접속부(460)를 통해 수신된 오브젝트 데이터를 디코딩하고, 장면 구성부(420)는 경응용 장면 기술엔진(430)으로부터 장면 구성에 관한 정보를 수신하여, 디코딩된 오브젝트 데이터를 장면에 맞게 구성하여 화면에 출력한다. 오브젝트 디코더(410)는 각각의 오브젝트를 병렬적으로 디코딩할 수 있도록 복수개의 디코더를 포함할 수 있다.
본 발명에서는 단말의 성능(capability)을 측정할 수 있는 센서를 4가지 추가하고, 이를 서버로 전달하는 인터페이스를 담당하는 TermCap을 확장한다. 센서는 차량 내부망(IVN)으로부터 전달되는 정보를 측정하는 센서(450c-450d)와 네트워크 접속부(460)로부터 전달되는 정보를 측정하는 센서(450a-450b)로 나눌 수 있다. 차량 내부망으로부터 수신하는 정보는 차량의 움직임과 관련된 정보와 차량의 위치와 관련된 정보로 구성된다. 네트워크 접속부(460)에서 수신하는 정보는 무선신호의 세기와 가용 대역폭(available bandwidth)에 대한 정보이다. 신호의 세기는 네트워크 접속부(460)에서 측정하며, 가용 대역폭 정보는 기지국 또는 액세스 포인트가 제공하거나 단말에 내장된 응용 프로그램(application program)에서 측정한다.
TermCap 핸들러(440)는 경응용 장면 기술 엔진(430)에 단말기의 성능(capability)에 대한 정보를 요구하면, 센서(450a-450d)를 이용하여 측정된 값을 경응용 장면 기술 엔진(430)과 미리 약속한 값으로 변환하여 전달한다. 이때 가능 한한 적은 비트를 사용하여 변환한다. 그 예로서 표 1 내지 표 2d를 참조하여 후술한다.
경응용 장면 기술 엔진(430)은 서버나 프락시 서버가 요청시 또는 정기적으로 TermCap 핸들러(440)에게 단말기의 성능에 대한 값을 요구한다. 요구에 대하여 전달받은 값은 후술하는 표 1 내지 표 2d를 참조하여 예를 든 것과 같이 적은 비트로 변환하여 서버나 프락시 서버에 전달한다.
서버 또는 프락시 서버는 경응용 장면 기술 엔진(430)으로부터 역방향 채널을 통해서 수신된 정보를 바탕으로 장면을 변경하고 장면 표현을 변경한다. 예를 들어, 가용한 대역폭이 감소했으면, 계층화된 비디오인 경우 높은 계층의 비디오 데이터는 전송하지 않고, 낮은 계층의 비디오 데이터만을 전송하고, 전송 신호의 세기가 약해져서 패킷 손실율이 증가했으면 손실에 대한 대책을 더욱 강화한다.
손실에 대한 대책으로 순방향 오류 정정(Forward Error Correction, FEC)이나 재전송방법을 사용할 수 있다. 인터넷으로 실시간 데이터 서비스를 할 때에는 리드 솔로몬(Reed Solomon, RS) 코딩 방법으로 FEC가 주로 사용된다. 예를 들어, 10개의 데이터 패킷을 보낼 때, 4개의 패리티(parity) 패킷을 같이 보내면 14개의 패킷중에 최대 4개의 패킷을 잃어버려도 다시 복원할 수 있다. 따라서, 손실이 더 많아지면 패리티 패킷의 전송비율을 높여서 손실에 대한 대책을 강화할 수 있다.
또한, 주문형 비디오(Video On Demand, VOD)와 같이 약간의 지연이 허용되는 서비스에서는 재전송을 제한적으로 사용할 수 있다. 1회까지 재전송을 허용하느냐, 2회까지 허용하느냐 여부는 서비스에서 허용되는 지연의 정도와 네트워크에서 왕복 지연이 얼마인가에 따라 결정된다.
네크워크 접속부(460)의 일예로 네트워크 인터페이스 카드(Network Interface Card, NIC)를 사용할 수 있으며, 네트워크 접속부(460)는 역방향 채널을 통하여 무선채널의 상태를 수시로 서버 또는 프락시 서버에 보고한다. 무선 채널의 상태이외에 차량의 속도 정보 또는 위치 정보는 차량 내부망(IVN)을 통해 수신하여 서버 또는 프락시 서버에 전송한다.
네크워크 접속부(460)는 무선 랜 또는 이동통신망에 접속되어 멀티미디어 컨텐츠를 수신한다. 네크워크 접속부(460)는 무선 채널의 현재신호세기(signal strength) 정보를 데시벨(decibel, dB) 단위로 수신하며, 가용 대역폭(available bandwidth) 정보도 기지국으로부터 수신한다. 가용 대역폭은 채널을 사용하고 있는 사용자의 수와 채널의 전파이득(propagation gain)의 정도에 의해서 결정된다. 또한, 차량의 이동에 의하여 기지국이 변경되는 핸드오프가 발생하는 것에 대한 정보도 네트워크 접속부(460)를 통하여 수신한다.
차량 내부망(IVN)은 차량에 장착된 각종 센서 등을 통하여 수신한 차량의 속도, 위치 등에 대한 정보를 차량의 각 구성부들이 서로 주고 받기 위한 네트워크로, 차량 내부망(IVN)을 통해 차량의 위치에 대한 정보와 이동속도(특히, 가속도)에 대한 정보를 수신한다. 위치 정보를 이용하여 단말기는 액세스 포인트(Access Point, AP)까지의 거리 또는 기지국까지의 거리를 측정할 수 있다. 신호의 세기는 액세스 포인트(AP) 또는 기지국까지의 거리에 따라 약해진다. CDMA 채널의 품질은 차량의 속도, 본 실시예에서는 가속도와 상관관계를 가진다. 이는 차량이 가속되는 경우 도플러효과(Doppler effect) 때문에 디지털 복조과정에서 동기화가 어렵기 때문이다.
따라서, 멀티미디어 데이터 전송에 영향을 미치는 항목들에 대한 정보를 서버에 제공하여, 주어진 자원을 최대한 활용하는 것이다. 이를 위하여 단말기의 성능(capability)에 대한 항목 4가지를 MPEG-4 BIFS에 추가한다. 이렇게 추가된 항목을 포함하여 단말기의 성능에 대한 항목을 정리하면 다음 표 1과 같다. 표 1은 단말기의 성능에 대한 항목들을 정리한 도표이다.
capability 의미
0 프레임 레이트(frame rate)
1 색도(color depth)
2 화면 크기(screen size)
3 그래픽 하드웨어(graphic hardware)
21 신호 세기(signal strength)
22 가용 비트율(available bitrate)
23 가속도(acceleration of vehicle)
24 위치 정보(location)
32 오디오 출력포맷(audio output format)
33 최대 오디오 샘플링레이트
34 공간 오디오 능력(spatial audio capability)
64 CPU 로드(CPU load)
65 메모리 로드(memory load)
표 1을 참조하면, TermCap 핸들러(440)에서 수신하는 정보로서 신호의 세기(signal strength), 가용 비트율(available bitrate), 가속도(acceleration of vehicle), 위치정보(특히, 기지국이나 액세스 포인트로부터의 거리)가 추가되어 있음을 알 수 있다. 가속도는 기지국 또는 액세스 포인트와의 직선거리에 대한 가속도를 말한다. 지구가 태양을 공전하듯이, 기지국 또는 액세스 포인트를 중심으로 회전할 때에는 기지국 또는 액세스 포인트로부터 거리가 변하지 않으므로 가속도가 없다고 할 수 있다. 만일 기지국 또는 액세스 포인트로부터 거리를 측정할 수 없으면 차량의 실제 가속도를 그대로 사용한다. 추가된 항목들은 시스템과 미리 약속된 값으로 표현된다. 표 2a 내지 표 2d는 추가된 항목들에 대한 값을 시스템과 미리 약속한 값으로 지정한 예를 도시한 도표이다.
약속된 값 신호세기
0 미정
1 10dB 이하
2 10-20dB
3 20-30dB
4 30-50dB
5 50dB 이상
약속된 값 가용비트율
0 미정
1 20kbps 이하
2 20-100kbps
3 100-500kbps
4 500kbps-1Mbps
5 1-2Mbps
6 2-6Mbps
7 6Mbps 이상
약속된 값 가속도
0 미정
1 0.1m/sec2 이하
2 0.1-0.5m/sec2
3 0.5-1m/sec2
4 1-5m/sec2
5 5m/sec2 이상
약속된 값 기지국이나 액세스 포인트로부터의 거리
0 미정
1 1m 이하
2 1-10m
3 10-100m
4 100-1000m
5 1000m 이상
표 1에서 추가된 4가지 항목들은 상술한 TermCap의 신택스(syntax)를 따라 표현될 수 있다.
시간에 따라 단말기의 상술한 성능(capability)가 변하므로, 이를 반영하여 멀티미디어 데이터의 품질을 적응적으로 변경시켜야 하며, 장면 표현을 위한 장면 기술자(scene descriptor)도 변경되어야 한다. 즉, MPEG-4 BIFS를 이용하는 경우 장면기술자는 각각 객체들(예를 들어, 비디오, 오디오, 배경 그림 등)이 나타나는 시간, 위치, 배율 등을 기술하는데, 멀티미디어 데이터의 품질이 바뀌어서 크기가 달라졌거나, 어떤 객체를 제거하거나 새로 넣는 경우에는 장면기술자를 이에 수정하여야 한다. 수정하기 위해 BIFS에서 사용하는 명령어인 modify, insert, delete, pause 등을 사용할 수 있다.
계층화(scalability)가 가능한 멀티미디어 코덱은 본 발명과 관련하여 유용하게 사용될 수 있다. 인터넷 표준화기구인 IETF(Internet Engineering Task Force)에서 표준화중인 RTP(Real Time Protocol)/AVPF(Audio Visual Profile with early Feedback)의 역방향 시그널링과 연동하여 본 발명을 효과적으로 사용할 수 있다. 현재 AVPF에서는 다음과 같이 피드백 신호가 정의되어 있다. 즉, 피드백 신호값에 따라, 0: unassigned, 1: Picture Loss Indication, 2: Slice Lost Indication, 3: Reference Picture Selection Indication (RPSI)로 정의되어 있다.
이들 피드백 신호는 RTCP(Realtime Control Protocol)의 RR(Receiver Report) 패킷에 담아서 보낼 수 있다. RTCP RR에 사용자가 정의할 수 있는 필드에 TermCap 핸들러에서 처리한 데이터를 담아서 보낼 수 있다. 이에 맞추어 서버나 프락시 서버는 멀티미디어 데이터이 품질을 적절하게 변경할 수 있다. 예를 들어, 계층 부호화된 비디오의 경우에는 가용 비트율에 맞게 전송할 계층을 선택할 수 있다. 또한, 신호의 세기에 따라 패킷 손실율을 예측하여 예측된 패킷 손실율에 따라 패리티 패킷의 비율을 결정할 수 있다. 패리티 패킷의 비율은 패킷 손실율의 2배 정도가 바람직하다. 즉, 손실율이 10%이면, 16개 데이터 패킷을 보낼 때, 4개의 패리티 패킷을 만들어 같이 보내는 것이 바람직하다.
도 5는 본 발명의 서비스 제공방법의 플로우차트이다.
경응용 장면 기술 엔진(430)이 TermCap 핸들러(440)에게 단말기의 현재 성능(capability)과 관련된 정보를 문의(query)하면(S510), TermCap 핸들러(440)는 그 문의를 해당 센서들중에 하나에게 요구한다(S520). 센서는 네트워크 접속부(460) 또는 차량 내부망으로부터, 요청한 값을 측정하여 TermCap 핸들러(440)에게 전달한다(S530). TermCap 핸들러(440)는 전달받은 값을 양자화한 값으로 변환하여 경응용 장면 기술 엔진(430)에게 전달하면(S540), 경응용 장면 기술 엔진(430)은 요청한 성능(capability) 항목과 그에 대응되는 양자화한 값을 포맷팅하여 서버 또는 프락시 서버로 전달한다(S550). 서버나 프락시 서버는 이 정보를 반영하여 장면 및 장면 기술자를 바꾸어 멀티미디어 데이터를 재구성하여 단말에 제공한다(S560).
도 6은 무선 랜에서 하나의 액세스 포인트에서 다른 액세스 포인트로의 핸드오프 발생시에 본 발명에 따른 서비스 제공시 비디오 품질의 변화를 도시한 그래프이다.
계층화된 비디오를 비디오는 계층화 인코딩된 것을 이용하였다. 두 개의 액세스 포인트와 각각 데이터를 주고 받을 수 있도록 네트워크 인터페이스를 두 개 가지고 있는 듀얼 채널 모드(dual channel mode)에서 비디오 품질이 가장 우수하기는 하지만, 본 발명과 같이 단말의 성능(capability)에 관한 정보를 수신하여 그에 맞게 멀티미디어 데이터를 가공하여 제공하는 경우에는 핸드오프시에 비디오의 품질은 다소 떨어지지만, 데이터의 끊어짐은 없음을 알 수 있다.
이에 비하여 종래와 같이 채널 상태에 대한 정보를 수신하지 않고 일방적으로 멀티미디어 데이터를 제공하는 경우에는 핸드오프시 데이터가 끊기거나 하는 현상이 발생함을 알 수 있다.
한편, 전술한 멀티미디어 서비스 제공방법은 컴퓨터 프로그램으로 작성 가능하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터에 의하여 읽혀지고 실행됨으로써 멀티미디어 서비스 제공방법을 구현한다. 상기 정보저장매체는 자기 기록매체, 광 기록매체, 및 캐리어 웨이브 매체를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
도 1은 MPEG-4 단말의 구조를 도시한 도면,
도 2는 차량에 장착되어 이동하는 단말에서의 네트워크 대역폭과 데이터 전송지연의 변화를 차량의 이동속도에 대하여 도시한 그래프,
도 3은 본 발명의 경응용 단말기를 통해 멀티미디어 서비스를 제공하는 시스템을 도시한 도면,
도 4는 본 발명의 일실시예에 따른 단말기의 블록도,
도 5는 본 발명의 멀티미디어 서비스 제공방법의 플로우차트,
도 6은 무선 랜에서 하나의 액세스 포인트에서 다른 액세스 포인트로의 핸드오프 발생시에 본 발명에 따른 서비스 제공시 비디오 품질의 변화를 도시한 그래프이다.

Claims (1)

  1. (a) 단말기의 성능(capability) 관련 정보를 수신하는 단계; 및
    (b) 상기 수신한 정보에 따라 데이터를 가공하여 상기 단말기로 전송하는 단계를 포함하고,
    상기 성능 관련 정보는 신호의 세기(signal strength), 가용 비트율(available bitrate), 가속도(acceleration of vehicle), 위치정보 중 적어도 하나를 포함하는 것을 특징으로 하는 멀티미디어 서비스 제공방법.
KR1020080045156A 2008-05-15 2008-05-15 단말의 성능을 고려한 멀티미디어 서비스 제공방법 및 그에사용되는 단말기 KR100896688B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080045156A KR100896688B1 (ko) 2008-05-15 2008-05-15 단말의 성능을 고려한 멀티미디어 서비스 제공방법 및 그에사용되는 단말기

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080045156A KR100896688B1 (ko) 2008-05-15 2008-05-15 단말의 성능을 고려한 멀티미디어 서비스 제공방법 및 그에사용되는 단말기

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020040028636A Division KR20050103374A (ko) 2004-04-12 2004-04-26 단말의 성능을 고려한 멀티미디어 서비스 제공방법 및그에 사용되는 단말기

Publications (2)

Publication Number Publication Date
KR20080049701A true KR20080049701A (ko) 2008-06-04
KR100896688B1 KR100896688B1 (ko) 2009-05-14

Family

ID=39805375

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080045156A KR100896688B1 (ko) 2008-05-15 2008-05-15 단말의 성능을 고려한 멀티미디어 서비스 제공방법 및 그에사용되는 단말기

Country Status (1)

Country Link
KR (1) KR100896688B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150014125A (ko) * 2013-07-29 2015-02-06 삼성전자주식회사 멀티미디어 서비스 제공 방법 및 장치
WO2022019702A1 (en) * 2020-07-23 2022-01-27 Samsung Electronics Co., Ltd. Method and apparatus for transmitting 3d xr media data

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102196492B1 (ko) * 2014-07-04 2020-12-30 삼성전자주식회사 통신 시스템에서 데이터 송수신 장치 및 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045097A (ja) 1999-07-30 2001-02-16 Kyocera Corp 通信端末または通信システム
KR100547139B1 (ko) * 2003-09-03 2006-01-26 학교법인 고황재단 IETF QoS 프로토콜을 이용한 MPEG 미디어데이터 전송 방법 및 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150014125A (ko) * 2013-07-29 2015-02-06 삼성전자주식회사 멀티미디어 서비스 제공 방법 및 장치
WO2022019702A1 (en) * 2020-07-23 2022-01-27 Samsung Electronics Co., Ltd. Method and apparatus for transmitting 3d xr media data
US11861797B2 (en) 2020-07-23 2024-01-02 Samsung Electronics Co., Ltd. Method and apparatus for transmitting 3D XR media data

Also Published As

Publication number Publication date
KR100896688B1 (ko) 2009-05-14

Similar Documents

Publication Publication Date Title
EP1594287B1 (en) Method, apparatus and medium for providing multimedia service considering terminal capability
EP1407596B1 (en) Video stream switching
KR100995968B1 (ko) 규모 가변적 미디어 코딩 및 전송을 위한 다중 상호운용성 포인트
US7010032B1 (en) Moving image coding apparatus and decoding apparatus
US20050123042A1 (en) Moving picture streaming file, method and system for moving picture streaming service of mobile communication terminal
JP4472347B2 (ja) 可変の帯域を有するネットワーク上でのマルチメディアデータのストリーミング
CN103210642B (zh) 在http流送期间发生表达切换时传送用于自然再现的可缩放http流的方法
US20110274180A1 (en) Method and apparatus for transmitting and receiving layered coded video
US20160037176A1 (en) Automatic and adaptive selection of profiles for adaptive bit rate streaming
CN104735470A (zh) 一种流媒体数据传输方法及装置
CN102598688A (zh) 流式传输经编码视频数据
KR20100007368A (ko) 스트리밍 서비스의 비트 레이트를 제어하기 위한 시스템 및그 방법
KR100896688B1 (ko) 단말의 성능을 고려한 멀티미디어 서비스 제공방법 및 그에사용되는 단말기
US20010055341A1 (en) Communication system with MPEG-4 remote access terminal
US20070110168A1 (en) Method for generating high quality, low delay video streaming
KR20050103374A (ko) 단말의 성능을 고려한 멀티미디어 서비스 제공방법 및그에 사용되는 단말기
KR20180065562A (ko) 단말의 성능을 고려한 멀티미디어 서비스 제공방법 및 그에 사용되는 단말기
JP2024509524A (ja) ストリーミングされるメディアデータによって定義される仮想インタラクティブシーンにおける仮想カメラのためのオブジェクト衝突データ
CN114470745A (zh) 一种基于srt的云游戏实现方法、装置及系统
KR101148072B1 (ko) 멀티미디어 지원 시스템 및 그 지원방법
Cha et al. Adaptive scheme for streaming MPEG-4 contents to various devices
KR100437168B1 (ko) 엠펙-4 시스템 기반의 통신방법
KR100713363B1 (ko) 이동통신 시스템에서 엠펙 전송 장치 및 방법
Goor et al. Experimental Performance Analysis of RTP-Based Transmission Techniques for MPEG-4

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment
FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170330

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180329

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190328

Year of fee payment: 11