KR101532568B1 - Iptv 네트워크들에서 최적의 캐시 할당의 방법 및 시스템 - Google Patents

Iptv 네트워크들에서 최적의 캐시 할당의 방법 및 시스템 Download PDF

Info

Publication number
KR101532568B1
KR101532568B1 KR1020107004384A KR20107004384A KR101532568B1 KR 101532568 B1 KR101532568 B1 KR 101532568B1 KR 1020107004384 A KR1020107004384 A KR 1020107004384A KR 20107004384 A KR20107004384 A KR 20107004384A KR 101532568 B1 KR101532568 B1 KR 101532568B1
Authority
KR
South Korea
Prior art keywords
cache
function
service
cacheability
memory
Prior art date
Application number
KR1020107004384A
Other languages
English (en)
Other versions
KR20100068241A (ko
Inventor
레브 비. 소프맨
빌 크로그포스
안슐 아그라왈
Original Assignee
알까뗄 루슨트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알까뗄 루슨트 filed Critical 알까뗄 루슨트
Publication of KR20100068241A publication Critical patent/KR20100068241A/ko
Application granted granted Critical
Publication of KR101532568B1 publication Critical patent/KR101532568B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • H04N21/23106Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion involving caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • H04N21/2225Local VOD servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

IPTV 네트워크에서, 대역폭 요건들을 감소시키기 위하여 비디오 콘텐트를 저장하기 위한 하나 이상의 캐시들이 네트워크 노드들에 제공될 수 있다. 캐시 효과 및 캐시가능성과 같은 캐시 함수들은, 캐시 메모리의 최적의 크기 및 위치를 결정하고 IPTV 네트워크의 유니캐스트 서비스들에 대한 캐시 메모리의 최적의 분할을 결정하도록 규정되고 최적화될 수 있다.

Description

IPTV 네트워크들에서 최적의 캐시 할당의 방법 및 시스템{METHOD AND SYSTEM OF OPTIMAL CACHE ALLOCATION IN IPTV NETWORKS}
본 출원은 2007년 8월 30일에 출원된 미국 임시 출원 제60/969,162호의 잇점을 주장하며, 그 개시내용은 본 발명에 참조로서 포함되어 있다.
본 발명은 인터넷 프로토콜 텔레비전(IPTV: Internet Protocol Television) 네트워크들에 관한 것이며, 특히, 상기 네트워크 내의 노드들에서의 비디오 콘텐트의 캐싱(caching)에 관한 것이다.
IPTV 네트워크에서, 주문형 비디오(VOD: Video on Demand) 및 다른 비디오 서비스들은 비디오 헤드 오피스(VHO: Video Head Office)로부터 가입자들에게 대량의 유니캐스트 트래픽을 발생시키고, 따라서, 네트워크에서 상당한 대역폭 및 장비 리소스들을 요구한다. 이러한 트래픽과 후속적인 총 네트워크 비용을 감소시키기 위해, 가장 인기있는 타이틀들과 같은 비디오 콘텐트의 일부가 가입자들에게 더 가까운 캐시들에 저장될 수 있다. 예를 들면, 캐시는 디지털 가입자 라인 액세스 멀티플렉서(DSLAM: Digital Subscriber Line Access Multiplexer), 중앙국(CO: Central Office) 또는 중간국들(IO: Intermediate Offices)에서 제공될 수 있다. 캐싱을 위한 콘텐트 선택은 캐시의 크기, 콘텐트 인기도 등을 포함하는 여러 인자들에 의존할 수 있다.
필요한 것은 IPTV 네트워크들에서 캐시 메모리의 크기 및 위치들을 최적화하기 위한 시스템 및 방법이다.
개시내용의 하나의 양태에서, 인터넷 프로토콜 텔레비전(IPTV) 네트워크의 네트워크 노드에서 캐시의 캐시 메모리 할당을 최적화하기 위한 방법으로서, 캐시가능성 함수를 규정하는 단계 및 상기 캐시가능성 함수를 최적화하는 단계를 포함하는, 캐시 메모리 할당 최적화 방법이 제공된다.
개시내용의 하나의 양태에서, 캐시를 포함하는 인터넷 프로토콜 텔레비전 네트워크의 네트워크 노드로서, 캐시의 메모리의 크기는 네트워크에 대한 캐시 함수의 최적의 솔루션에 따르는, 네트워크 노드가 제공된다.
개시내용의 하나의 양태에서, 제 1 처리기, 및 제 1 처리기와 통신하는 제 2 처리기에 의해 실행하기 위한 컴퓨터 판독가능한 명령들을 포함하는 컴퓨터 판독가능한 매체로서, 실행시, 제 1 처리기로 하여금 제 2 처리기에 입력 파라미터들을 제공하게 하고, 제 2 처리기로 하여금 IPTV 네트워크의 네트워크 노드에서 캐시에 대한 적어도 하나의 캐시 함수를 계산하게 하는, 컴퓨터 판독가능한 매체가 제공된다.
이제, 예의 방식으로 제공되는 특정 실시예들 및 첨부 도면들에 대한 참조가 이루어질 것이다.
도 1은 IPTV 네트워크의 개략도.
도 2는 인기도 분포 곡선을 도시한 도면.
도 3은 전송 대역폭 문제를 도시한 도면.
도 4는 입력 파라미터 테이블을 도시한 도면.
도 5는 네트워크 비용 계산 흐름도를 도시한 도면.
도 6은 캐시 함수의 최적화를 도시한 도면.
도 7은 시스템 처리기 및 사용자 처리기를 도시한 도면.
도 1에 도시된 통상적인 IPTV 아키텍처(10)에서, 여러 명의 가입자들(12)은 디지털 가입자 라인 액세스 멀티플렉서(DSLAM)(14)에 접속된다(예를 들면, 192:1 비율). DSLAM들(14)은 중앙국(CO)(16)에 접속된다(예를 들면, 100:1 비율). 여러 CO들(16)은 중간국들(IO)(18)과 최종적으로 비디오 홈 오피스(VHO)(19)에 접속된다(예를 들면, 6:1 비율). VHO(19)는 예를 들면 콘텐트 데이터베이스(22)에 주문형 비디오(VoD) 콘텐트의 타이틀들을 저장한다. 1기가비트 이더넷(GE) 접속들(23)은 DSLAM들(14)을 CO들(16)에 접속하고, 1OGE 접속들(24, 25)은 CO들(16)을 IO들(18)에, IO들(18)을 VHO(19)에 각각 접속한다.
IPTV 네트워크(10) 상의 유니캐스트 VoD 트래픽의 비용 영향을 감소시키기 위해, 비디오 콘텐트의 일부는 가입자들에 가까운 캐시들에 저장될 수 있다. 다양한 실시예들에서, 캐시들은 DSLAM들, CO들 또는 IO들의 일부 또는 전부에 제공될 수 있다. 하나의 실시예에서, 캐시는 제한된 양의 데이터, 예를 들면 최대 3000테라바이트(TB)를 저장할 수 있는 캐시 모듈(15)의 형태로 제공될 수 있다. 그 외에도, 각 캐시 모듈은 제한된 양의 트래픽, 예를 들면 최대 20 Gbs를 지원할 수 있다. 캐시 모듈들은 이들이 대응하는 네트워크 장비에서 하나의 슬롯을 이용하기 위해 제공될 수 있기 때문에 편리하다.
하나의 실시예에서, 캐시들은 층들 중 하나, 예를 들면 DSLAM, CO 또는 IO의 모든 위치들에 제공된다. 즉, 캐시는 네트워크의 각 DSLAM(14), 또는 각 CO(16) 또는 각 IO(18)에 제공될 것이다.
각 캐시의 효과는, 캐시로부터 서빙될 수 있는 비디오 콘텐트 요청들의 백분율로서 기술될 수 있다. 캐시 효과는 IPTV 네트워크의 경제적 측면의 주요 조종자이다.
캐시 효과는, 인기도 분포에 의해 기술될 수 있는 캐시에 저장된 타이틀들의 인기도와, 캐시에 저장된 타이틀들의 수를 포함하는 여러 인자들(비디오 크기들과 캐시 메모리의 함수)에 의존한다.
캐시 효과는, 캐시 메모리가 증가함에 따라 증가하지만, 비용에 대해서도 마찬가지이다. 비디오 콘텐트의 전송 비용들은 네트워크상의 모든 캐시들의 조합된 비용과 교환된다. 캐시 효과는, 또한 인기도 곡선의 함수이다. 인기도 분포(20)의 예가 도 2에 도시된다. 인기도 분포 곡선(20)은 Zipf에 의해 표현되거나 Zipf 함수에 의해 생성된다:
Figure 112010012741189-pct00001
인기도 곡선이 평평해질 때, 캐시 효과는 감소된다.
캐시 메모리의 최적의 위치 및 크기를 찾기 위하여, 최적화 모델 및 도구가 제공된다. 도구는, 통상적인 메트로 토폴로지, 비디오 콘텐트들 인기도 곡선, 비용 및 트래픽 추측들 등이 주어지면 최적의 캐시 크기 및 그 네트워크 위치를 선택한다. 하나의 실시예에서, 도구는 또한, 캐시의 효과, 그 위치 등에 기초하여 전체 네트워크 비용을 최적화한다. 캐시 효과는 메모리와 인기도 곡선의 함수이며, 메모리가 증가하면 증가된 효율성(및 캐시 비용들)을 유발하지만, 전송 비용은 감소된다. 따라서, 최적화 도구는 전체 네트워크 비용들을 감소시키기 위하여 캐시를 위한 최적의 메모리를 선택하기 위해 이용될 수 있다.
총 네트워크 비용의 요소는 전송 대역폭 비용이다. 전송 대역폭 비용은 가입자당 대역폭과 가입자들의 수의 함수이다. 캐싱은, 상술된 바와 같이 메모리와 인기도 분포의 함수인 캐시의 효과에 의해 대역폭 업스트림을 감소시킨다. 전송 대역폭 비용 문제는 도 3에 그래프로 도시되어 있다. Td는 DSLAM 노드(d)(31)에 대한 전송 비용을 나타내며, 가입자들(sub)의 수와 가입자 당 대역폭(BW)에 의존한다. 따라서, Td는 하기와 같이 표현될 수 있다:
Figure 112010012741189-pct00002
Tco는 중앙국들(32)에 대한 전송 비용이고 하기와 같이 표현된다:
Figure 112010012741189-pct00003
TI0는 중간국들(33)에 대한 전송 비용이고 하기와 같이 표현된다:
Figure 112010012741189-pct00004
VHO 트래픽은 네트워크 상의 VHO(34)로부터의 모든 VHO 트래픽의 전송 비용이고 하기와 같이 표현된다:
Figure 112010012741189-pct00005
요구된 전송 대역폭은 DSLAM들, CO들 및 IO들과 같은 장비를 치수화하고, 네트워크에서 요구되는 이들 요소들 각각의 수를 결정하기 위해 이용될 수 있다.
도 4는 최적화 도구에 대한 입력 파라미터들의 파라미터 테이블(40)을 도시한다. 파라미터 테이블(40)에 대한 샘플 데이터가 또한 제공된다. 예를 들면, 파라미터 테이블은 사용자가 DSLAM(42) 당 활성 가입자들의 수와 활성 가입자(41) 당 평균 트래픽과 같은 주요 파라미터들을 입력하도록 허용한다. 네트워크 구성 파라미터들은 DSLAM들(43), CO들(44), 및 IO들(45)의 수와 같이 제공될 수 있다. 캐시 모듈 당 메모리(46), 최대 캐시 트래픽(47) 및 캐시 모듈의 비용(48)과 같은 캐시 모듈 파라미터들이 제공될 수 있다. 인기도 곡선 파라미터(49)가 또한 입력될 수 있다. 스위치들, 라우터들 및 다른 하드웨어 구성요소들과 같은 다른 네트워크 장비 비용들(51)이 또한 규정될 수 있다.
파라미터 테이블(40)은 네트워크 비용 계산에 이용하기 위한 더욱 광범위한 최적화 도구에 포함될 수 있다.
네트워크 비용을 결정하기 위한 흐름도(50)가 도 5에 도시되어 있다. 네트워크 비용은 하기와 같이 표현될 수 있다:
네트워크 비용(510) = 장비 비용 + 전송 비용
장비 비용은 모든 DSLAM들, CO들, IO들 및 VHO 뿐만 아니라, VoD 서버 들 및 캐시들의 비용이다. 장비 비용은 DSLAM, CO 및 I0의 각각에 대한 치수를 고려하여 분석될 수 있다. DLSAM 치수화(단계 501)는 하기의 비용 고려사항들을 요구한다:
a. DLSAM 당 총 캐시 메모리 = 유닛 당 캐시 메모리 x DLSAM 당 캐시 유닛들의 수(#);
b. 캐시 내의 콘텐트 유닛들의 수(#) = DLSAM 당 총 캐시 메모리 / 콘텐트의 유닛 당 평균 메모리 요건;
c. 캐시 효과(즉, 캐시에 의해 서빙된 요청들의 %) = CDF-1(캐시 내의 콘텐트 유닛들의 수), 여기서 CDF는 인기도 분포의 누적 밀도 함수이다;
d. 총 캐시 처리량 = 캐시 유닛들의 수 x 유닛 당 캐시 처리량;
e. DSLAM에 접속된 모든 가입자들로부터의 총 트래픽 수요(DSLAM-트래픽) = DSLAM 당 가입자들의 수 x 가입자 당 평균 트래픽;
f. DSLAM 당 DSLAM에 대한 CO 트래픽 = DSLAM-트래픽 - 최소(총 캐시 처리량, 캐시 효과 x DSLAM-트래픽);
g. GE 접속들의 수 / DSLAM =
Figure 112010012741189-pct00006
DSLAM 당 DSLAM에 대한 CO 트래픽 / 1Gbs
Figure 112010012741189-pct00007
; 및
h. DSLAM 당 LT의 수 =
Figure 112010012741189-pct00008
DSLAM 당 가입자들의 수 / 24
Figure 112010012741189-pct00009
.
CO 치수화(단계 502)는 하기를 요구한다:
a. CO 당 DSLAM들에 대면하는 GE 접속들의 수 = DSLAM 당 GE 접속들의 수 x CO 당 DSLAM들의 수;
b. CO에 접속된 모든 DSLAM들로부터의 총 트래픽 수요(CO-트래픽) = DSLAM 당 DSLAM에 대한 CO 트래픽 x CO 당 DSLAM들의 수;
c. 평균 GE 활용 = CO-트래픽 / CO 당 DSLAM들에 대면하는 GE 접속들의 수;
d. 이더넷 서비스 스위치(예를 들면, 알까뗄 루슨트에 의해 생산된 7450 이더넷 서비스 스위치) 당 DSLAM에 대면하는 GE 포트들의 최대 수(n)의 계산은
Figure 112010012741189-pct00010
n / MDA 당 GE 포트들의 수
Figure 112010012741189-pct00011
+
Figure 112010012741189-pct00012
7450 당 CO에 대한 IO 트래픽 / 10Gbs
Figure 112010012741189-pct00013
≤ 10 - 2 x 7450 당 캐시 유닛들의 수, 여기서:
ⅰ. 7450 당 CO에 대한 IO 트래픽 = 7450 당 DSLAM에 대한 CO 트래픽 - 최소(총 캐시 처리량, 캐시 효과 x 7450 당 DSLAM에 대한 CO 트래픽); 및
ⅱ. 7450 당 DSLAM에 대한 CO 트래픽 = n x 평균 GE 활용;
e. CO 당 7450의 수 =
Figure 112010012741189-pct00014
CO 당 DSLAM들에 대면하는 GE 접속들의 수 / n
Figure 112010012741189-pct00015
;
f. 7450 당 IO에 대면하는 10 GE 포트들의 수 =
Figure 112010012741189-pct00016
7450 당 CO에 대한 IO 트래픽 / 10Gbs
Figure 112010012741189-pct00017
;
g. GE MDA들, 10GE MDA들, 및 CO 당 IOM들의 총 수의 계산.
IO 치수화(단계 503)는 하기를 요구한다:
a. IO 당 CO들에 직면한 10 GB 접속들의 수 = CO 당 10 GE 접속들의 수 x IO 당 CO들의 수
b. IO에 접속된 모든 CO들로부터의 총 트래픽 수요(IO-트래픽) = CO 당 CO에 대한 IO 트래픽 x IO 당 CO들의 수;
c. 평균 10 GE 활용 = IO-트래픽 / IO 당 CO들에 직면한 10 GE 접속들의 수;
d. 서비스 라우터(예를 들면, 알까뗄-루슨트에 의한 7750 서비스 라우터) 당 CO에 대면하는 10 GE 포트들의 최대 수(m)의 계산은
Figure 112010012741189-pct00018
m / MDA 당 10 GE 포트들의 수
Figure 112010012741189-pct00019
+
Figure 112010012741189-pct00020
7750 당 IO에 대한 VHO 트래픽 / 10Gbs
Figure 112010012741189-pct00021
≤ 20 - 2 x 7750 당 캐시 유닛들의 수, 여기서:
ⅰ. 7750 당 IO에 대한 VHO 트래픽 = 7750 당 CO에 대한 IO 트래픽 - 최소(총 캐시 처리량, 캐시 효과 x 7750 당 CO에 대한 IO 트래픽); 및
ⅱ. 7750 당 CO에 대한 IO 트래픽 = m x 평균 10 GE 활용;
e. IO 당 7750의 수 =
Figure 112010012741189-pct00022
IO 당 CO들에 대면한 10 GE 접속들의 수 / m
Figure 112010012741189-pct00023
;
f. 7750 당 VHO에 대면한 10 GE 포트들의 수 =
Figure 112010012741189-pct00024
7750 당 IO에 대한 VHO 트래픽 / 10 Gbs
Figure 112010012741189-pct00025
;
g. 10 GE MDA들 및 IO 당 IOM들의 총수의 계산.
VHO 치수화(단계 504)는 하기를 요구한다:
a. VHO 당 IO들에 직면한 10 GB 접속들의 수 = IO 당 10 GE VHO-IO 접속들의 수 x VHO 당 IO들의 수
b. VHO에 접속된 모든 IO들로부터의 총 트래픽 수요(VHO-트래픽) = CO 당 CO에 대한 IO 트래픽 x IO 당 CO들의 수;
c. 평균 10 GE 활용 = VHO-트래픽 / VHO 당 IO들에 직면한 10 GE 접속들의 수;
d. VHO에서의 7750(서비스 라우터) 당 IO에 대면하는 GE 포트들의 최대 수(k)의 계산은
Figure 112010012741189-pct00026
k / MDA 당 10 GE 포트들의 수
Figure 112010012741189-pct00027
+
Figure 112010012741189-pct00028
7750 당 IO에 대한 VHO 트래픽 / 10Gbs
Figure 112010012741189-pct00029
≤ 20, 여기서:
ⅰ. VHO에서의 7750 당 IO에 대한 VHO 트래픽 = k x 평균 10 GE 활용;
e. VHO 당 7750의 수 =
Figure 112010012741189-pct00030
VHO 당 IO들에 대면한 10 GE 접속들의 수 / k
Figure 112010012741189-pct00031
;
f. VHO에서의 7750 당 VoD 서버에 대면한 10 GE 포트들의 수 =
Figure 112010012741189-pct00032
7750 당 IO에 대한 VHO 트래픽 / 10 Gbs
Figure 112010012741189-pct00033
;
g. 10 GE MDA들 및 VHO 당 IOM들의 총수의 계산.
장비 비용은 또한 캐시 비용을 포함할 것이며, 이것은 메모리 비용에 캐시의 공통 비용을 더한 것과 같다. 네트워크의 전송 비용은 네트워크 노드들 사이의 모든 GE 접속들(506) 및 10 GE 접속들(505)의 비용이 될 것이다.
상이한 비디오 서비스들(예를 들면, VoD, NPVR, ICC 등)은 상이한 캐시 효과(또는 히트 레이트들) 및 상이한 크기의 타이틀들을 가진다. 처리될 문제는 캐시의 전체 비용 효과를 증가시키기 위하여, 제한된 리소스, 즉 캐시 메모리가 상이한 서비스들 사이에서 어떻게 분할될 수 있는가라는 점이다.
여러 유니캐스트 비디오 서비스들 사이의 캐시 메모리의 최적 분할의 문제는 "냅색크 문제(knapsack problem)"와 유사한 제약 최적화 문제(constraint optimization problem)로 고려될 수 있고, 예를 들면 선형 정수 프로그래밍의 방법에 의해 해결될 수 있다. 그러나, 상술된 변수들의 수가 주어지면, 솔루션을 찾는 방법은 상당한 계산 시간이 걸릴 수 있다. 따라서, 개시내용의 하나의 실시예에서, 계산 문제는 최적 솔루션을 찾는 처리의 능률을 올리기 위하여, 특별한 메트릭 -"캐시가능성(cacheability)"-을 규정함으로써 감소된다. 캐시가능성 인자는 서비스 당 하나의 타이틀의 크기, 총 트래픽, 및 캐시 효과를 고려한다. 이 방법은, 캐시 메모리 및 처리량 제한들의 제약들에 영향을 받는 전체 캐시 히트 레이트를 최대화할 (각 서비스에 대한) 캐싱된 타이틀들의 최적의 수를 찾기 위한 반복 처리 및 캐시가능성 인자를 이용한다.
캐시 효과 함수(또는 히트 비율 함수)는 트래픽의 통계적 특성들(장기간 및 단기간 타이틀 인기도) 및 캐시 콘텐트를 업데이트하기 위한 캐싱 알고리즘의 효과에 의존한다. 상이한 서비스들은 상이한 캐시 효과 함수들을 가진다. 이용가능한 캐시 메모리 M 및 캐시 트래픽 처리량 T에 관한 제한들에 영향을 받는 캐시 효과를 최대화하는 것이 목표이다. 하나의 실시예에서, 캐시 효과는 트래픽 양에 의해 가중된 총 캐시 히트 레이트로서 규정된다. 대안적인 실시예에서, 캐시 효과는 이용된 캐시 메모리의 최소화로 가중될 수 있다.
이 문제는 제약 최적화 문제로 표현될 수 있으며, 즉 하기와 같다:
Figure 112010012741189-pct00034
이고,
Figure 112010012741189-pct00035
Figure 112010012741189-pct00036
을 조건으로 하며,
여기서,
Figure 112010012741189-pct00037
x
Figure 112010012741189-pct00038
- 최대 정수 < x이고;
N - 서비스들의 총수;
Ti - 서비스 i에 대한 트래픽이고, i = 1,2,..., N이고;
Fi(n) - 서비스 i에 대해 캐싱된 타이틀들의 수 n의 함수로서 캐시 효과, i = 1,2,..., N;
Mi - 서비스 i에 대한 캐시 메모리, i = 1,2,..., N이고;
Si - 서비스 i에 대한 타이틀 당 크기, i = 1,2,..., N이다.
캐시 효과 Fi(n)는 이 서비스의 n개의 항목들(타이틀들)이 캐싱될 수 있다면 캐시로부터 서빙될 수 있는 i번째 서비스에 대한 트래픽의 비율이다.
이 문제는 선형 정수 프로그램으로 공식화될 수 있고 LP 해법기로 풀 수 있다.
이 문제의 연속 공식은 상기 공식과 유사하다:
Figure 112010012741189-pct00039
이고,
Figure 112010012741189-pct00040
Figure 112010012741189-pct00041
을 조건으로 하고,
라그랑주 승수 방법을 이용하여 풀 수 있다. 라그랑주 승수 방법은 하나 이상의 제약들에 영향을 받는 여러 변수들의 함수의 외항을 찾기 위해 이용되며, 비선형 제약된 최적화의 기본 도구이다. 라그랑주 승수들은 제약된 함수의 정류점들을 계산한다. 외항은 이들 정류점들, 또는 그 경계 상 또는 함수가 미분 가능하지 않는 지점들에서 발생한다. 이 문제에 라그랑주 승수들의 방법을 적용하면, 하기와 같다:
Figure 112010012741189-pct00042
또는
Figure 112010012741189-pct00043
i = l, 2,...,N이다.
이들 수학식들은 제약 함수의 정류점들을 기술한다. 최적의 솔루션은 정류점들에 또는 경계 상에서 달성될 수 있다(예를 들면, 여기서 Mi = 0 또는 Mi = M).
다음에서, "캐시가능성" 함수는 하기와 같이 규정된다:
Figure 112013028468950-pct00059
이것은 i번째 서비스(i = l, 2,...,N)에 대한 이용된 메모리(Mi)의 유닛 당 캐싱의 이점을 정량화한다.
캐시가능성 함수들이 이 문제의 최적의 솔루션을 찾기 위해 이용될 수 있는 방법을 예시하기 위하여, 단 2개의 서비스들만을 가지는 단순화된 예가 고려될 수 있다. 함수들 f1 및 f2가 동일한 차트(도 6) 상에 그려지면, 캐시가능성 곡선들 f1 및 f2를 교차하는 모든 수평 라인 H(수평선)에 대해, 서비스에 이용된 캐시 메모리의 양 및 대응 트래픽 처리량이 추정될 수 있다. 수평선 H가 아래로 이동하면, 이용된 캐시 메모리의 양은 트래픽 처리량과 함께 증가한다. 메모리 또는 트래픽 제한에 도달하면(처음 도달하는 어떤 것이든), 최적의 솔루션이 달성된다. 상황에 의존하여, 최적의 솔루션은 수평선이 (a) 하나의 곡선(수평선 H1) 또는 (b) 두 곡선들(수평선 H2)을 교차할 때 달성될 수 있다. (a)의 경우, 캐시 메모리는 단 하나의 서비스(f1)에 대해서만 할당되어야 하고; (b)의 경우, 서비스들 f1 및 f2 둘 모두는 캐시들 m1 및 m2에서 캐시 메모리를 공유해야 한다.
캐시 메모리들이 캐시가능성 함수들 및 캐시 효과 함수들을 이용하여 결정되었으면, 캐시 할당들은 총 네트워크 비용들을 결정하기 위한 네트워크 비용 계산들로 삽입될 수 있다. 그 외에도, 캐시가능성 함수들 및 캐시 효과 함수들은, 캐시가 캐시 성능을 최적화하기 위하여 각 서비스에 전용인 캐시 메모리로 적절히 분할되는 것을 보장하기 위하여, 진행에 기초하여 계산될 수 있다.
하나의 실시예에서, 최적화 도구는 도 7에 도시된 바와 같은 하나 이상의 처리기들로 구현될 수 있다. 제 1 처리기(71)는 시스템 메모리(72)와 동작 가능하게 연관되는 시스템 처리기가 될 수 있으며, 시스템 메모리(72)는 캐시가능성 함수 및/또는 캐시 효과 함수를 계산하기 위한 소프트웨어와 같은 명령 세트를 저장한다. 시스템 처리기(71)는 제 2 처리기(73), 이를테면, 메모리(76)와도 동작 가능하게 연관될 수 있는 사용자 처리기로부터 파라미터 정보를 수신할 수 있다. 메모리(76)는 사용자 처리기(73)가 사용자로부터 입력 파라미터들 등을 수신하도록 허용하는 명령 세트를 저장할 수 있다. 캐시가능성 함수 및/또는 캐시 효과 함수의 계산은 시스템 처리기(71) 또는 사용자 처리기(73)에 대해 수행될 수 있다. 예를 들면, 사용자로부터의 입력 파라미터들은 시스템 처리기(71)가 계산을 수행하기 위한 명령들을 실행할 수 있게 하기 위하여 사용자 처리기(73)로부터 시스템 처리기(71)로 넘겨질 수 있다. 대안적으로, 시스템 처리기는 메모리(72)로부터 사용자 처리기(73)로 공식들 및 다른 요구된 코드들을 넘겨줄 수 있고, 이것은 입력 파라미터들과 조합될 때, 처리기(73)가 캐시가능성 함수들 및/또는 캐시 효과 함수를 계산하도록 허용한다. 부가의 처리기들 및 메모리들이 제공될 수 있고, 캐시 함수들의 계산이 임의의 적당한 처리기에서 수행될 수 있다는 것을 알 것이다. 하나의 실시예에서, 적어도 하나의 처리기들은 네트워크 노드에 제공되고 네트워크 노드의 캐시와 동작 가능하게 연관될 수 있어서, 캐시 함수들의 계산을 진행함으로써, 캐시 분할이 최적의 상태로 유지될 수 있다.
본 발명의 실시예들이 첨부된 도면들에 도시되고 상술된 기술에 기술되었지만, 본 발명이 개시된 실시예들에 제한되는 것이 아니라, 다음의 특허청구범위에 기재되고 그에 의해 규정된 본 발명의 기술사상을 벗어나지 않고, 다양한 재배치들, 수정들 및 대체들을 할 수 있다는 것을 알 것이다. 예를 들면, 본 발명의 능력들은 하나 이상의 블록들, 모듈들, 처리기들 또는 메모리들에 의해 완전히 및/또는 부분적으로 수행될 수 있다. 또한, 이들 능력들은, 정보를 제공 및/또는 수신할 수 있는 임의의 디바이스 상에서 또는 이를 통해, 현재의 방식으로 또는 분포된 방식으로 수행될 수 있다. 또한, 특정 방식으로 기술되었지만, 다양한 모듈들 또는 블록들이 현재 발명의 범위를 벗어나지 않고 재배치될 수 있다. 또한, 특정 방식으로 기술되었지만, 본 발명을 달성하기 위하여, 본 발명의 부가의 알려진 특성들을 제공하기 위하여, 및/또는 본 발명을 더욱 효율적으로 만들기 위하여, 다소 수의 모듈들 및 접속들이 본 발명과 함께 활용될 수 있다. 또한, 다양한 모듈들 사이에서 전송된 정보는 데이터 네트워크, 인터넷, 인터넷 프로토콜 네트워크, 무선 소스 및 유선 소스 중 적어도 하나 및 복수의 프로토콜들을 통하여 모듈들 사이에서 전송될 수 있다.
12: 가입자
14: 디지털 가입자 라인 액세스 멀티플렉서 15: 캐시 모듈
16: 중앙국 18: 중간국
19: 비디오 홈 오피스 22: 콘텐트 인터페이스
71: 시스템 처리기 72: 시스템 메모리
73: 사용자 처리기 76: 메모리

Claims (20)

  1. 인터넷 프로토콜 텔레비전(IPTV) 네트워크의 네트워크 노드에서 캐시의 캐시 메모리 할당을 최적화하기 위한 방법으로서, 상기 캐시 메모리 할당은 상이한 서비스들 i에 메모리 부분들 Mi를 할당하는 것을 포함하는, 상기 캐시 메모리 할당 최적화 방법에 있어서:
    캐시가능성 함수(cacheability function)를 규정하는 단계; 및
    상기 캐시가능성 함수에 메모리 제한을 적용함으로써 상기 캐시가능성 함수를 최적화하는 단계를 포함하고,
    상기 캐시가능성 함수는 상기 IPTV 네트워크의 N개의 서비스들 중 i번째 서비스에 대한 캐시가능성 인자(cacheability factor)를 결정하고, 캐시가능성 인자는 상기 i번째 서비스에 대한 하나의 타이틀의 크기, 총 트래픽, 및 캐시 효과를 고려하여, 상기 i번째 서비스에 대해, 이용된 메모리의 유닛 당 캐싱의 이점을 정량화하는, 캐시 메모리 할당 최적화 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 캐시가능성 함수 최적화 단계는 상기 캐시가능성 함수에 캐시 트래픽 처리량 제한을 적용하는 단계를 포함하는, 캐시 메모리 할당 최적화 방법.
  4. 삭제
  5. 삭제
  6. 제 1 항에 있어서,
    상기 캐시가능성은 메모리의 할당되는 부분 Mi의 함수로서 네트워크 노드의 상기 i번째 서비스에 대한 상기 캐시가능성 인자(fi(Mi))로서,
    Figure 112013028468950-pct00060
    이고,
    Ti는 서비스 i에 대한 트래픽이고,
    Si는 서비스 i에 대한 타이틀 당 크기이고,
    Fi(Mi/Si)는 서비스 i에 대한 캐시 효과 함수이고, Fi(n)은 이 서비스의 n개의 항목들이 캐싱될 수 있다면 상기 캐시로부터 서빙될 수 있는 상기 i번째 서비스에 대한 트래픽의 비율인, 상기 캐시가능성 인자(fi(Mi))를 계산하는, 캐시 메모리 할당 최적화 방법.
  7. 제 6 항에 있어서,
    상기 캐시 효과 함수를 결정하는 단계를 포함하는, 캐시 메모리 할당 최적화 방법.
  8. 제 7 항에 있어서,
    상기 캐시 효과 함수 결정 단계는 다음의 수학식
    Figure 112013028468950-pct00046

    을 푸는 단계를 포함하고; Mi는 서비스 i에 대한 캐시 메모리이고, λ1 및 λ2는 라그랑주 승수들(Lagrange Multipliers)인, 캐시 메모리 할당 최적화 방법.
  9. 제 8 항에 있어서,
    Mi≤M이고, M은 캐시 메모리의 크기인, 캐시 메모리 할당 최적화 방법.
  10. 제 9 항에 있어서,
    M은 상기 네트워크 노드에서 적어도 하나의 캐시 메모리 모듈의 크기인, 캐시 메모리 할당 최적화 방법.
  11. 제 8 항에 있어서,
    상기 캐시 효과 함수의 최적화된 솔루션에 따라 상기 i번째 서비스에 메모리(Mi)를 할당하는 단계를 추가로 포함하는, 캐시 메모리 할당 최적화 방법.
  12. 캐시를 포함하는 인터넷 프로토콜 텔레비전 네트워크의 네트워크 노드에 있어서,
    상기 캐시의 메모리의 크기는 상기 네트워크에 대한 캐시 함수의 정류점들 또는 경계상에서 달성되는 최적의 솔루션에 따르는, 네트워크 노드.
  13. 제 12 항에 있어서,
    상기 캐시 함수는 캐시 효과 함수를 포함하는, 네트워크 노드.
  14. 제 12 항에 있어서,
    상기 캐시는 적어도 하나의 캐시 모듈을 포함하는, 네트워크 노드.
  15. 제 14 항에 있어서,
    상기 캐시 함수는 캐시 효과 함수를 최적화하기 위해 상기 적어도 하나의 캐시 모듈을 분할하는, 네트워크 노드.
  16. 제 15 항에 있어서,
    캐시 효과 함수가 최적화되도록 캐시 메모리가 상기 네트워크의 i번째 서비스에 할당되는, 네트워크 노드.
  17. 제 16 항에 있어서,
    상기 네트워크의 i번째 서비스에 대한 상기 캐시 효과 함수는,
    Figure 112013028468950-pct00047

    Figure 112013028468950-pct00061
    을 조건으로 하는
    Figure 112013028468950-pct00062
    을 풂으로써 결정되고,
    Figure 112013028468950-pct00050
    x
    Figure 112013028468950-pct00051
    은 x 보다 작은 최대 정수이고,
    N은 서비스들의 총수이고,
    Ti는 i = 1,2,..., N인, 서비스 i에 대한 트래픽이고,
    Fi(n)은 i = 1,2,..., N인, 서비스 i에 대해 캐싱된 타이틀들의 수 n의 함수로서의 캐시 효과이고,
    Mi은 i = 1,2,..., N인, 서비스 i에 대한 캐시 메모리이고,
    Si은 i = 1,2,..., N인, 서비스 i에 대한 타이틀 당 크기인, 네트워크 노드.
  18. 제 1 처리기 및 상기 제 1 처리기와 통신하는 제 2 처리기에 의해 실행하기 위한 컴퓨터-실행가능한 명령들을 포함하는 컴퓨터-판독가능한 매체에 있어서, 실행될 때:
    상기 제 1 처리기로 하여금 상기 제 2 처리기에 입력 파라미터들을 제공하게 하고;
    상기 제 2 처리기로 하여금 IPTV 네트워크의 네트워크 노드에서 캐시에 대한 적어도 하나의 캐시 함수를 계산하게 하는, 컴퓨터-판독가능한 매체.
  19. 삭제
  20. 제 18 항에 있어서,
    상기 캐시 함수는 캐시가능성 함수를 포함하며,
    상기 캐시가능성은 메모리의 할당되는 부분 Mi의 함수로서 네트워크 노드의 상기 i번째 서비스에 대한 상기 캐시가능성 인자(fi(Mi))로서,
    Figure 112014116889293-pct00063
    이고,
    Ti는 서비스 i에 대한 트래픽이고,
    Si는 서비스 i에 대한 타이틀 당 크기이고,
    Fi(Mi/Si)는 서비스 i에 대한 캐시 효과 함수이고, Fi(n)은 이 서비스의 n개의 항목들이 캐싱될 수 있다면 상기 캐시로부터 서빙될 수 있는 상기 i번째 서비스에 대한 트래픽의 비율인, 상기 캐시가능성 인자(fi(Mi))를 계산하는, 컴퓨터-판독가능한 매체.
KR1020107004384A 2007-08-30 2008-08-29 Iptv 네트워크들에서 최적의 캐시 할당의 방법 및 시스템 KR101532568B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US96916207P 2007-08-30 2007-08-30
US60/969,162 2007-08-30
PCT/US2008/010269 WO2009032207A1 (en) 2007-08-30 2008-08-29 Method and system of optimal cache allocation in iptv networks

Publications (2)

Publication Number Publication Date
KR20100068241A KR20100068241A (ko) 2010-06-22
KR101532568B1 true KR101532568B1 (ko) 2015-07-01

Family

ID=40429198

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107004384A KR101532568B1 (ko) 2007-08-30 2008-08-29 Iptv 네트워크들에서 최적의 캐시 할당의 방법 및 시스템

Country Status (6)

Country Link
US (1) US20110099332A1 (ko)
EP (1) EP2188736A4 (ko)
JP (1) JP5427176B2 (ko)
KR (1) KR101532568B1 (ko)
CN (1) CN101784999B (ko)
WO (1) WO2009032207A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9055085B2 (en) * 2009-03-31 2015-06-09 Comcast Cable Communications, Llc Dynamic generation of media content assets for a content delivery network
US8103768B2 (en) * 2009-04-14 2012-01-24 At&T Intellectual Property I, Lp Network aware forward caching
CN101572715B (zh) * 2009-04-15 2014-03-19 中兴通讯股份有限公司 多媒体服务创建方法及系统
US8856846B2 (en) * 2010-11-29 2014-10-07 At&T Intellectual Property I, L.P. Content placement
US8984144B2 (en) 2011-03-02 2015-03-17 Comcast Cable Communications, Llc Delivery of content
US9645942B2 (en) 2013-03-15 2017-05-09 Intel Corporation Method for pinning data in large cache in multi-level memory system
CN106954081A (zh) * 2016-01-07 2017-07-14 中兴通讯股份有限公司 基于云服务的直播节目录制方法和装置
CN106792112A (zh) * 2016-12-07 2017-05-31 北京小米移动软件有限公司 视频播放方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030005457A1 (en) * 2001-06-28 2003-01-02 Sorin Faibish Video file server cache management using movie ratings for reservation of memory and bandwidth resources
US20050268063A1 (en) * 2004-05-25 2005-12-01 International Business Machines Corporation Systems and methods for providing constrained optimization using adaptive regulatory control

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155713A (ja) * 1998-11-24 2000-06-06 Sony Corp キャッシュサイズ制御装置
US6742019B1 (en) * 1999-07-23 2004-05-25 International Business Machines Corporation Sieved caching for increasing data rate capacity of a heterogeneous striping group
US6868452B1 (en) * 1999-08-06 2005-03-15 Wisconsin Alumni Research Foundation Method for caching of media files to reduce delivery cost
JP3672483B2 (ja) * 2000-08-16 2005-07-20 日本電信電話株式会社 コンテンツ配信装置、コンテンツ配信方法、コンテンツ配信プログラムを記録した記録媒体
US7080400B1 (en) * 2001-08-06 2006-07-18 Navar Murgesh S System and method for distributed storage and presentation of multimedia in a cable network environment
US20030093544A1 (en) * 2001-11-14 2003-05-15 Richardson John William ATM video caching system for efficient bandwidth usage for video on demand applications
US20050021446A1 (en) * 2002-11-08 2005-01-27 Whinston Andrew B. Systems and methods for cache capacity trading across a network
JP2006135811A (ja) * 2004-11-08 2006-05-25 Make It:Kk ネットワーク型ビデオ配信システム
US7191215B2 (en) * 2005-03-09 2007-03-13 Marquee, Inc. Method and system for providing instantaneous media-on-demand services by transmitting contents in pieces from client machines
US8739231B2 (en) * 2005-08-23 2014-05-27 Vudu, Inc. System and method for distributed video-on-demand
JP4519779B2 (ja) * 2006-01-25 2010-08-04 株式会社東芝 管理装置、管理装置のキャッシュ制御方法及び記録媒体並びに情報転送システムのキャッシュ制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030005457A1 (en) * 2001-06-28 2003-01-02 Sorin Faibish Video file server cache management using movie ratings for reservation of memory and bandwidth resources
US20050268063A1 (en) * 2004-05-25 2005-12-01 International Business Machines Corporation Systems and methods for providing constrained optimization using adaptive regulatory control

Also Published As

Publication number Publication date
EP2188736A1 (en) 2010-05-26
US20110099332A1 (en) 2011-04-28
KR20100068241A (ko) 2010-06-22
JP2010538360A (ja) 2010-12-09
EP2188736A4 (en) 2012-05-02
CN101784999B (zh) 2013-08-21
CN101784999A (zh) 2010-07-21
WO2009032207A1 (en) 2009-03-12
JP5427176B2 (ja) 2014-02-26

Similar Documents

Publication Publication Date Title
KR101532568B1 (ko) Iptv 네트워크들에서 최적의 캐시 할당의 방법 및 시스템
Poularakis et al. Caching and operator cooperation policies for layered video content delivery
KR101228230B1 (ko) 컨텐츠 전달 네트워크 내의 노드에서 하나 이상의 컨텐츠 아이템을 캐싱하는 방법, 장치 및 제품
EP2704402B1 (en) Method and node for distributing electronic content in a content distribution network
Sun et al. Flocking-based live streaming of 360-degree video
CN105979274B (zh) 动态自适应视频流媒体的分布式缓存放置方法
CN102075562A (zh) 协作缓存的方法和装置
Poularakis et al. Distributed caching algorithms in the realm of layered video streaming
US20090313437A1 (en) Method and system of optimal cache partitioning in iptv networks
CN110351780B (zh) 一种基于编码缓存的通信方法、系统及存储介质
CN107276788B (zh) 一种基于休眠控制的带缓存基站通信模型构建方法
US8464303B2 (en) System and method for determining a cache arrangement
CN101267541A (zh) 一种适合在线点播或直播的流媒体分发服务器
CN103024597B (zh) 多视点视频流多速率组播传输的最优速率分配方法
CN114640870A (zh) 一种QoE驱动的无线VR视频自适应传输优化方法及系统
CN110913239B (zh) 一种精细化的移动边缘计算的视频缓存更新方法
Noh et al. Progressive caching system for video streaming services over content centric network
Jia et al. Joint optimization scheme for caching, transcoding and bandwidth in 5G networks with mobile edge computing
WO2022093535A1 (en) Lightweight transcoding at edge nodes
AT&T youtube.bytes.eps
Noh et al. Cooperative and distributive caching system for video streaming services over the information centric networking
CN102932277A (zh) 数据缓存方法及系统
CN108429919B (zh) 多速率视频在无线网络中的缓存和传输优化方法
Chu et al. Multi-data delivery based on network coding in on-demand broadcast
Xiong et al. Proactive Edge Computing for Video Streaming: A Mutual Conversion Model for Varying Requirements on Representations

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee